こんにちは、Kanotです。最近「AIと倫理」に関する話をさせてもらうことが増えてきました。博士学生だった時に、このトピックの科目のTeaching Assistantをしたことがあり、当時から「面白い科目だな」と思っていたのですが、日本でもこのトピックが話題に上がることが増えてきましたね。
ちなみに「AI倫理って何?」と思われる方も多いと思いますが、AIにどのように「人として守るべき道」を守らせていくのか(守れるように開発してくのか)について考えるための議論であったりガイドラインのことと考えています。
私がこのトピックで講義をする際は、色々な事例をもとに「これってAIとして正しい判断だと思う?」「君ならどういうロジックを組み立てる?」「この判断って正義?」とマイケル・サンデル白熱教室のごとく、学生に問いかけて議論させるスタイルの授業をしています。AI倫理は、教わるのではなく考え、議論することが重要だと思うからです。
さて、そんなAI倫理ですが、あまり基礎的なところをこれまで勉強してなかったなと思い、世界で認知されている共通の原則ってどのようなものがあるのだろうかと思い、調べてみました。
AI倫理を主導する団体 AI4People
調べる中で出てきたのが、AI4Peopleという団体でした。これは欧州で始まった団体で、AIの利活用による社会への影響等に知見を有する産官学の専門家グループだそうで、日本企業からも欧州富士通研究所などが創立メンバーとして加盟しているようです。(参照:富士通)
そのAI4Peopleの創立者メンバーが書いた論文がありましたので、その論文に書いてあった「AI倫理の5限則」を紹介します。論文はオープンアクセス(無料で読める論文)ですので、ご興味ある方はご一読ください。
この論文のアプローチは、過去のAI倫理に関する原則について提言があった6つのリソースを分析し、重複する部分(共通して重要と提言されている項目)を中心にカテゴライズし、5つの原則としてまとめ直したものになります。
ちなみに5つの原則の構成は以下の図の通りです(図は上記論文からの引用)。伝統的な生命倫理学の4原則に加えて、AI特有の原則として「Explicability(説明可能性)」を追加したモデルになっています。
ここからは、それぞれの原則について私の解釈を加えて解説していきます。私の意訳もだいぶ入りますので、正確に理解したい方は原著にあたっていただけたらと思います。
原則1:恩恵(Beneficence)
幸福の促進、尊厳の保持、地球の持続
一つ目は、人類にとって有益なAIを開発するという原則です。これは他のリソースでも多くがトップに位置付けていたとのことでした。具体的な点として、幸福(Well-being)、尊厳、持続可能性といった点が挙げられているのもSDGs時代ならではの点と感じました。
また、地球や環境といった一見AIと関係なさそうなキーワードも挙げられています。人類にとってだけでなく他の生物、環境、そして地球の持続のために役立てようというものです。
上記を一言でまとめるならば「人々や地球の幸福(Well-being)を促進するためにAIを活用することが重要」といった感じでしょうか。
原則2:無危害(Non-maleficence)
プライバシー、安全、能力への警告
二つ目は、人類に害をなさないAIを開発するという原則です。前項と似たようなことを言っているようですが、特にIT技術に関しては、役に立つことと同じくらい害を及ぼさないことというのは重要な点です。
まず、AIの過剰利用による警告が挙げられています。例えば、YouTubeのオススメ機能は楽しい動画がたくさんあり、つい見入ってしまいますが、使いすぎると睡眠障害や学力低下などの問題につながります。
次に、誤用による負の影響への警告が挙げられています。最近のフェイクニュースや、実在する人物の画像を加工して言ってもいないことを喋らせたり、著作権を侵害したりといった使い方は誤用による負の影響と言えるかと思います。
そして、プライバシーの保護や軍事への利用抑制についても挙げられています。さらには、警戒すべきは意図して作った物だけでなく、偶発的に起きる事象についても触れられています。確かに以前、自動で学習して賢くなっていくチャットボットが急に過激な発言を繰り返すようになった事例もありました。これを「意図した物ではない」と責任逃れをするべきではないというメッセージですね。
原則3:自律(Autonomy)
決定する力(決定するかどうか)
三つ目は、決定権をAIに渡さないという原則です。AIが高度になればなるほど、判断をAIに依存したくなります。例えば、治療方針や投薬などについてAIが過去の膨大なデータからおすすめを出してくれたとして、ついそれに頼りたくなります。しかし、完全にAI判断に依存してしまうことは危険で、自身の意思決定権とAIに委任する決定権のバランスが重要になります。
また、人間に危害を加えたり破壊する権限はAIに与えるべきではないとも述べられています。仮に全自動の戦争システムがあったとして、それを使えば攻撃する側は心が(自分で判断することと比べて)傷まないかもしれません。機械が勝手にやったことだと言えるからです。しかし、そのような使い方はしてはいけないとしています。
また、最終的には必ず人がコントロールできる権限を残しておくべきだと述べられています。例えば、航空機の操縦はほぼ全自動になっているようですが、最終的にはパイロットが操作権を取り戻すことができるようになっているようです。このように、一部をAIに任せる時代はすぐそこにきてますが、ヤバいと思った時に権限を取り戻せる設計が重要とのことです。
この辺りは、先日私が書いたブログとも通じるところがあります。大学の課題に取り組む際に生成AIに依存しすぎないようにしようという内容です。ご興味あればご一読ください。
原則4:正義(Justice)
繁栄の促進と連帯の維持
四つ目は、AIは正義を促進するために使うべきという原則です。皆さんから「正義」って何?という声が聞こえてきそうですが、人類の繁栄のために、差別や不公平を是正するために、そして社会が連帯できるように使っていこうというメッセージのようです。
一方、昨今のAI技術はアメリカの民主党と共和党のように社会の断絶をむしろ深めていたり、人種差別につながるような判断をしてしまうケースも多いと感じていますので、まだまだ改善が必要な発展途上な技術ということも言えるのだろうと思います。
原則5:説明可能性(Explicability)
明瞭性と責任性による他の原則の実現
五つ目は、AIの意思決定プロセスを理解し説明責任を追わせる必要に関する原則です。この原則は、生命倫理学の4限則に加えて追加されているものですが、ここがこれまでの倫理とAI倫理の大きな違いと私も思います。
つまり、これまでは人間がどのような愚行を行おうとも何かしら理由があったり説明はできる物だったと思います(その説明が論理的・合理的かはさておき)。一方、昨今のAIはブラックボックス化していて、プログラムを組んだ人も、なぜそのような答えが出てきたかがわからないようなものになっています。
この見えないロジックの中で、どのように意思決定プロセスを理解し、説明責任を負えるように開発してくかというのはエンジニアにとっては非常に難しい取り組みになりますが、意図せず怪物を作り出してしまうことを防ぐにはこのようなアプローチも重要なのだろうと思います。
おわりに
改めてAI倫理の原則を勉強してみましたが、この5つの原則は確かに網羅的で指針にすべき内容と感じました。昨今のAIの進化はすさまじく、一歩間違えれば人類や地球を大きな負の影響を与えかねないリスクを孕んでいると感じます。
今後もAIと倫理の動向は追っていこうと思いますし、また適宜情報シェアしていこうと思います。
コメント