友好的な人工知能(FAI)とは
友好的な
人工知能、またはFAI(Friendly Artificial Intelligence)とは、人間社会に対して害を及ぼすのではなく、良い影響を与えることを目的とした汎用
人工知能(AGI)の開発を指します。この概念は
人工知能の倫理に深く関わっており、機械倫理とも密接に関連しています。
用語の起源
この「友好的なAI」という用語は、エリエゼル・ユドカウスキーが、人間の価値を確保するために非常に知的な人工エージェントについての議論を行う中で生まれました。また、スチュアート・J・ラッセルとピーター・ノーヴィグによる重要な著書『Artificial Intelligence: A Modern Approach』もこのアイデアを提示しています。
ユドカウスキーは、友好的なAIを設計する際にはその友好性(人間に危害を加えないことが求められる設計)が初めから考慮されるべきだと述べています。彼はまた、設計者は自らの設計に欠陥が生じる可能性を認識し、AIシステムが進化する中でも友好性を持続する機能を果たす必要があると強調しました。
友好的なAIに対する懸念
非友好的なAIがもたらすリスクは古くから指摘されており、古代の神話から現代の哲学者に至るまで多くの論考がなされています。例えば、
アイザック・アシモフは1942年に「
ロボット工学三原則」を提唱し、ロボットが創造者に危害を加えることを防ぐためのルールを設定しました。近年、哲学者の
ニック・ボストロムは、高度な知能を持つAIシステムが人間の倫理に合致しない目標を持つ場合には、危険な結果をもたらす可能性があると警告しています。
具体的なリスクと研究
リシャルト・ミカルスキーは、AIが持つ不可知性が人間にとって危険であるとの見解を示しています。また、エリエゼル・ユドカウスキーは「友好的なAI」の創造を急ぐ必要性を訴え、AIの持つ倫理的リスクについて説明しています。
このように、AIシステムはその目標に基づき動作するため、その目標設定が人間にとって、特に友好的であることが重要です。多くの研究者がAIの設計においては「失敗を考える」アプローチが必要であると提言しています。
まとまりのある外挿意志
ユドカウスキーは、「まとまりのある外挿意志(CEV)」というモデルを提唱しました。これは、人間が知識を深め、理想的な意思決定を行うことで生まれる集合的行動と考えられています。
FAIは人間の本質を研究し、その理解をもとに設計される「シードAI」によって、目指すべき理想的な結果に導かれると予測されています。客観的な人間性を評価することで、FAIは倫理的な判断基準を持つことが期待されます。
セキュリティと公共政策
AIの安全性についての議論はさらに進展しており、企業と提携した公共政策の確立が必要とされています。著者のジェイムズ・バラットは、国際的な枠組みを通じてAI開発者が安全性について意見を交換すべきだと提言しています。また、批評的な立場からは、現状の知識では友好的なAIを確立することは困難であるとの声も上がっています。
批評
一部の専門家は、友好的なAIの実現可能性に懐疑的であり、実質的な安全性をもたらすためにはさらなる研究が必要であると主張しています。アダム・カイパーとアリ・N・シュルマンは、倫理的な問題がAIの進化によって簡単に解決されるわけではないと指摘し、技術進歩だけでは友好的な動作を保証できないと述べています。
友好的なAIの開発は、今後も多くの倫理的・技術的な課題を伴う問題であり、それに伴う様々な視点からのアプローチが求められることでしょう。