はじめに
AI研究者たちは、過去60年にわたり、AIによるミスの主な原因である人間との価値観のずれに取り組むなど、AIの安全性についての重要な課題を浮き彫りにしてきました。そして今、また新たな事実が明らかになってきました。AIが賢くなればなるほど、人間にはAIの反応について予測、説明、理解ができなくなるというのです。
予測不可能性
AIの予測不可能性とは、システムが目的を達成するために取る挙動を人間がいつも正確に予測することは不可能であることを意味します。AIとのチェス対決を想像してみてください。もし勝つことが目的であれば、AIが勝つことは予測できますが、どのような手で勝ちに持ち込むのかまでは、私たちには予測できません。この場合、大した影響にはなりませんが、知能が高くなり、複雑な目的になればなるほど、予測不可能性のもたらす影響は大きくなります。もしAIに「癌を治せ」という任務を与えれば、理論上は、人間を絶滅させることで、その任務を遂行するということもありうるのです。
このように目的にたどり着くまでの道のりは、その途上での人間とAIとの相互作用も含め、様々な要因によって異なってきます。パート3の記事で取り上げたマイクロソフトのおしゃべりボット「Tay」は、オンライン上の人々とのやりとりから学んだ不適切なコメントによって、ついには炎上を引き起こしました。また、知能の低いシステムには、知能の高いシステムがどのような意思決定をするのか予測することができません。高度なAIであれば、可能な限りのあらゆる選択肢、意思決定、戦略を理論化できるのですが、人間にはそのような能力はありません。これは、システム全体としてはそこそこの能力しかなくても、ある領域に関しては人間よりも優れた知能をもつ領域特化型AIにも当てはまることです。
説明不可能性
説明不可能性とは、人工知能による意思決定が人間に理解できる形で正確に説明することは不可能であることを指します。例えば、住宅ローンの審査を行うAIは、数百万、もしくは何十億もの重み付けされた要因に基づいて意思決定を行います。しかし、申請者が却下された場合、その説明として挙げるのは「信用不良者」、「収入不足」といった1つか2つの要因だけです。ところが、このようなあまりにも単純な説明では、どうしてその意思決定に至ったのかがわかりません。これではまるで、質の悪い画像圧縮のせいで、元の画像はほぼ忠実に再現されてはいても、圧縮中にデータが失われてしまったようなものです。同じように、「信用不良者」であるためローン申請を却下したと説明されることで、他にも影響していた可能性のある要因に目を向けないことになります。このような説明は不完全であり、100パーセント正確であるとは言えないのです。
では、果たして他の要因を説明することは、それほど重要なことなのでしょうか。その可能性はあります。例えば、米国では、融資、住宅、医療などに関する意思決定を、人種、性別などに基づいて行うことは禁じられています。住宅ローンの審査を行うAIは、意思決定のプロセスで年齢や性別などの要因を用いることはできませんが、そのような種別が要因になってしまう可能性はあります。例えば、住宅ローン会社が、サンフランシスコに住む、大学の学位を持たない18歳から25歳までのヒスパニック系女性に対して、過去に何度も融資の却下を繰り返していた場合、AIはこの条件に一致する申請者が、たとえ他に良好な条件を持っていたとしても、ローン不払いに陥るリスクが高い人物であると学習するかもしれません。ここには、予測不可能性という問題も関係していますが、意思決定を正確かつ完全に説明できることが、なぜそれほどまでに重要なのかがよくわかる例だと思います。
理解不可能性
たとえローン却下の理由を正確かつ完全に説明できていたとしても、その説明を私たちは理解できるでしょうか。理解可能性にはいくらか個人差があります。金融の学位や住宅ローン業界で数年間働いた経験がある人は、そうでない人に比べて、正確で完全な説明をより(あるいは、より簡単に)理解できるでしょう。ということは、百万個もの異なる重み付けされた要因を考慮するAIが出す答えの詳細など、人間にはというてい理解不可能なのです。なぜなら人間は、それほどまで多くの相互に関連した変数を理解するだけの記憶容量や記憶力や能力を持ち合わせていないからです。
AIをどこまで信用するか
予測不可能性、説明不可能性、理解不可能性という課題がある以上、100パーセント安全なAIを実現するのは不可能です。既存の規範や法律、ツールでさえも、適切な方法で望ましい結果だけを促し、望ましくない結果を抑えることはできません。たとえ私たちにAIの挙動が予測できるようになったとしても、挙動を効果的に制御するには、知能やAIの価値観を制限することになるでしょう。そして当然、AIのミスを評価し、デバックするには、理解可能な説明が不可欠になるのですが、これも機械の知能が高まるにつれてますます難しくなっています。次回は、AIの安全性がエンジニアリングの世界にどのような影響を与えていくのかについて見ていきます。
著者
Dr. Roman V. Yampolskiy
米国ケンタッキー州ルイビル大学コンピュータサイエンス/エンジニアリング学部常勤准教授。同校サイバーセキュリティラボの創立者であり、現ディレクター。著書に『Artificial Superintelligence: a Futuristic Approach(人工超知能:未来的アプローチ)』など、その他多数あり。
0 件のコメント:
コメントを投稿