人工知能が抱える制御不可能性

2026年2月21日   岡本全勝

2月1日の読売新聞、平野晋・中央大学教授の「AI 抱える「制御不可能性」」から。

・・・1972年、米国で欠陥車による死傷事故が起きた。フォード社が突貫で開発した小型車「ピント」は、後方から追突されると燃料漏れが起こりやすい欠陥があった。フォード社はそれを把握しながら放置した結果、火災事故が続発。メーカーの製造物責任が問われる事態となった。
「フォード・ピント事件」から半世紀。現代社会では、急速に進化するAI(人工知能)が、様々な問題やリスクを抱えながらも加速度的に導入範囲を広げている。
こうした状況に、自動車メーカーなどで製造物責任訴訟対応に当たった中央大教授の平野晋さんは、警鐘を鳴らす。リスク、欠陥を抱えたまま社会実装されるのを防ぐには、倫理的・法的、社会的な視点が必要だと訴える・・・

・・・自我に目覚めたAIが暴走して人間を敵と見なし、人類絶滅を図る――。1984年に公開されたSF映画「ターミネーター」は、そんな近未来を描いた作品でした。
私は論文や講義で、「ターミネーター」などディストピア(反理想郷)を描いた映画や神話などを例に出し、科学技術の戒めを伝えることに力を入れてきました。科学技術への制御能力を持たなければ人間自身が窮地に立たされる、ということが現実に起こりうるからです。しかし、一部の起業家やエンジニアからは「フィクションを引き合いに出して開発を阻害するな」と批判も浴びてきました。

そんな中、登場したのが生成AIでした。指示文を入力するだけで文章や画像・動画が瞬時に生み出される利便性から急速に普及していますが、同時に深刻な社会問題を引き起こしています。
実在する人物の画像や動画を性的に加工した「性的ディープフェイク」の被害は、世界中に広がっています。政治家や著名人の偽音声が作られ、詐欺に悪用される事件も起きています。殺人兵器のアンドロイドが他人の偽音声で電話をかける「ターミネーター」の1シーンが、フィクションではなく、現実となっているのです。

懸念すべき問題はそれだけではありません。
今のAIは、予測できない判断・動作をする「制御不可能性」を抱えています。もし、制御不可能なAIを搭載した車やロボットが何らかの事故を起こしたとしたら――。製造物が事故を起こした場合の製造業者の賠償責任を定めた「製造物責任(PL)法」に照らせば、事故を起こす可能性を認識しながら、市場に送り出した製造業者の責任は免れません・・・

・・・AIの判断は必ずしも公正ではない、という問題もあります。
人事採用を例に考えてみましょう。日本でも採用面接などにAIを導入する企業が増えているようです。ある企業でAIによる面接を受けた私のゼミ生の話では、画面の向こうのアバターが面接し、採点や合否判定にもAIが使われたそうです。
確かに、AIは応募者を統一したルールで振り分けることは得意です。しかし、応募者の背景事情や潜在能力といった数値化できない情報は読み取れません。正確さを追求すると公正さが減退する場合もあることが知られています。
実際、米アマゾンで過去の応募者の履歴書を基にAIで技術者の新規採用を行ったところ、採用者が男性ばかりになるといったことが起きました。過去のデータに照らせば「必ずしも不正確ではない」と主張する人がいるかもしれませんが、決して「公正」ではありません・・・

・・・自身、AI自体を否定するものではありません。原則、どんどん研究開発を進めるべきだと考えています。事務作業に導入できれば、人間は思考やアイデアが必要な業務に時間を割くことができます。ワーク・ライフ・バランスの改善にもつながるでしょう。
では、どう開発し、社会実装につなげていくか。重要となるのが「予防法学」です。健康診断を定期的に受けて生活を改善し、病気を未然に防ぐ「予防医学」のように、AIの活用が不法行為につながったり、人間の権利を侵したりすることがないよう、事前にリスクを予見し、法的に対策するというものです。
予防法学の実践には、AIの開発者側、利用者側の双方が「倫理的・法的・社会的課題=ELSI(エルシー)」を見つけ、検討する力を養うことが求められます。
ELSIは、Ethical(倫理的)、Legal(法的)、Social(社会的)、Issues(課題)の頭文字を取った略語です。誕生のきっかけとなったのが、米国で1990年に始まった、人の全遺伝情報を解読する「ヒトゲノム計画」です。計画を進める上で、遺伝情報の解読が差別につながる懸念や、個人情報やプライバシーをどう守るか、新たな法規制が必要になるのではないかといった課題が浮き彫りになり、ELSIの研究も行われることになりました・・・