6月18日の読売新聞「あすへの考」、大塚隆一・編集委員の「生成AI 新たな人類の脅威」から。
人間が書いたような文章を作ることができる生成AI(人工知能)の利用が急拡大している。一方で「人類や文明の存続を脅かす」などの警鐘も相次ぐ。なぜ、それほど恐れるべきなのか。核兵器や気候変動など他の脅威と何が違うのか。それらとの比較で何が見えてくるのか。
「人類存亡の脅威」と聞くと、何を思い浮かべるだろうか。
自然がもたらす破局的な脅威には小惑星の衝突や超巨大火山の噴火などがあるが、ここでは人間の活動、特に技術や産業の発展で生じた脅威を取り上げたい。
具体的には「気候変動」「核兵器」「遺伝子の改変」「人工知能(AI)」の四つだ。程度の差はあるが、どれも人類の存続を揺るがすリスクをはらむ。
一方、「遺伝子の改変」は「命」の謎解きに挑む生命科学が生んだリスクだ。特に近年、遺伝子を自在に操作できるゲノム編集が登場したことで懸念が強まった。
この技術を人の生殖細胞や受精卵に使い、遺伝子を望み通りに変えた「デザイナーベビー」を誕生させるとどうなるか。改変の影響は子々孫々まで残る。専門家は人類の多様性や進化に未知の問題を生じさせかねないと危惧する。
もちろん科学技術や産業の発展は多大な恵みをもたらしてきた。
数次の産業革命で私たちの暮らしは豊かになった。核エネルギーは原子力という新しい電源を生んだ。核融合にも期待が集まる。
遺伝子の研究は難病の治療や新薬の開発、作物の品種改良などでめざましい成果を上げてきた。
だが人類は、恵みと引き換えに、扱いを誤れば自らの生存を危うくするリスクを背負った。
いわば、災いが詰まった「パンドラの箱」を開けてしまった。
「人工知能」のうち、いま話題の「生成AI」は「知」の分野の驚くべき成果だ。代表格の対話型AI「チャットGPT」は人間のような巧みさで「言語」を操る。
それゆえ、脅威にもなりうる。こちらの「パンドラの箱」はどんな災いをもたらすのか。
政府のAI戦略会議は先月、懸念されるリスクとして、偽情報の氾濫、犯罪の巧妙化、著作権の侵害など7項目を挙げた。
一方、イスラエルの歴史家ユヴァル・ノア・ハラリ氏は英誌エコノミストで、「言語」が人類の文明を築いてきたことを考えれば、生成AI問題はもっと「大きな構図」で捉えるべきだと論じた。
「民主主義は対話であり、対話は言語による。AIが言語を乗っ取れば、有意義な対話、すなわち民主主義は破壊されかねない」
さらに「核兵器は文明を物理的に破壊できる」が、生成AIは「私たちの精神世界と社会」を滅ぼす「新しい大量破壊兵器」になりうる、とまで指摘した。
もちろんハラリ氏も、生成AIが社会の抱える様々な課題の解決に役立つ可能性は認めている。
しかし今は、その能力を見極め、規制を優先すべき時だと訴える。