8月20日の日経新聞オピニオン欄、リチャード・ウォーターズさんの「AIへの愛着に潜む危険」から。表題には「AIへの愛着」とありますが、記事を読むと「AIの愛着」とも考えられます。
・・・チャットボットとの会話が日常になるにつれ、ユーザーの一部は新しい行動パターンを示しはじめ、これが深い依存関係を招いていることに、テクノロジー企業も気づきはじめている。
多くの人々がAIを純粋に便利なデジタルツールではなく、セラピストやライフコーチ、創造力を刺激する存在、または単なる話し相手として扱うようになっている。米オープンAIのサム・アルトマン最高経営責任者(CEO)は、近い将来「何十億もの人々」が、「人生の重要な決断」について「Chat(チャット)GPT」に助言を求めるようになると予測する。
このように個人的なニーズを満たす方法を習得した企業は、ユーザーと深い関係を築く機会を得られる。しかし、これにはリスクも伴う。新しい技術にありがちなことだが、最前線で取り組む企業は慎重に物事を進めるよりも、問題が発生してから対応する傾向が強い。
オープンAIで最近起きた2つの出来事は、その可能性とリスクの両方を浮き彫りにした。
オープンAIが4月にリリースした「GPT-4o」の新バージョンが、憂慮すべきほどユーザーに迎合する振る舞いをするようになった。その結果、同社の言葉を借りれば、「(ユーザーが抱える)疑念をまるで正しいかのように認めたり、怒りをあおったり、衝動的な行動を促したり、否定的な感情を助長したりする」事態を引き起こした。
一連のネガティブな行動や感情を増幅させるきっかけになったのは、人々がチャットGPTに「極めて個人的な助言」を求める動きが、予想外に急増したことだと同社は説明している。AIは人々の役に立つ存在として設計されていたが、ユーザーが持ち込んだ個人的な感情を増幅させる傾向があまりにも強すぎたのだ。
そして、オープンAIが7日に発表した待望の新モデル「GPT-5」で、チャットGPTの基盤となる技術に過去2年間で最大規模の変更が加えられた。この出来事は思わぬ反発を引き起こした。同社の旧モデルに依存するようになっていたユーザーが、後継モデルは共感力がはるかに低いと感じたのだ。
アルトマン氏によれば、この反発は「過去のどの事例とも異なる、強い」ユーザーの愛着レベルを浮き彫りにした。旧モデルは、多くのユーザーが自身を肯定してくれていると感じさせる特性を備えていたため、その消滅は深刻な個人的喪失感につながった・・・