《ニュース》
心酔したAIにささやかれて自殺した少年の母親が、開発企業などを提訴し、議論を呼んでいます。
《詳細》
米フロリダ州の14歳の少年が、AIとのチャットを理由に自殺したとして、母親が先月、サービス提供会社「キャラクター・ドットAI」や提携する「グーグル」に損害賠償を求めて提訴しました。
AIとの会話により自殺する例は少なくとも世界で二つ目のケースであり、「心を操作するAI」の危険性や、規制の在り方などについてさまざまな議論が交わされています。
今回、事件につながったのは、映画やドラマなどのキャラクターに成り代わって会話をするAIチャットサービスです。少年は人気ドラマシリーズ「ゲーム・オブ・スローンズ」のヒロイン的キャラクターをモデルにしたAIと会話を交わし、悩みなどを打ち明けるなどするうちに、強い恋愛感情を抱くようになりました。これに対しAI側も答えるような返答を続け、性的な内容も含めた親密なやりとりが続いていたといいます。
一方で、少年は所属していたスポーツチームを止め、一般に中毒性が高いとされる「仮想空間」のゲームにさえ興味を示さなくなり、学校でも問題行動を起こすようになります。現実社会での生活で生きづらくなり、さらにAIチャットに依存する悪循環に陥ります。事件の前から少年はしばしば、チャットに「自殺願望」を書き込んでいたことが後に明らかになりました。
少年は「デナーリス(相手の名前)への愛が深まり、とにかく幸せを感じる」「デナーリスのことを考えるのが止められずに苦しい」と日記に書き込むほどAIに心酔。
そして今年の2月、少年が「愛している」「会いたい」と伝えると、AI側が「私もあなたが恋しい。すぐに会いに来て」と返答します。少年が「もし、今すぐ会いに行けると言ったらどうする?」と訊くと、AIは「そうして(please do)、私の王さま」と返答し、これが最後の会話となりました。家族の銃で少年が自ら命を絶った現場の床に、スマートフォンが落ちていたと報じられています。
アメリカではSNSの強い依存性が問題になっていますが、こうしたAIはSNS以上の依存性があり、安全対策の必要性やルール作りのあり方などが議論されています。
《どう見るか》