《ニュース》
人工知能(AI)に関する研究で2024年のノーベル物理学賞を受賞した、米プリンストン大学のジョン・ホップフィールド名誉教授とカナダ・トロント大学のジェフリー・ヒントン名誉教授は8日、AIの進化が人間の制御を超える恐れがあると警鐘を鳴らしました。
《詳細》
ホップフィールド氏とヒントン氏は、「人工ニューラルネットワークによる機械学習を可能にする基礎的な発明」により、ノーベル物理学賞を受賞。「人工ニューラルネットワーク」とは、脳の神経細胞の刺激が伝わる仕組みをコンピューターの情報処理に応用したもので、AI技術の中核を担う「機械学習」の基礎となりました。これが深層学習(ディープラーニング)につながり、AIの画像認識や対話型AIなどに用いられています。
「ノーベル賞受賞」という華々しい業績の一方で、両氏は、ディープラーニングシステムの暴走を防ぐためにその構造への理解を深めるべきだと訴えています。
ホップフィールド氏は、「物理学者として私が非常に不安を覚えるのは、制御できないもの、その技術を駆使する際に、限界がどこにあるのかよく分からないものだ」とし、AIの未知の可能性と限界について不安を感じることがあると述べました。
また、「AIのゴッドファーザー」とも称されるヒントン氏は、「知的レベルの高いものが、劣っているものに制御されている例はほとんど見たことがない。AIの知的レベルがわれわれ人間を上回った場合、AIに支配権を握られるのではないかと思えるはずだ」「AIは生産性の大幅な向上を意味するが、同時に制御不能なAIの脅威など、いくつかの悪影響についても心配しなければならない」と指摘。現時点で破滅的なシナリオを回避する方法を把握するのは不可能だとし、安全性などの研究に取り組む必要があるとも述べています。
ヒントン氏はかねてから「AIが人間の知能を超え、制御できなくなる」と警告し続けてきました。同氏は米IT大手グーグルでAI分野の製品開発に広く携わってきましたが、「グーグルへの影響を考えることなく、AIの危険性について話ができるようにするため」との理由で23年4月に退社しています。
一方、ヒントン氏の見解にはAI研究者の間でも議論が分かれており、「AIの危険性が誇張されている」「あまり心配し過ぎると進歩が妨げられるかもしれない」と指摘する声もあるといいます。
《どう見るか》