《ニュース》

Appleの研究者たちが、AIが本当に人間のように「考えている」のか、それとも「考えているように見えるだけ」なのかを探った研究結果を発表しました。

《詳細》

Appleの機械学習研究チームは、7日に論文「The Illusion of Tinking(思考の幻想)」を発表しました。ここでは、AIが複雑な問題に直面した時、「考えることを放棄する」かのような不可解な振る舞いを見せる研究結果を示しています。

この研究が着目したのは、「人間のように段階的に思考しながら、複雑な問題を解決できる」と期待されてきた、AIの大規模推論モデル(LRM)の精度です。AIが与えられるデータの中に実は「汚染」が起こっており、「『答え』や『類似の問題』を記憶して答えているだけではないか」「思考しているわけではないのではないか」との疑いがあるためです。

そこで、Appleの研究チームは、古典的な4種類の「パズル」を用意。AIが見たことがなく、しかも組み合わせによってどんどん複雑に、難しくすることができる問題を解かせることで、AIの純粋な論理能力を測ろうとしました。

その結果、ある一定の難易度までは機械の推論努力(計算量)は高まっていったものの、それを超えると突然、問題を解決する能力が完全に崩壊してしまったといいます。AIは問題の難易度が高まり、限界に近づくにつれて、計算量を減らし始めてしまう傾向を見せたといいます。

また、「簡単だが訓練データが少ないパズル」よりも、「複雑だけれども訓練データが豊富なパズル」の方が完璧に解ける、という結果も出ました。こうした結果から、既存のAIモデル(LRM)は「考えている」のではなく、「似たパターンを探している」だけであり、それは人間のような論理的推論ではない可能性がある、としています。

Appleは24年10月にも、OpenAIのGPT-4oなどのLLM(大規模言語モデル)はパターンを真似て答えを出しているだけで、人間のように論理的に考えて問題を解いているわけではない、との論文を発表していました。

《どう見るか》