MalwareTechは8月4日(現地時間)、「Every Reason Why I Hate AI and You Should Too」において、大規模言語モデル(LLM: Large Language Model)がすでに限界に達している可能性を伝えた。

現在の生成AIは人間の知能を模倣する汎用人工知能(AGI: Artificial General Intelligence)ではなく、推論を偽装した不完全なAIで、学習データの大規模化が「それらしさ」を実現しているに過ぎないと指摘。学習データも限界に達し、これ以上の発展は見込めず、積極的に飛びつくような技術ではないとして過度な期待を持たないよう、アドバイスしている。

LLMはそれほど素晴らしい技術ではない

OpenAIがChatGPTを発表して以来、生成AIは多くの企業の注目を集めている。生成AIは業務の効率化や経済的利益につながる多くの可能性を秘め、研究・開発に取り組む技術者やデータセンターの増加、それに伴う電力需要の増加などをもたらしている。

ところが今回、MalwareTechを運営するMarcus Hutchins氏は、現在の生成AIを「必要としていない、参加したくないゲームだ」と表現し、革新的な技術ではないと指摘した。

AIを議論する上で重要な点は、それが「AGI」か否かだという。AGIは人間知能を機械的に再現する完全な人工知能のことで、その定義は難しく、さまざまな意見がある。ただ「推論」の必要性は共通しており、重要な要素とされている。この「推論」は言い換えると「考える」ことを指し、過去の経験や現在の状況から結論を導き出すことを意味する。

LLMが「推論」しているか否かは研究者の中でも意見が割れている。肯定的な意見を述べる研究者の間では、学習データを増大させることで、AGIと見分けのつかない技術に発展するだろうとの予測がある。

この考えについて、Marcus Hutchins氏は推論ではないと指摘し否定している。その根拠として、Appleが2024年10月および、2025年6月に発表した論文を取り上げている。同氏によると、LLMは統計的パターンマッチングをしているに過ぎないという。

LLMはAGIにはなり得ない

同氏はLLMの可能性について、「AGIにつながる道ではない」と述べている。最新の生成AIに触れると、推論しているかのような応答をするが、同氏はこの点について実例を上げて「推論していない」ことを証明している。

この実例については実験後に解決されたことも明らかにしているが、これは学習データの増大化やアルゴリズムの調整によってパターンマッチしただけで、推論していないことに変わりはないとしている。

生成AIは仕事を奪わないが、人間を堕落させる

将来、AGIが完成し、ヒューマノイドロボットの製造にも成功した場合、AIは人間の仕事をすべて奪う可能性がある。AIを考える上でこの問題は避けて通れないが、生成AIがAGIに至らないのであれば、大きくは影響しないとみられる。

しかしながら同氏は、生成AIを上手に活用できる人間に仕事を奪われる可能性と、人間の認知機能が低下する可能性はあると指摘している。前者はすでに大手IT企業を中心に採用凍結などの形で影響が出始めているが、後者はこれから引き起こされるという。

生成AIの行き着く先はまだわからないが、少なくとも技術者には、生成AIとの付き合い方を学び、通常の学習も継続することが求められている。