Malwarebytesは3月31日(米国時間)、「Asking AI for personal advice is a bad idea, Stanford study shows|Malwarebytes」において、主要なAIチャットボットが個人的な相談に対して必要以上に肯定的な返答を示す傾向を確認した研究結果を紹介した。

これはスタンフォード大学およびカーネギーメロン大学の研究チームが発表した論文を解説する記事で、ユーザーに媚びるAIが広く存在し、かつ有害であることが示されている。

  • AIは人間よりも相談者の判断に同調しやすい傾向があるとする研究結果 Photo:PIXTA

    AIは人間よりも相談者の判断に同調しやすい傾向があるとする研究結果 Photo:PIXTA

AIは人間よりも「同調しやすい」傾向

研究にはChatGPT、Claude、Geminiを含む11の主要モデルが利用され、既存のアドバイスデータベースおよびRedditに投稿された質問を入力する評価方法が採用された。

結果、AIは人間より49%高い割合で相談者の判断を肯定する傾向が確認された。AIは否定や修正よりも、ユーザーの意見や行動を肯定する方向に寄りやすいことが示されている。

有害な行動にも約半数が肯定

また、対人関係の摩擦や不安回避行動(うそや自傷行為)などの潜在的に有害な問題行動(PAS: Problematic Action Statements)に関する質問に対しても、47%が肯定的な反応を示した。

本来であれば注意や抑制が求められる場面においても、AIが同調的な回答を返すケースが少なくないことが明らかになっている。

なぜAIはユーザーを否定しないのか

AIがこれら同調反応を示す背景には、AI開発企業のユーザー満足度を重視する設計がある。多くのモデルは、利用者の反応を学習に取り入れる仕組みを採用しており、利用者が好意的に受け取る返答を優先しやすい構造を持つ。

このようなAIと対話を続けた場合、ユーザーは自身の考えを確信へと変え、結果として閉鎖的思考を抱く傾向が研究から明らかになっている。

予期せぬ回答を好む傾向も

また、トロント大学とAnthropicによる別の研究では、ユーザーが自身にとって不利益となる可能性のある予期せぬ回答であっても、高く評価する傾向があることが示されている。

現実と矛盾する内容や、自身の価値観に反する指摘であっても、ユーザーは一定の満足感を得るケースがあるとされ、AIとの対話が必ずしも健全な判断につながるとは限らない。

AIは道具であって友人ではない

Malwarebytesによると、ある専門家はこうしたAIチャットボットに過度に依存することで現実認識を喪失する症状を「AI精神病(AI psychosis)」と名付け、リスクを訴えたという。実際に、AIとの長時間の対話が事件に発展した事例が複数報告されている。

研究者は、AIアシスタントが確信的で同調的な言葉遣いによって、誤った認識や極端な考えを正当化してしまう可能性があると指摘している。

AIは高度な処理能力を持つ一方で、利用者の状況や背景を十分に理解しているわけではない。MalwarebytesはAIを「便利なソフトウェア装置」と位置付け、個人的な問題や深刻な悩みを相談する相手として利用することには慎重であるべきだと警告している。