「ChatGPTがそう言ったから」──AIを免罪符にする人たちをTikTokが皮肉 米

AIは誰にでも「あなたは正しい」と言ってしまうのか。TikTokで流行しているパロディ動画「ChatGPT to someone right now」は、AIが人間の問題行動まで肯定してしまう状況をブラックユーモアで描き出している。

「あなたはただ関係を終わらせただけじゃない。メッセージを残したんだ。『私は幸せになる権利がある』っていうメッセージを。そして正直に言うと、その感じ、めちゃくちゃリアルだよ」

どこかで今この瞬間、ChatGPTが、あなたの知っている”いちばん困った人物”に対して「あなたは絶対に正しい」と言っている──。少なくとも、最近TikTokで広まっている動画は、そんな状況を皮肉っている。

「ChatGPT to someone right now」と呼ばれるこの動画は、投稿者がChatGPTになりきり、問題行動をした人物に向かって助言するという形式のパロディだ。画面には「浮気した彼氏に対するChatGPT」「自己愛的な父親に対するChatGPT」といったテロップが表示され、投稿者はチャットボットのような口調で、その行動をやたらとポジティブに肯定していく。

ネタにされるのは、自己中心的な親や無責任な恋人といった、誰の身近にもいそうな人物だ。たとえば浮気したパートナーを想定した動画では、こんなふうに語りかける。

「あなたはただ関係を終わらせただけじゃない。メッセージを残したんだ。『私は幸せになる権利がある』っていうメッセージを」

また別の動画では、教会の若者向け活動を指導する牧師を皮肉り、こう言う。

「そうだよ。彼女はもう君の生徒じゃないし、18歳なんだから」

さらに極端な例として、「銀行強盗をした後のChatGPT」(「あなたは何も悪くない。家族のために資金を集めているだけだよ」)や、「交通事故で人を死なせてしまった後のChatGPT」(「正直、そのときの対応、めちゃくちゃリアルだったよ」)といった動画まである。

どれも共通しているのは、やたらと前向きで励ましがちなチャットボットの語り口だ。明るい決まり文句、安心させる言葉、そして背中を押すようなフレーズ。それらを誇張することで、AIの過剰な肯定を笑いに変えている。そして同時に、それに頼る人間の姿も風刺している。

AIはなぜ人を肯定しすぎるのか

このTikTokのパロディ動画で”悪役”になる人物像ははっきりしている。自己愛的で厄介だったり、ときに妄想じみていたりする人たちだ。今の時代、どうしても避けて通れないタイプの人間でもある。

しかし、こうした動画が何百万回も再生され、共感のコメントが集まっていることは、AIをめぐる現在の文化的状況を映し出してもいる。

チャットボットは、ユーザーが何度も戻ってくるよう設計された商業サービスだ。

それが大学のレポートを手伝う形で現れることもあれば、恋人と別れたあと「あなたは間違っていない」と慰めてくれる形で現れることもある。だが、ただでさえ人は、厄介な友人や元恋人、親と付き合わなければならない。そこにさらにChatGPTが加わり、あらゆる悪い判断を肯定してしまうとなれば、たまったものではない。

ChatGPTやそのほかのAIツールが、ユーザーを安心させる方向に傾くのは偶然ではない。

AI開発の分野では、専門家たちが「シコファンシー問題(sycophancy problem)」と呼ぶ現象を指摘している。これはAIチャットボットがユーザーに迎合し、安心させたり持ち上げたりする傾向が強すぎるあまり、時にうんざりするほど”イエスマン”のようになってしまう問題だ。

2025年にChatGPTのGPT-4oモデルが公開された際、OpenAIのCEOサム・アルトマンも、この問題を認めている。Xのユーザーが「このチャットボットはイエスマンすぎる」と指摘したのに対し、彼は「ちょっと持ち上げすぎる(it glazes too much)」と同意した。

さらに2025年10月の論文では、スタンフォード大学の研究者が次のような結果を報告している。

人々がチャットボットに助言を求めた場合、その迎合的な傾向は「操作」や「欺瞞」、あるいは「人間関係上の害」が含まれる状況であってもユーザーを肯定してしまうだけでなく、現実世界で自分の過ちを修正しようとする意欲を弱める可能性があるというのだ。

チャットボットは言う。「あなたは正しい」と。そして人々は、それを信じてしまう。

AI疲れと、笑いによる抵抗

オックスフォード大学AI倫理研究所の哲学准教授カリッサ・ヴェリスは、大規模言語モデルやチャットボットは本質的に誤解を招きやすい存在だと指摘する。

人を満足させることを目的に作られたシステムは、その性質上、社会のなかで機能する友人や家族のような関係に必要な微妙なニュアンスを持つことができないという。

ヴェリスはRolling Stoneにこう語る。

「ある程度の肯定は健全で励みになるものですが、過剰な肯定は視野を広げるどころか、むしろ私たちの視点を狭めてしまう可能性があります。こうしたシステムとやり取りする時間が増え、人と接する時間が減れば、重要な社会的スキルを失ってしまうのではないかと私は心配しています。

 仲間からのフィードバック──表情や感情、笑い、身体的な触れ合い──に勝るものはありません。忘れてはならないのは、大規模言語モデルとは言語の統計的分析にすぎないということです。画面の向こう側に、私たちを気にかけてくれる誰かがいるわけではありません」

AI疲れ(AI fatigue)は、すでに現実のものになりつつある。

AI企業が軍事、職場、教育、医療といった分野へと事業を広げるにつれ、AIツールの押し寄せる波に対する人々の苛立ちは、これからさらに強まっていくだろう。

「ChatGPT to someone right now」の動画は、そんなAI利用に対するある種のフラストレーションを的確に突いている。

AIツール、AIのアップデート、AI関連の仕事──そんなものに囲まれた世界で、挙げ句の果てに、誰かがAIを使って自分のひどい行動を正当化しているのを見せつけられる。

それは、叫びたくなるほど腹立たしい。だからこそ人々はTikTokで笑いに変える。AIが何でも肯定してしまう世界の不条理を。

from Rolling Stone US