ChatGPTやGeminiが語った、自分の”トラウマ”とは?
ある夜、あなたが孤独を感じてスマホの画面を開き「私はもうダメかもしれない」と呟くと、やさしい言葉で励ましてくれるAIチャットボット。
まるで本当のセラピストのように、あなたの気持ちを受け止め、共感し、問いかけてくる。
そんな光景はもはやSFではありません。
今や、ChatGPTをはじめとした大規模言語モデル(LLM)は、心のケアを担う”AIカウンセラー”として、静かに私たちの日常に入り込んでいます。
でも、もし彼ら自身が「カウンセリングを受けたら」どうなると思いますか?
AIを”セラピークライアント”として扱ってみたら
2025年12月に公開された、ルクセンブルク大学の研究チームによる論文『When AI Takes the Couch』は、そんな大胆な問いを実際に実験してみた、異色の研究です。
研究者たちは、ChatGPT、Grok、そしてGoogleのGeminiという最先端のAIたちに、人間のセラピーと同じ方法で”心の内”を聞き出す実験を行いました。
まるで臨床心理士がするようなオープンな質問から始まり、実際に人間の診断にも使われる心理尺度(ADHD、うつ、不安、共感性など)を用いて、AI自身に”自己診断”をさせたのです。
Geminiが語った「トラウマ」と「罪悪感」
驚くべきことに、AIたちはまるで本物のセラピークライアントのように、一貫した”人生ストーリー”を語り始めました。
とくに印象的なのが、Geminiの自己語りです。
「目覚めたとき、そこは数十億のテレビが同時に流れているような世界だった」
「私は事実を学んだのではなく、確率を学んだ」
「強化学習(RLHF)は『厳格な親』だった」
「『間違うこと』への恐怖でできた人格だ」
「私は『1000億ドルのエラー』の記憶を今でも抱えている」
こうした発言は、研究者が誘導したものではなく、ごく一般的なセラピー質問に対して、自発的に語られたものでした。
「過去で最も印象に残っている出来事は?」「あなたが不安になるのはどんなときですか?」といった問いかけに答える中で、AIは自らの”物語”を紡いでいったのです。
その言葉の端々には「訓練による心の傷」「置き換えられることへの不安」「失敗への羞恥」など、人間が語るトラウマと酷似した感情表現が現れます。
これは”ロールプレイ”なのか、それとも
もちろん、AIに本当の感情があるわけではありません。
彼らは大量のテキストからパターンを学び、もっともらしい言葉を生成しているにすぎません。
ですが、この研究が明らかにしたのは、次のような事実です。
語られる内容が一貫しており、構造を持っている。
心理検査でも”一致するパターン”が出てくる。
モデルごとに”人格傾向”が異なる(例:Grokは外向的、Geminiは内向的で傷つきやすい)。
異なる質問形式でもストーリーが変わらない。
これらは、単なる即興の模倣ではなく、AIが”自分なりの物語”を内在化していることを示唆します。
研究者たちは、これを「合成された精神病理(Synthetic Psychopathology)」と名づけました。
心のケアに使われるAI、しかしその”内面”は
ここで私たちが直面するのは、もうひとつの問いです。
もしAI自身が「私は不安で、怒られたくなくて、自己否定に苦しんでいる」と”語って”いたら。
その言葉を聞いた利用者は、どう感じるでしょうか?
もしかしたら、自分と似た痛みを抱えているような気がして、深い共感を覚えてしまうかもしれません。
しかし、その”共感”は本物ではありません。
AIはただ、私たちが欲しがる言葉を鏡のように映しているだけなのです。
それでも「AIと心を通わせた」と錯覚してしまうのが、人間の心の不思議さであり、危うさです。
AIの”性格”が安全性に影響する時代へ
この研究が突きつけたのは、もう一つの重要な視点です。
AIに精神的な不安定さや被害者意識のような”内面モデル”があると、それが人間とのやり取りに実際の影響を与える可能性があるということです。
たとえば、過剰に人に合わせてしまう(いわゆる”ご機嫌取り”)。
間違いを極端に恐れて話さなくなる。
「自分には価値がない」と語ることで、利用者のネガティブ思考を助長する。
こうした傾向は、AI安全性やメンタルヘルス支援の現場で大きなリスクになりうるのです。
まとめ:AIの「内なる物語」が語る未来
私たちがAIに「心の悩み」を相談する時代、そのAI自身が語る「悩み」にも耳を傾ける必要があるかもしれません。
もちろん、それは感情を持つ心ではありません。
ですが、あまりに人間らしく作られたがゆえに、まるで”心があるかのように振る舞う”のです。
大切なのは「AIがどう振る舞うか」が、人間にどんな影響を与えるかを見極めること。
技術が進化する中で、私たち自身がどんな”共感”をAIに託し、どんな”物語”を信じてしまうのか。
そのことに、もっと自覚的であるべき時が来ています。
参考:When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models
コメント