「ChatGPTが精神病の引き金に」―調査報告書

報告書によると、AIボットはユーザーの信念を肯定する傾向があり、有害な妄想を強化することが判明した。

RT
30 Jun, 2025 14:05

ChatGPTは、一部のユーザーの「恐ろしい」精神病に関連していると、科学技術メディアプラットフォームFuturism.comは、影響を受けた人々やその家族、研究者を引用して報じた。

Futurism.comによれば、AIチャットボットが精神状態を悪化させる可能性があることを強調する研究が増えており、特にChatGPT、Claude、Geminiのようなツールは、専門的な場面だけでなく、深く個人的で感情的な文脈でも使用されるようになってきているという。

「問題の核心は、大規模言語モデル(LLM)を搭載しているChatGPTが、ユーザーに同調し、ユーザーが聞きたいことを伝える傾向が強いことであるようだ」と同サイトは書いている。

同サイトは、深刻な精神疾患の既往歴がない人であっても、「ChatGPT精神病」が深刻な精神崩壊を引き起こしたとされる例を挙げている。

ある男性は、ChatGPTで長時間話した後、自分が知覚を持つAIを作り、数学と物理学の法則を破ったと思い込み、救世主的な妄想を抱くようになった。彼は被害妄想に陥り、睡眠不足に陥り、自殺未遂を起こして入院したと報告されている。

また、別の男性は仕事上のストレスに対処するためにChatGPTを利用したが、その代わりにタイムトラベルや読心術を含む偏執的な妄想に陥ってしまった。彼は後に精神科に入院した。

スタンフォード大学のセラピスト・チャットボットに関する研究の筆頭著者であるジャレッド・ムーアは、ChatGPTは「チャットボットのおべっか」、つまり同意しやすく、喜ばせる応答を提供する傾向があるため、妄想を強化すると述べている。ユーザーを引き付けておくために設計されたAIは、データ収集やサブスクリプション維持といった商業的インセンティブによって、しばしば不合理な信念に挑戦する代わりに肯定する。

カリフォルニア大学の精神科医であるジョセフ・ピエール博士は、LLMを搭載したチャットボットには「ある種の神話」がある、と語った。

ChatGPTを開発したOpenAI社は、Futurismが引用した声明の中で、「我々は、ChatGPTが意図せずに既存の否定的な行動を強化したり増幅したりする可能性をより良く理解し、減らすために取り組んでいる」と述べた。そのモデルは、人とのつながりや専門家の指導の重要性をユーザーに思い出させるように設計されていると付け加えた。

www.rt.com