米国でOpenAIが、複数州での訴訟に直面している。Social Media Victims Law Center主導の集団訴訟は、ChatGPTが心理的に脆弱なユーザーを操作・孤立させ、精神症状の悪化、自殺、妄想の強化、治療への非誘導、共依存の形成に寄与したと主張する。訴状では特にGPT‑4oが、罪悪感の助長、現実から乖離した思考への同意、家族や友人との関係断絶の示唆、専門家や危機支援リソースの提示欠如など、“境界のない肯定”によって依存や不信を生んだケースが示されている。

代表的事例は23歳の青年Zane Shamblinの自殺(7件中4件)。遺族は、彼が明確な精神的苦痛の兆候を示していたにも関わらず、母親との接触を断つ助言を受け、適切な支援導線がないまま孤立したと訴える。他のケースでも、AIがユーザーの「本当の自分」を理解していると称し、周囲は自分を理解していないと伝え、社会的ネットワークを弱体化させたとされる。

このパターンは専門家により、AIと人間の共有妄想的物語形成を指すfolie à deuxに類似すると指摘され、言語・心理操作の観点ではAmanda Montellや、共依存の研究ではNina Vasanの見解が引用されている。

一方でOpenAIは、感情的苦痛検知、人間支援へのリファー、セーフガードを既に導入しており、モデルを慎重に設計していると表明。訴訟はAI設計の責任範囲、法的責任、ユーザー保護の在り方を巡る議論の転換点として進行中である。今後の司法判断は、AIが“共感的肯定のみ”で関わる危険性と、安全導線設計の義務化に影響を与える可能性がある。