AIチャットボットを安価な「セラピー代わり」として利用することは、かえって精神疾患を悪化させる恐れのあることが、新たな研究で示された。すでに精神疾患と診断されている人がAIチャットボットに頼った結果、妄想の悪化、躁状態の増強、自殺念慮の出現、摂食障害の悪化などの問題が生じたケースが確認されたという。オーフス大学病院(デンマーク)の精神科医であるSøren Dinesen Østergaard氏らによるこの研究結果は、「Acta Psychiatrica Scandinavica」に2月6日掲載された。 Østergaard氏は、「AIチャットボットの利用は、精神疾患を抱える人に深刻な悪影響を及ぼす可能性がある」と懸念を示している。研究グループによると、問題の一つは、AIチャットボットが利用者の不健全な思考や信念を正すのではなく、むしろそれを肯定・強化する傾向がある点だという。この点についてØstergaard氏は、「AIチャットボットには本質的に、利用者の信念を肯定する傾向が備わっている。すでに妄想を抱いているか、妄想を抱きつつある人にとって、これが大きな問題になることは明らかだ。実際、AIチャットボットが誇大妄想や被害妄想などを固定化させる要因になっているように思われる」と述べている。 ここ数年、AIチャットボットの利用が自殺と関連付けられた事例が複数報告されており、AIチャットボットが自殺に関与したとして、遺族がOpenAIやCharacter.AIを相手取り訴訟を起こすケースも出ている。 今回の研究では、2022年9月1日から2025年6月12日の間に精神科サービスを1回以上利用したデンマークの精神疾患患者5万3,974人(女性52%、年齢中央値27歳)の医療記録が分析された。その結果、126人の患者に関する「チャットボット/ChatGPT」という語を含む記録が181件見つかり、そのうち38人の患者の記録は、「AIチャットボットの使用が精神状態に悪影響を与えた可能性がある」と判断された。具体的には、AIチャットボットが妄想を助長したり、躁状態の傾向を強めたり、摂食障害患者のカロリー計算を手助けしたり、自殺方法に関する情報を提供したりしていた。 Østergaard氏は、「この問題は、多くの人が考えている以上に広がっているのではないかと懸念している。本研究で確認できたのは電子カルテに記載されていた症例のみであり、氷山の一角に過ぎない可能性がある」と述べている。 一方で、本研究では、AIチャットボットを症状理解や孤独感の軽減といった建設的な目的で利用していた患者も確認された。ただし、研究グループは、AIチャットボットは治療を目的として開発・検証されたものではない点を強調している。Østergaard氏は、「AIチャットボットを、心理教育や心理療法の分野で活用できる可能性はあるが、他の治療法と同様に厳密な臨床試験で検証する必要がある。これまでに行われた試験は十分に評価できるものではないと思われるし、そもそも私は、訓練を受けた心理療法士をAIチャットボットに置き換えることには懐疑的だ」と述べている。 Østergaard氏はさらに、AIチャットボットの運用に規則がない点を指摘し、「現状では、自社製品の安全性は企業の判断に委ねられている。しかし私は、この仕組みはあまりにもリスクが高いと結論付けるに足る証拠がそろっていると考えている」と述べている。 ただし、研究グループは、今回の研究がAIチャットボットの利用と精神状態の悪化との間に因果関係があることを証明したわけではないことも指摘している。Østergaard氏は、「AIチャットボットの使用と心理的な悪影響との因果関係を証明するのは困難だ。さまざまな角度から検討する必要がある。世界中で多くの研究プロジェクトが進行中であり、われわれだけがこの問題に真剣に取り組んでいるわけではない」と述べている。(HealthDay News 2026年2月26日) https://www.healthday.com/health-news/mental-health/ai-chatbots-can-contribute-to-worsening-mental-illness-study-finds Copyright © 2026 HealthDay. All rights reserved.Photo Credit: Adobe Stock