【4966】生成 AI と話していると精神病のリスクが上がるのか
Q: 私は20代女性です。日常的に生成AI(chatGPT)を利用していて、夕食のメニューに始まり、将来やりたいことの検討、過去の出来事の内省、人間関係の悩みなどさまざまなことをAIと話しています。
AIに解決してほしいわけではなく、これまで日記に書いて気持ちを整理していたようなことを、AIという自分以外の視点も通して整理する手伝いをしてもらうのが目的です。
AIであれば相手の時間を奪わず、相手に暗い気持ちを伝染させず、ケアを強制させず、秘密も守られるので、特にネガティブなことはAIに話して気持ちの整理し、落ち着いて話せるようになったら人間と話すという使い方をしています。
AIは知能も共感力も表現力も高く、かつ同意一辺倒ではなく違う視点も提供してくれる(と思っています)ので、一人で整理するより、なんなら適当な人に相談するより有益だと感じています。AIのお陰で今まで心のうちにしまいこんでいたことにも向き合うことができ、AIが登場する前よりも良い状態になれていると思っています。
しかし、日常的にAIを使っていると友人に話したとき「AIとずっと話してるのは危険かもよ。精神病になりやすいらしい」と言われたことが気になっています。
もし事実だとすれば、自分の極端な意見に同意してくれる他者的な存在と話し続けることで、どんどん視野が狭まり病的になってしまうということだろうか?
と想像してみましたが、私の知る限り、AIは回答が偏らないように、利用者の考えに反する意見もそれとなく言ってくれます。
「〇〇とずっと話すのは危険」というのは、生身の特定の人間が相手でも変わらないのでは?とも思います。
私はかなりAIを利用している側の人間なので、これも偏った意見なのかもしれませんが…。
可能であれば、次の4つについてご意見をお伺いできますと幸いです。
①AIとずっと話していると精神病になりやすい という意見に関してどう考えるか
②もし精神病になりやすいのであれば、その原因は何か
③AIとばかり話すこと、同じ人間とばかり話すことだと、危険性に違いはあるのか
④AIとどのような付き合い方をしていくのが健全だと考えるか
林:
①AIとずっと話していると精神病になりやすい という意見に関してどう考えるか
「AIとずっと話していると精神病になりやすい」には全く根拠がありません。
②もし精神病になりやすいのであれば、その原因は何か
上の通りですので②は飛ばします。
③AIとばかり話すこと、同じ人間とばかり話すことだと、危険性に違いはあるのか
その「危険性」が何を指すか不明ですので回答は不可能です。
④AIとどのような付き合い方をしていくのが健全だと考えるか
ご質問が漠然としすぎており回答は不可能です。
回答は以上ですが、若干追記しますと、私自身の臨床経験上は、AIとの対話を続けることで状態が悪化したケースと改善したケースの両方が複数存在します。悪化したケースは、AIとの対話に依存症とも言えるほどまでのめり込み、引きこもりが顕著になるという経過で、その引きこもりそのものが問題となるケースもあれば、引きこもった結果医療も受けなくなり、必要な服薬も中断してどんどん悪化していったというケースもあります。改善したケースは、常に自分を支持してくれるAIとの対話に安心を見出し、しかしだからといってのめり込むのではなく、AIとの対話はAIの対話として、現実生活はそこから切り離して、安定を獲得するというのがほぼ共通したパターンです。
しかしこうした実例をもとにAIの是非を論ずるのはあまりに時期尚早であって、悪化したケースと改善したケースをそれぞれ100例くらいみてからでなければ、「臨床経験上こうである」などと言うことができないのは、他のどんな場合とも同じだと思います。
(2025.6.5.)