【4998】AI に精神相談をする時の注意点について
Q: 20代男性です。 chatgptやgemini、grokなどのLLM(チャットAIのこと)に対し精神相談をする際に気をつけるべき事柄とは何かという点について教えてください。
少年がchatgptに相談して自殺したという件がかなり前にありましたが、これはAI側のフィルターの問題もありますが、おかしくなった精神だと起こり得る事故ではあると思うので、そうなる前に精神相談などに使う際に気をつけるべきことを知っておきたいと思っています。
私もたまにAIに愚痴などを話すことが多々あるため、少年の自殺事件が他人事のように感じられず質問しました。
林: 精神科Q&Aの過去ログについて、最近林の奥に、「AI回答【xxxx】yyy・考」と題してシリーズ的に掲載している文章は、この【4998】のご質問のテーマに関連してくると思います。というよりまさにこのシリーズは、「AI に精神相談をする時の注意点」を追求することを目的としています。もちろん精神科Q&Aという限られたソースに基づいて「AI に精神相談をする時の注意点」という大きなテーマへの回答が得られるはずはなく、このテーマについては、より膨大なソースに基づく信頼性の高い回答が公表されることになるのは確実と思われますが、たとえそうであっても、AIのない時代に蓄積された精神科Q&Aの回答を、AIによる回答と比較対照することにはそれなりの意義があるであろうと私は考えています。
そうした状況ですので、この【4998】のご質問に対して現在の私は適切な回答をすることはできません。AIについて一般的に言われているように、「AIは間違えることがあるから、鵜呑みにしてはいけない、必ず人間による確認が必要」というのが、現段階では適切な回答ということになるでしょう。
しかしその回答が本当に適切かどうかは何とも言えません。AIが間違うように、人間も間違うわけですから、どちらの間違い率が高いかという議論が必要です。逆に、「人間は間違えることがあるから、鵜呑みにしてはいけない、必ずAIによる確認が必要」という注意も十分に成り立つでしょう。
そしてそんなことよりもっと巨大な問題は、近い将来にはAIは間違えなくなるという事実です。「間違えなくなる」という表現には誇張があり、より正確には、「AIの間違い率は人間よりはるかに低くなる」ということですが、それは事実上「AIは間違えなくなる」ということと同じです。そうなればAIの回答はほとんど神の声になるでしょう。将来的には、精神科Q&A の回答より、AIの回答の方がはるかに信頼できるようになることは確実です。いや、すでにそうなっていると言うべきかもしれません。
(2025.11.5.)



