AI、人工知能をカウンセリングに使う人が増えています。
カウンセラーではなく一般人が、自分の精神保健、心の問題についてチャットボットと呼ばれる対話型AIと話をする。当初は若干の問題もあったけれど、AIも進歩しているのでかなりの人がAIとのチャットに満足しているようです(Despite uncertain risks, many turn to AI like ChatGPT for mental health. October 26, 2024. The Washington Post)。
不安やうつ、依存など精神科の症状は人間が相手をするしかないだろうと思ったら、そんなことはない。かえって機械のほうがいいことも多いらしい。
機械、この場合はネット上の対話型AIチャットボットですが、そのチャットボットは人を「決めつけないからいい」という人が多い。こちらを見下したり、「そんなことしてちゃダメでしょ」といったりしない。
うつの人に「元気出しなさい」とか「がんばって」というようなバカなことをAIはいわない。たいへんですね、つらいでしょうと共感し、どんなふうにたいへんなのか、どうつらいか、ていねいに聞いたうえで会話の中身によっては受診を勧める。そのくらいのことをいまのAIはかんたんにできます。それを本物の人間のように自然な音声で伝えてくれる。
おまけに24時間、いつどんなときでも応答してくれます。
そうした「精神科AI」の利用者は千万人単位で存在するという推測もあります。精神に特化したのではない、一般的向けのAIを精神科の目的に使う人はさらに多いかもしれない。
精神科AIは、妄想、思いこみを強化することもあると専門家は懸念する。このため、たとえば自殺念慮が疑われたら、自殺防止の電話相談を表示するチャットボットも出てきました。
使い方によっては逆効果だけれど、利用者はおおむね「機械相手の対話」に満足している。
チャットボットのひとつ、「レプリカ」の制作者であるユージェニア・クイダさんは、精神保健にチャットボットを使う人は、犬を飼っているようなものだといいます。落ちこんで、医者にかかるほどでもないとき、ちょっと目を向ければいい。
「要するに気分がよくなればいいわけだから」
犬の散歩に出るように、AIと対話する。
このブログではしばらく前に、がんの告知などにAIを使う医師の考えを紹介しました(10月15日)。告知といいカウンセリングといい、AIの進出は止まりません。そういうAIは、現実との境界をしだいにあいまいなものにしている。それはぼくらの生きる現実が、じつはかなりあいまいなものでしかないということでもあるのではないか。
ぼくらの現実ってなんなのと、AIが問いかけているかのように感じます。
(2024年10月30日)