医者かAIか

 医療情報をグーグルではなくAI、人工知能に求める人が増えています。
 医者と患者の関係は、さらに変わりはじめました(The Chatbot Will See You Now. Sept. 11, 2024. The New York Times)。

 例としてあげられているのは64歳の女性、スーザン・シェリダンさんです。
 ある朝、急に頭が痛くなり、顔の右半分が垂れ下がった。痛みで枕も使えないほどです。異常に気づいた夫が車を運転し、3時間かけて病院の救急外来に行きました。けれど医者は何も悪いところはないといい、そのまま家に帰されています。

 症状が治まらないので、シェリダンさんはチャットGPTというAI、人工知能を試しました。「顔のゆがみ、顔の痛み、歯の異常」という、かなりいいかげんな聞き方をしたけれど、AIは答えてくれた。
「ベル麻痺」かもしれない。
 ヘルペスウィルスが起こす顔面の神経麻痺で、放っておくと後遺症が残るおそれがあります。

 シェリダンさんはふたたび救急外来に行きました。こんどは医者も異常を認め、ステロイドと抗ウィルス薬を出してくれたので症状はほぼ消えました。
 シェリダンさんはいま、患者の安全を提唱するグループを作っています。
「医療はときどきまちがえる。そのときはチャットGPTに頼るんです」

 KFFという非営利団体によれば、医療情報を求めてAIを使う人はおとなの6人に1人、30歳以下では4分の1の人が、少なくとも月に1回、AIで医療的なアドバイスを求めているといいます。
 イエール大学のベンジャミン・トルチン博士は、いずれこうなると予測していました。
「AIはグーグルで得られる断片的な情報よりずっと説得力があって、ずっと完璧に見える」
 その、完璧に見えることが問題でもある。
 AIはまちがっていることもあるのに、患者は過信し、医者と微妙に対立する事態が起きているからです。

 患者の権利運動を進めているデイブ・デブロンカートさんは、AIもほかのすべてのツールとおなじように、それに合った使い方があると指摘します。
 医療情報を求めるときには、質問をていねいに組み立てること、答えはまちがっているかもしれないとつねに疑ってかかること。
「AIは考え方を進めてくれる上では強力な道具です。でもただちに答えが出て、それ以上何も考えなくていいということではない」
 患者が医者にかかるときの、よい助けになればいいということでしょう。
(2024年9月13日)