AI、人工知能は高度な情報処理をするけれど、常識がない。
AIのエキスパートの興味深いインタビューがニューヨーク・タイムズ・マガジンに載っていて、なるほどそういうことかとよくわかった気になりました。ほんとの専門家は、しろうとにもわかりやすい話をします(An A.I. Pioneer on What We Should Really Fear. Dec. 21, 2022, The New York Times Magazine)。
エキスパートはワシントン大学のイエジン・チョイ教授(45歳)。「AIの常識と倫理」という研究分野で画期的な業績をあげているそうです。
最新のAIは、自然言語で会話を進める「チャットGPT」や、映画の脚本や書評を書ける「GPT-3」が、すごい、一線を越えたなどといわれるけれど、「ちょっと騒ぎすぎじゃないか」とチョイ教授はいいます。
AIはチェスや碁で人間に勝てるし、翻訳もできる。でも「かんたんなこと」ができない。「常識というものが、AIにとっては気が狂うほどにむずかしい」
たとえば馬には目が2つある。これは常識。人間は誰でも知っている。でもAIは知らない。
鳥は空を飛ぶ。これも常識。でもペンギンは飛ばない。生まれたばかりの雛も、羽が傷ついても飛べない。そういう例外をどんどん教えていけば、AIは完成に近づくか。そんなことはない。例外が際限なく増えたら例外じゃなくなってしまう。そうしてたどりつくのは、「普遍的な真実はない」ことだとチョイ教授はいいます。
これがこのインタビューの一番刺激的なところでした。
普遍的な真実はない。だから人間は多様な価値観を持つようになる。人間の思考をまねするAIもまた、そうした多様な価値観を反映すべきだというのが彼女の考えのようでした。つまりAIはかんたんに決定を下せない。というか、そういうものにしてはならない。白か黒か、二者択一ではなく、そのあいだで揺れ動くようなもの。あるいは「この決定は社会の何割の人が支持する」といった表現にとどめるなど。最後は人間が決めるしかない、人間が重荷を背負うしかないというような。
とても興味深いのは、このあたりでチョイ教授の話はAIが「どうなるか」ではなく、「どうあるべきか」に変わっているところでした。
そのあたりでぼくは思います。AIは常識がないというより、いいかげんになれないんじゃないか。いいかげんこそが人間の本質。そこを取り入れたらどうだろうか。
でも、いいかげんなAIができたとしたら、それっていったい何なんだろうか。
(2023年1月2日)