AIと核

 きのう、AI、人工知能には規制が必要だと書きました。
 ぼくの頭のなかでこの考えが広がっています。もしかしたらAIは核兵器とおなじかもしれないとも思うようになりました。
 AIと核。そのアナロジーを考えるようになったのは、AIの生みの親として知られるジェフリー・ヒントン博士が、AIを核兵器と関連づけているからです。AIを生んだ科学者が、AIは核兵器のように危険な存在になると訴えているのでしょうか(‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead. May 1, 2023. The New York Times)。

 イギリス生まれのヒントン博士は1972年、エジンバラ大学でAIの出発点となる「ニューラル・ネットワーク」というシステムを作りました。神経網という意味のコンピュータ・ソフトウェアです。はじめは誰もその概念を理解することができなかったけれど、2012年、カナダのトロント大学で今日のAIの基盤として完成させました。この業績で、博士は「AIのゴッドファーザー」と呼ばれています。

ジェフリー・ヒントン博士
(本人の Twitter から)

 その後グーグル社に移り、巨大企業のAI開発競争が激化するのを見て考えを変えたとニューヨーク・タイムズのインタビューに答えています。AIはまだ人間の脳に劣るけれど、ある部分ではずっと優れている、開発が進めばますます危険になるだろう。
「5年前とくらべればわかる。このままいったらどうなるか、恐ろしいではないか」
 ヒントン博士がもっとも恐れているのは、インターネットにフェイク情報が氾濫することです。偽造された写真、ビデオ、テキストがあふれかえる。
「ふつうの人には見分けがつかない」
 将来は人間に逆らうAI、殺人ロボットすら現実のものになるかもしれない。
「そうなるまでに30年から50年かかると、みんないっていたものだ。でも私はもうそんなふうには考えない」
 AIの危険を広く訴えるために、博士は先月グーグル社を辞めました。

 グーグルやマイクロソフトなどの巨大企業の戦いがさらにエスカレートする前に、地球的な規模での規制が必要だと博士はいいます。それはもう不可能かもしれない。その場合、秘密に開発されるAIは核兵器のようなものになるかもしれない。
 AIの危険を知りながらなぜ開発するのかと聞かれて、ヒントン博士はこれまで、「原爆の父」といわれるロバート・オッペンハイマーのことばを引用していました。
「技術的に見て魅力があるなら、人はそれをやりとげる」
 自分はいま、やりとげたことを後悔している。自分がしなくてもいずれは誰かがしただろうとは思うけれど。
 オッペンハイマーを引用することは、もうないといいます。
(2023年5月3日)