AI研究は即時中止すべき? 4月初旬に米誌「タイム」に掲載されたエリーザー・ユドコウスキーの予言ほど衝撃的な終末予測は、そうそう読めるものではない。彼はこう記している。 「超人的に賢いAIを構築した場合、現状に近い状況下で最も起こり得る結果は、文字通り地球上のすべての人が死ぬことだ。『ひょっとしたら』という意味ではなく、それが起きるのは明白である。(中略)もし現在の状況で、誰かが強力すぎるAIを構築したら、人類をはじめ地球上のあらゆる生物が、その後ほどなく滅亡するだろう」 さて、この記事に注目していただけただろうか? ユドコウスキーはありきたりのカサンドラではない(註:カサンドラはギリシア神話に登場する王女。予知能力を持つがその予言を誰にも信じてもらえない)。カリフォルニア州バークレーに拠点を置くNPO「機械知能研究所(MIRI)」のトップで、人工知能にまつわる問題について著作の中で網羅的
![ニーアル・ファーガソン「AIを手にした人類は“核兵器開発での教訓”を生かせるのか」 | AIは人類を滅ぼすのか?](https://cdn-ak-scissors.b.st-hatena.com/image/square/4b8462512b711e64e925ecfb638f479edd80e2ce/height=288;version=1;width=512/https%3A%2F%2Fcourrier.jp%2Fmedia%2F2023%2F05%2F07234559%2Fnial2.jpg)