AIが及ぼすリスクの軽減を目指す非営利団体 Center for AI Safety (CAIS)が、AI専門家や各界著名人による共同声明『Statement on AI Risk』(AIの危険性についての声明)を公表しました。 声明はわずか22語の極めて簡潔な内容です。 Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war. 仮訳すれば「AIによる人類絶滅の危険性を軽減することは、他の社会的規模リスク、たとえばパンデミックや核戦争と並んで世界的な優先課題であるべきです」。 署名者のごく一部を挙げれば、 ジェフリー・ヒントン:「機械学習の父」「AIのゴッドファーザー
![『AIで人類絶滅のリスクは現実』アルトマンやハサビス、ヒントンら専門家が共同声明 | テクノエッジ TechnoEdge](https://cdn-ak-scissors.b.st-hatena.com/image/square/25b085e9410bcf3a85e5d7f65e4167edff95ecd5/height=288;version=1;width=512/https%3A%2F%2Fwww.techno-edge.net%2Fimgs%2Fogp_f%2F6985.jpg)