AIのリスクに対する議論を求める声明に署名した、対話型AI「チャットGPT」開発者のサム・アルトマン氏=米ワシントンで2023年5月16日、ロイター 人工知能(AI)の潜在的リスクは人類の存亡にかかわる――。世界のAI研究をけん引する研究者や業界大手のトップたちが5月30日、AIは核戦争や感染症のパンデミック(世界的流行)と同等の社会的リスクとみなすべきだと警鐘を鳴らし、広範な議論を促す声明を発表した。 声明は「AIによる(人類)絶滅のリスクの軽減は、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項とされるべきだ」とする簡潔なもの。米西部サンフランシスコに拠点を置く非営利組織「センター・フォー・AI・セーフティー」がウェブサイトに掲載した。 対話型AI「チャットGPT」を開発した米オープンAIのサム・アルトマン最高経営責任者(CEO)や、米アルファベット傘下のAI
![AIのリスク、核戦争やパンデミック並み 研究者や経営者ら警鐘 | 毎日新聞](https://cdn-ak-scissors.b.st-hatena.com/image/square/4cd83d39b50e3b0740cdc2f99f5939a9b6bc544a/height=288;version=1;width=512/https%3A%2F%2Fcdn.mainichi.jp%2Fvol1%2F2023%2F05%2F31%2F20230531k0000m030167000p%2F0c10.jpg%3F1)