エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AIに「核戦争と同じ滅亡リスク」、テック幹部ら350人超が警鐘(小久保重信) - エキスパート - Yahoo!ニュース
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AIに「核戦争と同じ滅亡リスク」、テック幹部ら350人超が警鐘(小久保重信) - エキスパート - Yahoo!ニュース
AI(人工知能)の安全性を検証する米国の非営利団体「センター・フォー・AIセーフティー(CAIS)」が、A... AI(人工知能)の安全性を検証する米国の非営利団体「センター・フォー・AIセーフティー(CAIS)」が、AIには人類を滅亡させるリスクがあるとし、警鐘を鳴らした。 「人類絶滅リスクの軽減は世界の優先事項」声明には、AI研究の第一人者として知られるジェフリー・ヒントン氏や、対話AI「Chat(チャット)GPT」を開発した米オープンAIのサム・アルトマンCEO(最高経営責任者)など、350人以上が共同で署名した。 「AIによる(人類)絶滅のリスクを軽減することは、パンデミックや核戦争などの社会的なリスクと同様に、世界の優先事項であるべきです」(CAIS) 出所:センター・フォー・AIセーフティー(CAIS) 声明はこのように、わずか1文の簡潔なものだった。だが、それには理由があるという。 CAISによれば、AIの専門家やジャーナリスト、政策立案者、そして一般の人々は、AIによってもたらされる重