エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
OpenAI退社のサツケバー氏ら、「安全な超知能」目指すAI企業SSI立ち上げ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
OpenAI退社のサツケバー氏ら、「安全な超知能」目指すAI企業SSI立ち上げ
米OpenAIの共同創業者でチーフサイエンティストだったイリヤ・サツケバー氏は6月19日(現地時間)、「安... 米OpenAIの共同創業者でチーフサイエンティストだったイリヤ・サツケバー氏は6月19日(現地時間)、「安全な超知能」を目指す新たなAI企業Safe Superintelligence(SSI)の立ち上げを発表した。安全な超知能を「唯一の目標かつ唯一の製品」として掲げる。 サツケバー氏はOpenAIで、人間より賢いAI、超知能の制御を目指すSuperalignmentチームをヤン・ライケ氏と共に統括していたが、5月に退社した。2人は、AIの安全性への取り組み方をめぐって幹部と対立していたとみられる。ライケ氏は退社の際、OpenAIでは「安全性が輝かしい製品の開発より後回しになっている」とXへのポストで語った。ライケ氏はOpenAIの競合である米Anthropicに入社した。 サツケバー氏はSuperalignmentチーム立ち上げの際、ライケ氏との共著で超知能が10年以内に登場するが、それ