サクサク読めて、アプリ限定の機能も多数!
非常に難しい問題だと思う。人類滅亡の可能性が0.0001%でもある施策を実行に移すのは多くのケースで合理的とは言えない。しかし、競合他社(特に中国勢)に負けたらAIを安全な方向にリードすること自体できなくなる。
hedachi のブックマーク 2024/05/19 01:08
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」非常に難しい問題だと思う。人類滅亡の可能性が0.0001%でもある施策を実行に移すのは多くのケースで合理的とは言えない。しかし、競合他社(特に中国勢)に負けたらAIを安全な方向にリードすること自体できなくなる。2024/05/19 01:08
このブックマークにはスターがありません。 最初のスターをつけてみよう!
www.itmedia.co.jp2024/05/18
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenA...
211 人がブックマーク・46 件のコメント
\ コメントが サクサク読める アプリです /
非常に難しい問題だと思う。人類滅亡の可能性が0.0001%でもある施策を実行に移すのは多くのケースで合理的とは言えない。しかし、競合他社(特に中国勢)に負けたらAIを安全な方向にリードすること自体できなくなる。
このブックマークにはスターがありません。
最初のスターをつけてみよう!
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenA...
211 人がブックマーク・46 件のコメント
\ コメントが サクサク読める アプリです /