非常に難しい問題だと思う。人類滅亡の可能性が0.0001%でもある施策を実行に移すのは多くのケースで合理的とは言えない。しかし、競合他社(特に中国勢)に負けたらAIを安全な方向にリードすること自体できなくなる。

hedachihedachi のブックマーク 2024/05/19 01:08

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

    OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenA...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう