![](https://cdn-ak-scissors.b.st-hatena.com/image/square/f5f3ecc35abb679f7c28ca3308213f275af660a7/height=288;version=1;width=512/https%3A%2F%2Fmedia.loom-app.com%2Fgizmodo%2Fdist%2Fimages%2F2023%2F05%2F24%2Fshutterstock_644724364.jpg%3Fw%3D1280%26h%3D630%26f%3Djpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
リスクがあるのはChatGPTではなく「超知能」。OpenAIの提言を読み解いてみた
リスクがあるのはChatGPTではなく「超知能」。OpenAIの提言を読み解いてみた2023.05.24 21:007,551 福田ミ... リスクがあるのはChatGPTではなく「超知能」。OpenAIの提言を読み解いてみた2023.05.24 21:007,551 福田ミホ できるのかな。 ChatGPTの開発元であるOpenAIが、既存のAIの進化形・「超知能(superintelligence)」の出現を見据えて、人類がとるべき対策を提案してます。「超知能の統治」と題したそのポストには「AIシステムは10年以内にほとんどの分野で専門家レベルを超越し、現在の最大手企業が行なうのと同等の生産活動ができるようになる」とあります。そんな超知能は「AGI(汎用人工知能)よりさらに劇的に有能」だけど、その分リスクもあるので、安全策を講じようという内容です。 世界全体でAIに制限を。核開発のようにチェコの核施設Image: Shutterstockそんな安全策として、OpenAIは3つのポイントを提案しています。 ひとつは、超知能を開
2023/05/25 リンク