![](https://cdn-ak-scissors.b.st-hatena.com/image/square/4d99e0666bd9ccd3bedc9450bb387842fb0b1440/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fpcuser%2Farticles%2F1802%2F25%2Fcover_news011.jpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
人工知能の悪用を防ぐために OpenAIの論文が示すリスクとは?
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
人工知能の悪用を防ぐために OpenAIの論文が示すリスクとは?
人工知能(AI)の脅威というと、「シンギュラリティ」問題が取り沙汰されますが、人間による悪用の方が... 人工知能(AI)の脅威というと、「シンギュラリティ」問題が取り沙汰されますが、人間による悪用の方がもっと早く“実用化”されそうです。 米TeslaのCEOとして知られるイーロン・マスク氏などが立ち上げた非営利のAI研究企業OpenAIが2月20日、EFF(電子フロンティア財団)や大学の偉い先生たちと一緒にある論文を発表しました。 100ページ以上にわたる論文のタイトルは、「Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation」(AIの悪用:予測、予防、緩和)。人間によるAIの悪用の例と、それを阻止するためにどうしたらいいかについて最先端の研究者たちが討論してまとめたものです。AIに詳しくない政治家などに注意喚起することも目的としているので、比較的平易な文章です。 The Malici