エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「AIは悪用できない」は幻想にすぎない…人間が「AI犯罪」にさらされる"暗黒時代"を回避する方法 聞き方次第で「ナパーム弾の作り方」を教えてくれる
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「AIは悪用できない」は幻想にすぎない…人間が「AI犯罪」にさらされる"暗黒時代"を回避する方法 聞き方次第で「ナパーム弾の作り方」を教えてくれる
(前編から続く) AIが「偏見」を持つことを防ぐには AI開発企業の切迫感はそれぞれ違うが、様々な方法... (前編から続く) AIが「偏見」を持つことを防ぐには AI開発企業の切迫感はそれぞれ違うが、様々な方法でAIが持つ偏見に対処しようとしている。画像生成ツールのDALL-Eのように、「人」の画像を生成させる指示にランダムに「女性」という単語をこっそり忍び込ませ、学習データにはなかった性別の多様性を無理やり作り出すような「ズル」をするところもある。 別のアプローチとして、より広い範囲の人間社会を網羅するように学習に用いられるデータを変更することが考えられるが、学習データの収集には独自の課題がある。 偏見を減らす最も一般的なアプローチは、人間のフィードバックによる強化学習(RLHF)のプロセスで行われるように、人間が直接AIを修正することだ。これは大規模言語モデル(LLM)の微調整の一部である。 このプロセスにより、人間の評価者は(人種差別的だったり支離滅裂だったりする)有害なコンテンツを作成し

