画像生成AIに「毒を盛る」。アーティストの権利を守るためのツール登場2023.10.26 21:0081,577 Kyle Barr - Gizmodo US [原文] ( 岩田リョウコ ) AIに毒を盛る秘策。 アーティストが自分の作品をAIトレーニングに使用されることと戦う手段ってあるのでしょうか。それを研究している人たちがいます。 シカゴ大学のコンピュータサイエンスの教授Ben Zhao氏は、彼のチームが「Nightshade」という名前のツールを開発したとMIT Technology Reviewに語っています。 毒を盛った画像でトレーニングさせる作戦今のところ、アーティストがAI企業に対抗する唯一の選択肢は、訴訟を起こすこと。もしくは、開発者がアーティストが許諾しない意思に従ってくれることを願うことくらいしかできない状況です。 しかしこのツールは戦う姿勢を見せまくりです。なんとア
Amazon Connect + Lex + BedrockのAIチャットボットで、発話から個人情報(名前、住所、生年月日)を正しく認識できるか試してみた はじめに Amazon Connect + Lex + Bedrockで、発話から個人情報(番号や名前、住所、誕生日)を正しく認識できるか試してみました。 ConnectとLexによるAIチャットボットで、有人対応から無人対応に変更したいニーズが増えているように思います。 事前に登録したお客様情報に対して、AIチャットボットがお客様の認証を対応できるか気になったため、まず数字や英字、住所などをAIチャットボットが発話どおりに認識してくれるか検証しました。 今回の記事では、以下の5つの項目を発話し、AIチャットボットで正しく認識できるか確認します。 住所 名前 英字 数字 生年月日 特に、数字に関しては、AIチャットボットで電話番号や会員
はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ
AIによる画像の無断利用にアーティストたちが対抗する新たなツールが開発された。人間の目にはわからない加工を画像データに施すことで、この画像データを訓練に使った生成AIモデルを破壊できるという。 by Melissa Heikkilä2023.10.27 41 22 アーティストがこの新しいツールを使用すると、自分の作品をインターネット上にアップロードする前に、作品内のピクセルに対して目に見えない変更を追加できる。人工知能(AI)企業が、この変更を加えた作品を収集し、生成AI(ジェネレーティブAI)の訓練に使用すると、AI学習モデルが無秩序で予測不可能な状態に破壊される可能性がある。 「ナイトシェード(Nightshade)」と呼ばれるこのツールの目的は、アーティストの許可なく作品を使用してモデルを訓練しようとするAI企業に反撃する方法を提供することだ。「ダリー(DALL-E)」、「ミッドジ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く