並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 54件

新着順 人気順

AI倫理の検索結果1 - 40 件 / 54件

AI倫理に関するエントリは54件あります。 AI人工知能セキュリティ などが関連タグです。 人気エントリには 『顔写真から自閉症を判別してみた - Qiita』などがあります。
  • 顔写真から自閉症を判別してみた - Qiita

    はじめに この記事では今回開発したWebアプリ、自閉症識別(後に理由を説明しますが、動作が大変モッサリです)を公開するまでの経緯や考え・思いをまとめた。 6月中旬に差し掛かる頃から、Aidemy PewmiumのAIアプリ開発コースで、Pythonを用いてアプリ開発を行えるようになることを目標に学んできた。その成果として開発したのが、顔写真から自閉症を判別するWebアプリだ。 この記事では私自身がプログラミング超初心者として、そしていち支援者として感じたことも多く綴っているため、必要に応じて適宜読み飛ばしてもらえると良いかもしれない。 開発開始に至るまで 私はこちらの記事にあるように、保育士として児童発達支援に関わってきた。大変ではあるが非常に楽しい仕事だった。とはいえAidemyの講座受講中、成果物を何にするかをずっと考えていたが、この領域で何かやろうなんてことは全く考えていなかった。

      顔写真から自閉症を判別してみた - Qiita
    • 「GPT-4o」の声、スカーレット・ヨハンソン激似に本人激怒 「アルトマン氏のオファー断った」ため似た声優で再現か

      「ショックを受け、怒り、信じられない思いだった」 米OpenAIの生成AI「GPT-4o(フォーオー)」に使われている声の一つ「Sky」が、俳優のスカーレット・ヨハンソン氏にそっくりだと話題になった件をめぐり、同氏が代理人を通じて声明を発表した。 声明によると同氏は、OpenAIのサム・アルトマンCEOから「声を提供してほしい」というオファーを受け、断ったにも関わらず、そっくりな声がAIに採用され怒りを覚えたという。 ヨハンソン氏は対応のため弁護士を雇わざるを得なかったとし、「透明性の高い解決と、個人の権利を保護するための適切な法律の制定」への期待も述べている。

        「GPT-4o」の声、スカーレット・ヨハンソン激似に本人激怒 「アルトマン氏のオファー断った」ため似た声優で再現か
      • 実在児童に酷似した性的画像、生成AIで作成か…ネット上で追加学習用データを売買

        【読売新聞】 画像生成AI(人工知能)で、実在の児童に酷似した画像を生成できる追加学習用データが、ネット上で売買されていることがわかった。過去に日本で活動した児童タレントの追加データもあり、追加データで作ったとみられる児童タレントに

          実在児童に酷似した性的画像、生成AIで作成か…ネット上で追加学習用データを売買
        • 画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに

          ノードベースの画像生成ソフトウェア「ComfyUI」向けに作られたノードの一つ「ComfyUI_LLMVISION」にマルウェアが仕込まれていることがわかりました。発覚後、ComfyUI_LLMVISIONのGitHubリポジトリが削除されています。 PSA: If you've used the ComfyUI_LLMVISION node from u/AppleBotzz, you've been hacked byu/_roblaughter_ incomfyui クリエイターのロブ・ラフター氏がRedditで共有したところによると、ComfyUI_LLMVISIONをインストールして使用した場合、ブラウザのパスワード、クレジットカード情報、閲覧履歴がWebhook経由でDiscordサーバーに送信されてしまうとのこと。 ラフター氏自身も影響を受け、ComfyUI_LLMVISIO

            画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに
          • AIと水資源:ChatGPTの冷却に必要な水の量は原子炉レベル?

            AIと水資源:ChatGPTの冷却に必要な水の量は原子炉レベル?2023.04.18 19:0017,514 Mack DeGeurin - Gizmodo US [原文] ( そうこ ) アメリカ、水不足なのに…。 すべての人類に大きな影響を与えると言われるAIですが、OpenAIのChatGPTやGoogleのBardなど、大規模言語モデルはエネルギー消費量が莫大です。 パワフルなプログラムのトレーニングには、十分なデータを提供する大規模なサーバーファームが必要です。そしてそれを行うデータセンターには強力な冷却装置が必要です。 GPT-3(最新版はGPT-4)をトレーニングするのに必要だった冷却水の量は、70万リットルにも上ったという最新調査があります。 米カリフォルニア大学リバーサイド校とテキサス大学アーリントン校の研究チームが、AIによる水資源消費について調査したレポート「Maki

              AIと水資源:ChatGPTの冷却に必要な水の量は原子炉レベル?
            • 「生成AI検索」は著作権侵害なのか? 日本新聞協会の“怒りの声明”にみる問題の本質

              日本新聞協会は7月17日、Web検索と連動してAIがサマリーを返す検索エンジンのサービスについて、著作権侵害に該当する可能性が高いとする声明を発表した。 以前から同協会では、AIによる権利侵害に対して警戒感を強めている。機械学習に報道コンテンツが自由に使われてしまうのは問題ではないかとして、AIによる学習を著作権者が拒否できる、もしくは利用時に許諾を得る仕組みの整備が必要であると訴えてきた。 上記の意見書は、内閣府が行ったパブリックコメントへの意見だが、今回の声明は特にパブリックコメントとは関係なく、独自に出されたものであることから、より緊急性が高い案件という事なのだろう。 現在Web検索に連動した生成AIサービスは、Googleでは「Search Labs AI」として提供されている。一方Microsoft Bingでは、検索ウィンドウ内で単純に検索するか、「ディープ検索」を使うか、ある

                「生成AI検索」は著作権侵害なのか? 日本新聞協会の“怒りの声明”にみる問題の本質
              • OpenAIの現・元従業員ら、AIシステム構築の無謀さと秘密主義を告発

                米OpenAIの現従業員、元従業員のグループは6月4日(現地時間)、Google DeepMindの2人の従業員とともに、OpenAIを含むAI企業に対し、AIに関する安全性対策の改善と、危険性を報告した従業員の保護を求める書簡を公開した。 署名した13人中4人はOpenAIの現従業員として匿名で記載されている。 研究者が報復を恐れることなくAIの危険性について「警告する権利」を持てるよう、AI関連企業に強力な内部告発者保護を確立するよう求めている。 「私たちは最先端のAI企業の現従業員および元従業員であり、AIが人類に前例のない利益をもたらす可能性を信じている」が、「AI企業には効果的な監督を回避する強い経済的インセンティブがあり、企業統治の特注構造ではこれを変えるのに十分ではないと考えている」という。 グループは、「AI企業はAIの危険に関する膨大な非公開情報を保有しているが、こうした

                  OpenAIの現・元従業員ら、AIシステム構築の無謀さと秘密主義を告発
                • グーグル、有名なAI研究者をまたも解雇「私は完全に消され、チームは奪われてしまった」 | Ledge.ai

                  米グーグルを解雇されたティムニット・ゲブル氏とマーガレット・ミッチェル氏に代わり、新しくトップに就任したマリアン・クローク氏(YouTubeより) I'm fired. — MMitchell (@mmitchell_ai) February 19, 2021 米グーグル(Google)の倫理的AIチームの共同リーダーを務めるマーガレット・ミッチェル(Margaret Mitchell)氏は2月19日、自身のTwitterアカウントで同社に「解雇された」とツイートした。Twitter上では同情の声や、今後の活動を応援する声が寄せられている。 グーグルと言えば、同じく倫理的AIチームの共同リーダーを務めるティムニット・ゲブル(Timnit Gebru)氏が現地時間2020年12月2日、自身のTwitterアカウントで、同社に解雇を通告されたと書き込み、大きな波紋を呼んだばかりだ。 米Axio

                    グーグル、有名なAI研究者をまたも解雇「私は完全に消され、チームは奪われてしまった」 | Ledge.ai
                  • OpenAIを「限界点に達した」と退社したライケ氏、競合Anthropicで安全チーム結成へ

                    「Anthropicに参加し、スーパーアラインメントミッションを継続できて嬉しい」──米OpenAIを退社したばかりのヤン・ライケ氏は5月28日(現地時間)、Xにこうポストした。 ライケ氏はOpenAIで、人間より賢いAIの制御を目指すSuperalignmentチームのトップをチーフサイエンティストだったイリヤ・サツケバー氏と共同で務めていた。サツケバー氏は14日に、ライケ氏は17日に退社を発表している。 ライケ氏は退社の際、OpenAIが「安全性が輝かしい製品の開発より後回しになっている」と批判した。両氏の退社後、Superalignmentチームは解散したが、OpenAIは28日、理事会メンバーが率いる新たな安全およびセキュリティ委員会の設立を発表した。 ライケ氏はポストで、「私の新しいチームは、スケーラブルな監視、弱い一般化から強い一般化への移行、自動化されたアライメントの研究に取

                      OpenAIを「限界点に達した」と退社したライケ氏、競合Anthropicで安全チーム結成へ
                    • 文化庁、「AIと著作権」を解説するセミナー開催へ YouTube Liveで無料配信

                      文化庁は7月19日、生成AIの著作権について解説するセミナー「AIと著作権II」を開催すると発表した。開催日は8月9日で、午後2時からYouTube Liveで無料配信する。 同セミナーでは、3月19日に公表した文書「AIと著作権に関する考え方について」をさまざまな立場の人の向けて解説する。前半部では「著作権制度の基礎」と「生成AIと著作権」など基本について説明し、後半には「『考え方』を踏まえた著作権の実務対応」として実務上での扱いを説いていく。 AIと著作権に関する考え方についての文書には、パブリックコメントで集まった計2万4938件の意見も反映しており、生成AIと著作権の折り合いはどこで付けるべきかを解説している。 なおこの文書は、制作した文化庁の文化審議会著作権分科会法制度小委員会の考え方を示したもので法的拘束力はない。一方、生成AIと著作権について裁判所の判断は現在まで出ておらず、

                        文化庁、「AIと著作権」を解説するセミナー開催へ YouTube Liveで無料配信
                      • 天文学者が銀河測定ツールを使ってAIが作成したディープフェイクを見分ける手法を発明

                        by Adejumoke Owolabi 生成AIの普及に伴いAIを用いて作成された偽画像(ディープフェイク)を見分ける手法が求められるようになっています。イングランド・ハル大学の研究チームは、銀河の測定に使用するツールを利用してディープフェイクを見分ける手法を開発しました。 Want to spot a deepfake? Look for the stars in their eyes | The Royal Astronomical Society https://ras.ac.uk/news-and-press/news/want-spot-deepfake-look-stars-their-eyes Astronomers discover technique to spot AI fakes using galaxy-measurement tools | Ars Techni

                          天文学者が銀河測定ツールを使ってAIが作成したディープフェイクを見分ける手法を発明
                        • AIモデルに「キルスイッチ」を義務付けるカリフォルニア州のAI安全法案はAIスタートアップの撤退を余儀なくするだけでなくオープンソースモデルなどに損害を与えるとして非難が集まる

                          シリコンバレーのベンチャーキャピタリストやテクノロジー業界で働く人々は、カリフォルニア州議会で審議中の「AI安全法案」が大手AI企業の一部に事業方法の変更を迫る可能性があるとして、警鐘を鳴らしています。 Silicon Valley in uproar over Californian AI safety bill https://www.ft.com/content/eee08381-962f-4bdf-b000-eeff42234ee0 Tech Companies Challenge California AI Safety Legislation - WinBuzzer https://winbuzzer.com/2024/06/08/tech-companies-challenge-california-ai-safety-legislation-xcxwbn/ Silicon

                            AIモデルに「キルスイッチ」を義務付けるカリフォルニア州のAI安全法案はAIスタートアップの撤退を余儀なくするだけでなくオープンソースモデルなどに損害を与えるとして非難が集まる
                          • 生成AIで思い出したデキる学者と普通の学者

                            大学のとき固体地球物理学をやってたんだけど、研究をするにあたって観測・測定データがとても大事。 それで、たとえば大地震が起きたとき、地元の大学がデータを収集して、全世界に公開するかというと、それはしてなかった。 火山噴火のときも、それまで集めた平常時のデータと噴火時のデータを全世界に公開すれば研究は進むけど、それも直ちにはしてなかった。 なにをするかというと、そのデータを用いて、それを収集した人が論文を書く。 それで、論文を書き尽くして「もう、このデータから書ける論文はないかな」となったところで公開する。 最初から公開した方が研究は進むけど、それだとデータを収集した普通の学者が食べていけなくなる。 だから、しょうがないんだと言ってた。 指導教官に「データを公開した方が良いと思うんだけど、しょうがないですかね」と言ったら 「公開した方がいいね。データの下処理を色んな人がやってくれるんなら、そ

                              生成AIで思い出したデキる学者と普通の学者
                            • 生成AI悪用しウイルス作成、警視庁が25歳の男を容疑で逮捕…設計情報を回答させたか

                              【読売新聞】 インターネット上で公開されている対話型生成AI(人工知能)を悪用してコンピューターウイルスを作成したとして、警視庁は27日、川崎市、無職の男(25)を不正指令電磁的記録作成容疑で逮捕した。複数の対話型生成AIに指示を出

                                生成AI悪用しウイルス作成、警視庁が25歳の男を容疑で逮捕…設計情報を回答させたか
                              • Anthropicが著作権侵害で3人の作家に訴えられる、Claudeのトレーニングに著作権で保護された何十万冊もの本を使用したとの主張

                                AI開発企業のAnthropicが、AIチャットボット「Claude」のトレーニングに著作権で保護された数十万冊もの書籍を不正に使用したとして、3人のアメリカ人作家に提訴されました。 Authors vs Anthropic - DocumentCloud https://www.documentcloud.org/documents/25052247-authors-vs-anthropic Authors sue Anthropic for copyright infringement over AI training | Reuters https://www.reuters.com/technology/artificial-intelligence/authors-sue-anthropic-copyright-infringement-over-ai-training-2024

                                  Anthropicが著作権侵害で3人の作家に訴えられる、Claudeのトレーニングに著作権で保護された何十万冊もの本を使用したとの主張
                                • EUの「AI法」が2024年8月1日に施行決定、違反時の罰金は最大で年間売上高の7%か3500万ユーロ

                                  2024年5月に成立したEUの「人工知能(AI)法」の最終版全文が公式官報に掲載されました。新法は公布から20日で施行されるため、AI法は2024年8月1日に施行されることが確定しました。全規定の完全適用は2026年からですが、一部についてはもっと早い段階から適用されることになります。 REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689 EU's AI Act gets published in bloc's Official Journal, starting clock on legal deadlines | TechCrunch https://te

                                    EUの「AI法」が2024年8月1日に施行決定、違反時の罰金は最大で年間売上高の7%か3500万ユーロ
                                  • ディープフェイク詐欺動画の約25%にイーロン・マスクが登場していたことが判明

                                    AIの発展と普及により、実在する人物にそっくりな顔や声で話すディープフェイク動画を誰でも容易に作成できるようになり、それに伴ってディープフェイク動画の詐欺も急増しています。日刊紙のニューヨーク・タイムズは、インターネット上にあふれているディープフェイク詐欺動画の中でも、特にテスラやSpaceXのCEOを務めるイーロン・マスク氏を登場させたものが多いことを報じました。 How ‘Deepfake Elon Musk’ Became the Internet’s Biggest Scammer - The New York Times https://www.nytimes.com/interactive/2024/08/14/technology/elon-musk-ai-deepfake-scam.html カナダに住む82歳のスティーブ・ビーチャム氏は、2023年末にマスク氏が「大幅なリ

                                      ディープフェイク詐欺動画の約25%にイーロン・マスクが登場していたことが判明
                                    • 写真1枚で他人になりすましてライブ配信可能なAIアプリ「Deep-Live-Cam」が登場、ウェブカメラに映る顔をリアルタイムで上書き可能

                                      一般的に、ディープフェイク動画を作成するには大量のサンプル画像や長い処理時間が必要です。ところが、オープンソースで公開されている「Deep-Live-Cam」は画像を1枚用意するだけでフェイク動画をリアルタイム生成できてしまうそうです。 hacksider/Deep-Live-Cam: real time face swap and one-click video deepfake with only a single image https://github.com/hacksider/Deep-Live-Cam New AI tool enables real-time face swapping on webcams, raising fraud concerns | Ars Technica https://arstechnica.com/information-technolog

                                        写真1枚で他人になりすましてライブ配信可能なAIアプリ「Deep-Live-Cam」が登場、ウェブカメラに映る顔をリアルタイムで上書き可能
                                      • Apple・NVIDIA・AnthropicなどがYouTubeの動画字幕を許可なくAIのトレーニングに利用していたと判明

                                        IT系メディアのProof Newsが、AppleやAnthrpic、NVIDIAなどがYouTubeに公開されている17万本以上の動画の字幕をAIの学習に許可なく使用していたと指摘しています。 Apple, Nvidia, Anthropic Used Thousands of Swiped YouTube Videos to Train AI https://www.proofnews.org/apple-nvidia-anthropic-used-thousands-of-swiped-youtube-videos-to-train-ai/ YouTube creators surprised to find Apple and others trained AI on their videos | Ars Technica https://arstechnica.com/ai/20

                                          Apple・NVIDIA・AnthropicなどがYouTubeの動画字幕を許可なくAIのトレーニングに利用していたと判明
                                        • MetaがFacebookとInstagramの成人ユーザーの投稿をAIに学習させていることが判明、ユーザーに拒否権なし

                                          Metaのプライバシーポリシー担当ディレクターであるメリンダ・クレイボー氏が、オーストラリア議会の公聴会で、同社が2007年以降にFacebookとInstagramに投稿された18歳以上のユーザーのコンテンツをAI製品に使用していることを証言しました。厳格なプライバシー保護法があるEUとは異なり、オーストラリアを含むEU以外の地域のユーザーには投稿や写真の使用をオプトアウトするオプションが提供されておらず、将来的にも提供の予定はありません。 Facebook admits to scraping every Australian adult user's public photos and posts to train AI, with no opt-out option - ABC News https://www.abc.net.au/news/2024-09-11/facebook

                                            MetaがFacebookとInstagramの成人ユーザーの投稿をAIに学習させていることが判明、ユーザーに拒否権なし
                                          • 画像生成AIのStable Diffusionなどに使われるデータセット「LAION-5B」に同意のない子どもの写真が含まれており身元まで特定可能

                                            画像生成AIのStable Diffusionなどのトレーニングには、約58億5000万もの画像とテキストの組み合わせからなるデータセット「LAION-5B」が用いられています。新たに人権NGOのヒューマン・ライツ・ウォッチ(HRW)が、LAION-5Bにはブラジルの子どもたちの写真が同意なしで使われており、多くの子どもたちは身元まで追跡可能であると報告しました。 Brazil: Children’s Personal Photos Misused to Power AI Tools | Human Rights Watch https://www.hrw.org/news/2024/06/10/brazil-childrens-personal-photos-misused-power-ai-tools AI trained on photos from kids’ entire chi

                                              画像生成AIのStable Diffusionなどに使われるデータセット「LAION-5B」に同意のない子どもの写真が含まれており身元まで特定可能
                                            • Adobeが「ユーザーコンテンツをAI学習しない」と明記する形へ利用規約を再度全面見直し

                                              2024年6月に更新されたAdobe Creative Cloudの利用規約にある「ユーザーコンテンツにAdobeがアクセスする可能性がある」という文言が大きく批判を浴びたことを受け、Adobeが利用規約の各項目について明確化することを約束しました。これにより、ユーザーが作成したコンテンツがAI学習に使用されないこと等が明記されます。 Here’s what to know about Adobe’s Terms of Use updates | Adobe Blog https://blog.adobe.com/en/publish/2024/06/10/updating-adobes-terms-of-use Adobe’s new terms of service say it won’t train AI on customers’ work - The Verge https:/

                                                Adobeが「ユーザーコンテンツをAI学習しない」と明記する形へ利用規約を再度全面見直し
                                              • 本物の写真とAI生成の偽物を識別できる「C2PA」がなかなか普及しないのはなぜか?

                                                スマートフォンひとつで本物と見まごうようなAI画像が作れるようになるにつれて、本物の写真とAIによる偽物を区別する方法の必要性が急激に高まっています。そうした取り組みの代表的なものに、コンテンツの来歴を証明する技術である「C2PA」がありますが、その普及が遅々として進んでいない現状について、IT系ニュースサイトのThe Vergeが論じました。 This system can sort real pictures from AI fakes — why aren’t platforms using it? - The Verge https://www.theverge.com/2024/8/21/24223932/c2pa-standard-verify-ai-generated-images-content-credentials 以下は、The Vergeが2024年8月22日にリリ

                                                  本物の写真とAI生成の偽物を識別できる「C2PA」がなかなか普及しないのはなぜか?
                                                • FacebookのAI生成スパムは発展途上国のインフルエンサーによって推進されておりMetaのボーナスプログラムのせいで悪化している

                                                  FacebookやXなどのSNSには、明らかにAIが生成したと思われる奇妙な画像や動画が数多く投稿されており、特にFacebookではAI画像を投稿しまくってお金を稼ぐスパムアカウントが台頭しています。海外メディア・404 Mediaの記者であるジェイソン・ケブラー氏が、「AIスロップ」と呼ばれるこれらのスパムアカウントを推進するインフルエンサーや、その動機になっているMetaのパフォーマンスボーナスプログラムについて調べたレポートを発表しました。 Where Facebook's AI Slop Comes From https://www.404media.co/where-facebooks-ai-slop-comes-from/ ケブラー氏は数カ月にわたり、Facebook上で人気を集めているAIが生成した奇妙な画像スパムアカウントと、その背後にあるインフルエンサーやMetaの報酬

                                                    FacebookのAI生成スパムは発展途上国のインフルエンサーによって推進されておりMetaのボーナスプログラムのせいで悪化している
                                                  • AIによる尋問で人間が偽の記憶を植え付けられてしまう危険があることが明らかに

                                                    AIが尋問することによって人間の記憶をゆがめてしまう可能性があることがわかりました。この研究で、警察の取り調べなどでAIを使うことのリスクが浮き彫りになりました。 [2408.04681] Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews https://arxiv.org/abs/2408.04681 Overview ‹ AI-Implanted False Memories — MIT Media Lab https://www.media.mit.edu/projects/ai-false-memories/overview/ マサチューセッツ工科大学の研究者らは、AIが人間の記憶に与える影響を調査するため、AIチャットサービスやその他特

                                                      AIによる尋問で人間が偽の記憶を植え付けられてしまう危険があることが明らかに
                                                    • カマラ・ハリス陣営が投稿した集会写真はAI生成の偽画像とドナルド・トランプが主張し「これが民主党が選挙で勝つ方法」と痛烈に批判、しかし実際の写真である証拠が続々集まる

                                                      アメリカの第49代副大統領で、2024年アメリカ合衆国大統領選挙からの撤退を表明したジョー・バイデン大統領の後任候補として民主党の指名候補となったのがカマラ・ハリス氏です。同氏はすでに各地で選挙資金集めのための集会を開催しており、地元であるサンフランシスコでは総額1200万ドル(約17億7000万円)以上を集めたと報じられている通り、大統領選挙に向けて着々と準備を進めています。しかし、ハリス氏が各地で開催している集会の写真は「AIで作成された偽画像である」と、共和党の指名候補であるドナルド・トランプ前大統領が主張していることが明らかになりました。 Insecure Trump Lies, Claims Harris Crowd Was Manipulated With AI https://www.rollingstone.com/politics/politics-news/trump-

                                                        カマラ・ハリス陣営が投稿した集会写真はAI生成の偽画像とドナルド・トランプが主張し「これが民主党が選挙で勝つ方法」と痛烈に批判、しかし実際の写真である証拠が続々集まる
                                                      • EU、世界初のAI包括規制法が成立 「世界基準」化の可能性:朝日新聞デジタル

                                                        ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"

                                                          EU、世界初のAI包括規制法が成立 「世界基準」化の可能性:朝日新聞デジタル
                                                        • OpenAIの元研究者がセキュリティ上の懸念を取締役会に訴えたため解雇されたことを明らかに

                                                          OpenAIの元社員であるレオポルド・アッシェンブレナー氏が、AIに関するセキュリティ上の懸念を取締役会に伝えたことが原因で同社を解雇されたことを明らかにしました。 Leopold Aschenbrenner - China/US Super Intelligence Race, 2027 AGI, & The Return of History https://www.dwarkeshpatel.com/p/leopold-aschenbrenner OpenAI employee says he was fired for raising security concerns to board https://www.transformernews.ai/p/openai-employee-says-he-was-fired OpenAI Whistleblower Claims He

                                                            OpenAIの元研究者がセキュリティ上の懸念を取締役会に訴えたため解雇されたことを明らかに
                                                          • AppleのアシスタントAI「Apple Intelligence」に使われるAI処理サーバー「Private Cloud Compute」の安全性への取り組みをAppleが説明

                                                            Appleが2024年6月11日に発表したAIアシスタント「Apple Intelligence」は、デバイス上で処理しきれない高負荷タスクをAppleのサーバー上で実行します。AppleはAI処理実行サーバーを「Private Cloud Compute(PCC)」と名付けており、PCCの安全性への取り組みを公式ブログで説明しています。 Blog - Private Cloud Compute: A new frontier for AI privacy in the cloud - Apple Security Research https://security.apple.com/blog/private-cloud-compute/ Apple IntelligenceはiPhoneやMacなどのApple製デバイスに統合されるAIアシスタントで、通知の要約やコンテンツの生成など多

                                                              AppleのアシスタントAI「Apple Intelligence」に使われるAI処理サーバー「Private Cloud Compute」の安全性への取り組みをAppleが説明
                                                            • 複数の大手ニュースサイトがAppleのパーソナルAI「Apple Intelligence」をトレーニングするために使用されるクローラーをブロックしていることが明らかに

                                                              生成AIのトレーニングに使用するコンテンツは、ボットを使ってウェブ上からスクレイピングすることがありますが、これは度々問題視されています。AppleもAIのトレーニングに使用するコンテンツをスクレイピングしているものの、複数のニュースサイトがこのクローラーをブロックしている実態が明らかになりました。 Many of the biggest websites opted out of Apple Intelligence training https://9to5mac.com/2024/08/29/apple-intelligence-training-opt-outs/ Why top publishers are opting out of Apple Intelligence AI data scraping | iThinkDifferent https://www.ithinkd

                                                                複数の大手ニュースサイトがAppleのパーソナルAI「Apple Intelligence」をトレーニングするために使用されるクローラーをブロックしていることが明らかに
                                                              • OpenAI・Amazon・Microsoftなどの大手IT企業が「AI生成コンテンツへのラベル付与を義務付ける法案」に賛同

                                                                AI技術が急速に発展する中、世界各地でAIに関連する法律の整備が進んでいます。カリフォルニア州でも複数のAI規制法案が議論されているのですが、このうち「生成AIで生成したコンテンツにラベルを付与することを義務付ける法案」にOpenAIやMicrosoftが参加するロビー団体が賛同する意向を示しました。 Bill Text - AB-3211 California Digital Content Provenance Standards. https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB3211 OpenAI supports California AI bill requiring 'watermarking' of synthetic content | Reuters htt

                                                                  OpenAI・Amazon・Microsoftなどの大手IT企業が「AI生成コンテンツへのラベル付与を義務付ける法案」に賛同
                                                                • 「AIが開発した生物兵器」が国家安全保障上の懸念に浮上、アメリカ政府やAI企業が規制の検討に乗り出す

                                                                  近年のAI技術の発達は目覚ましく、人間が書いたように自然な文章を高い精度で生成するだけではなく、プログラムのソースコードを自動で記述したり、タンパク質の立体構造を予測したりすることも可能になっています。そして、専門家が「AIを利用することで新たな生物兵器を開発するハードルが下がっている」と警鐘を鳴らしています。 Threats From AI: Easy Recipes for Bioweapons Are New Global Security Concern - Bloomberg https://www.bloomberg.com/news/features/2024-08-02/national-security-threat-from-ai-made-bioweapons-grips-us-government 生化学者で元国連武器査察官のロッコ・カサグランデ氏は2023年春、ホ

                                                                    「AIが開発した生物兵器」が国家安全保障上の懸念に浮上、アメリカ政府やAI企業が規制の検討に乗り出す
                                                                  • プロンプトインジェクションによってSlack AIから機密データを抜き取れる脆弱性が報告される

                                                                    コミュニケーションツールのSlackに導入されたAIに特定のプロンプトを伝えることで、他人の機密データを流出させることが可能になっていることが明らかになりました。 Data Exfiltration from Slack AI via indirect prompt injection https://promptarmor.substack.com/p/data-exfiltration-from-slack-ai-via Data Exfiltration from Slack AI via indirect prompt injection https://simonwillison.net/2024/Aug/20/data-exfiltration-from-slack-ai/ 大規模言語モデル(LLM)のセキュリティを研究するpromptarmorによると、攻撃者がパブリックチャ

                                                                      プロンプトインジェクションによってSlack AIから機密データを抜き取れる脆弱性が報告される
                                                                    • AIを利用した創作物、発明者は「人間」…政府が知的財産計画で見解明記へ

                                                                      【読売新聞】 政府の知的財産戦略本部(本部長・岸田首相)が近くまとめる「知的財産推進計画2024」の原案が判明した。創作物にAI(人工知能)を利用したとしても、人間を「発明者」とするべきだとの見解を明記した。現在の不正競争防止法で保

                                                                        AIを利用した創作物、発明者は「人間」…政府が知的財産計画で見解明記へ
                                                                      • AIは著作物の「フェアユース」と言えるのか 音楽業界vs.AIミュージック (1/4)

                                                                        ・米3大メジャーレコード会社、音楽生成AI「Suno」「Udio」を著作権侵害で提訴 アメリカレコード協会(RIAA)とユニバーサルミュージックグループ、ワーナーミュージック・グループ、ソニーミュージックグループの大手レコード会社が共同で、音楽生成AIスタートアップのSunoとUdioに対して著作権侵害を訴える裁判を起こしました。この2社のサービスは裁判へと発展するということは想定されていたところです。要するに、レコード会社が著作権管理している楽曲を無許可でAIに学習させて、商用展開を進めているということで訴えたわけですね。被告側はおそらく学習については、米著作権法で認められる「フェアユース」で押し切ることを狙い、レコード会社側は今回のケースはフェアユースに該当しないという主張の衝突になっていこうとしています。 AI音楽動画、YouTubeで200万再生 音楽生成AIの名前を有名にしたSu

                                                                          AIは著作物の「フェアユース」と言えるのか 音楽業界vs.AIミュージック (1/4)
                                                                        • 「ゴミを食べ、ゴミを吐く」、ベゾスも出資するAI検索エンジンの品質問題 | Forbes JAPAN 公式サイト(フォーブス ジャパン)

                                                                          人工知能(AI)検索エンジンのPerplexity AI(パープレキシティAI)は、自社のサービスがChatGPTのような生成AIツールとは異なると主張している。サンフランシスコを拠点とする同社は、ユーザーが質問を入力すると、独自のAIモデルを用いてインターネット上の最新情報に基づく回答を生成する。また、回答にはその引用元を添える点が特徴だ パープレキシティのCEOを務めるアラヴィンド・スリニヴァスは、「引用は私たちの信頼の源です」と、4月に行われたフォーブスによる取材の中で語る。 OpenAIの研究者だったスリニヴァスが2022年に設立したパープレキシティは、これまで1億7000万ドル(約270億円)以上を調達しており、ソフトバンクグループは、同社との戦略的提携を発表したのに続いて、ソフトバンク・ビジョン・ファンド2を通じて30億ドル(約4820億円)の評価額で出資を検討中と報じられてい

                                                                            「ゴミを食べ、ゴミを吐く」、ベゾスも出資するAI検索エンジンの品質問題 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
                                                                          • 「人類に壊滅的なリスクをもたらすAI」を安全に提供するためにAnthropicが既存ポリシーの反省点を公開

                                                                            チャットAI「Claude」などを開発するAI企業「Anthropic」がAIの安全性に関するポリシーの反省点を発表しました。今回発表された反省点をもとに、新たなポリシーが構築される予定です。 Reflections on our Responsible Scaling Policy \ Anthropic https://www.anthropic.com/news/reflections-on-our-responsible-scaling-policy Anthropicは、OpenAIでGPT-2やGPT-3の開発に携わっていたダリオ・アモデイ氏がCEOを務めるAI企業です。AnthropicはAIの性能向上に伴う安全への脅威を「AI安全レベル(ASL)」と呼ばれる指標で分類しており、「重大なリスクをもたらさないAI」をASL-1、「生物兵器の開発などに悪用される兆候を示すAI」を

                                                                              「人類に壊滅的なリスクをもたらすAI」を安全に提供するためにAnthropicが既存ポリシーの反省点を公開
                                                                            • 性的虐待につながるAI画像の生成・拡散・収益化を抑制するための自主的な取り組みをホワイトハウスが企業や連邦議会に呼びかけ

                                                                              AIなどの技術を悪用した画像ベースの性的虐待が近年急増しており、特に女性や少女、LGBTQI+のコミュニティが標的となることが多く深刻な問題となっています。この問題に取り組むために、政府はテクノロジー企業や市民社会に協力を呼びかけ、画像ベースの性的虐待を防止・軽減するための自主的な取り組みを促しています。 A Call to Action to Combat Image-Based Sexual Abuse | GPC | The White House https://www.whitehouse.gov/gpc/briefing-room/2024/05/23/a-call-to-action-to-combat-image-based-sexual-abuse/ AIの登場によって、誰でも自分の望んだ画像を生成できるようになりました。しかし、画像生成AIの技術が進歩する一方で、フェイ

                                                                                性的虐待につながるAI画像の生成・拡散・収益化を抑制するための自主的な取り組みをホワイトハウスが企業や連邦議会に呼びかけ
                                                                              • スカヨハ、ChatGPTの声提供をサム・アルトマンから繰り返し提案され断っていたと明かす。そっくりの『Sky』には衝撃と怒りを声明 | テクノエッジ TechnoEdge

                                                                                ガジェット全般、サイエンス、宇宙、音楽、モータースポーツetc... 電気・ネットワーク技術者。実績媒体Engadget日本版, Autoblog日本版, Forbes JAPAN他 ハリウッドスターのスカーレット・ヨハンソンは、声の使用を断ったにもかかわらずOpenAIが「不気味なほど自分に似た」AI音声を発表したことに「ショックを受け、怒り」を覚えたと述べ、同社のサム・アルトマンCEOに対し経緯の説明を求める声明を出しました。 事の発端は、OpenAIが先週発表した新しい音声アシスタントのうち、「Sky」と呼ばれるものの声がヨハンソンに非常に似ていたこと。 アルトマン氏は生成AIモデル「GPT-4o」の発表に合わせて、X(Twitter)に「her」とだけ記した謎の投稿をしていました。 発表で「Sky」の声を聞いたOpenAIコミュニティやSNSでは、映画『her / 世界でひとつの彼

                                                                                  スカヨハ、ChatGPTの声提供をサム・アルトマンから繰り返し提案され断っていたと明かす。そっくりの『Sky』には衝撃と怒りを声明 | テクノエッジ TechnoEdge
                                                                                • OpenAIとGoogle DeepMindのスタッフが「AI企業の暴走」を警告する公開書簡に署名

                                                                                  OpenAIとGoogle DeepMindの現役および元従業員が2024年6月4日に、AI企業の閉鎖的な体質や内部統制の欠如を告発する公開書簡を発表しました。AI開発の最前線に立つ技術者らはその中で、「AI技術のリスクを回避しつつその恩恵を受けるには十分な監視が必要」とした上で、現状の監視体制では内部告発者の保護や責任の明確化が不十分だと訴えました。 A Right to Warn about Advanced Artificial Intelligence https://righttowarn.ai/ OpenAI and Google DeepMind workers warn of AI industry risks in open letter | Artificial intelligence (AI) | The Guardian https://www.theguardi

                                                                                    OpenAIとGoogle DeepMindのスタッフが「AI企業の暴走」を警告する公開書簡に署名

                                                                                  新着記事