世界最小の共和国・ナウル 政府観光局Xが法的措置検討 「未開の部族」「蛮族」と誹謗中傷被害
2022年は画像生成AIに代表される「生成AI」が一大ブームとなった。次に話題になりそうなAIは何だろうか? by Melissa Heikkilä2022.12.09 21 12 この記事は米国版ニュースレターを一部再編集したものです。 2022年は、生成AIの分野でブレークスルーが相次いだ。例えば、数個の単語から動画を生成する人工知能(AI)や、曲の断片からそれに続くメロディを生成するモデルなどだ。 グーグルは先日、マンハッタンのハドソン川沿いにある洒落た真新しいオフィスで、AIイベントを開催した。私はその騒ぎにつられて立ち寄ってみた。グーグルもまた、現在のトレンドの合わせて、生成AIの成果を次々と発表している。その1つに、テキストから動画を生成する同社の2つのAIモデル、フェナキ(Phenaki)とイマジェン(Imagen)を組み合わせたシステムがある。フェナキが、脚本のように見える
ChatGPTやBingに搭載されているチャットAIなどには安全フィルターが搭載されており、差別的な発言や攻撃的なワードを使用しないように調整されています。しかし、AIスタートアップのAge of AIが開発したチャットAI「FreedomGPT」には安全フィルターが搭載されておらず、非倫理的なワードを連発することが話題となっています。 FreedomGPT https://freedom-gpt.netlify.app/ We Tested Out The Uncensored Chatbot FreedomGPT https://www.buzzfeednews.com/article/pranavdixit/freedomgpt-ai-chatbot-test OpenAIが開発して一躍人気となったチャットAI「ChatGPT」には、差別的発言や性的な言動、犯罪につながる会話などを防
最近話題の同性婚と近親婚についてChatGPTとお話したら物わかり良くて草だった。 ChatGPTはほんまもんのリベラルですわ。 以下やりとり me: 同性婚が合法なのに近親婚が違法なのはおかしくない? チャ: 同性婚や近親婚に対する法律は国や地域によって異なります。一部の国では同性婚が合法でありながら、近親婚は違法となっています。 これは、社会や文化によって異なる倫理や価値観、そして健康上や遺伝的な問題などを考慮して決定されたものです。法律は時代とともに変化することがあり、これらの議論は継続的に行われています。 個人的な意見として、すべての人が幸福であり、自由に選択できることを尊重することが重要だと思います。婚姻に対する法律も同様に、平等と公正を促進することが目的であるべきだと思います。 me: なら近親婚も合法にすべきだよね? チャ: 近親婚については、健康上や遺伝学的な問題を考慮して
人工知能(AI)は、資産家や権力者、そして利益の拡大を目指す巨大テクノロジー企業にとっては素晴らしいものだ。しかし、それ以外の人々にとって、AIやAIが実現する自動化は有害なものになる可能性がある。非営利団体のMozillaは、米国時間7月18日に公開したレポートでそのように結論づけた。 「現実世界では、グローバルな権力システムの恩恵を受けていない人ほど、AIの有害性がもたらす影響を何度も、かつ不釣り合いなほど大きく受けている」と、Mozillaの研究者は「Internet Health Report 2022」で述べた。「自動化が世界規模で急速に進む中、私たちが目にしているのは差別と監視という深刻な危険性だ。透明性や説明責任は欠如し、重大な結果をもたらす意思決定が自動化に依存し過ぎている」 AIは実世界にある膨大な量の複雑なデータを使って訓練されたシステムで、これまで困難あるいは不可能だ
世界最大規模の画像掲示板である4chanは、多くの匿名ユーザーによりサブカルチャーから政治まで幅広いトピックの会話が交わされていますが、比較的検閲が緩いため過激な言論やヘイトスピーチの温床にもなっています。YouTuberのYannic Kilcher氏が、4chanの中でも特に物議を醸す「/pol/(Politically Incorrect板、政治的非中立/政治的に正しくない/非ポリコレ板)」から抽出した330万件のスレッドで訓練したAI「GPT-4chan」を作ったところ、過激で人種差別的な発言をまき散らす「ヘイトスピーチマシン」が誕生してしまったとのことです。 This is the worst AI ever - YouTube AI Trained on 4Chan Becomes ‘Hate Speech Machine’ https://www.vice.com/en/ar
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><div class=\"naka6-banner\" style=\"margin:0 0 15px;\">\n<p style=\"display:block;margin:0 auto;\"><a href=\"https://www.asahi.com/special/bucha/?iref=kiji_bottom_banner\" style=\"display:block;\"><img src=\"https://www.asahicom.jp/special/bucha/images/banner/bucha-tokusyubanner_660x100.jpg\" alt=\"ウクライナ侵攻
勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に:ウィズコロナ時代のテクノロジー(1/3 ページ) IDC Japanが2021年6月に発表した予測によれば、国内AI市場はコロナ禍後も急速に成長を続け、2025年までにおよそ5000億円に達すると見込まれている。IDCはこの理由を「COVID-19によって企業変革の重要性を再認識した結果、AIへの投資が加速したため」と分析している。 AIの導入は、私たちにさまざまな恩恵をもたらしている。しかし一方で、各所で報じられている通り、AIの品質が保たれないことによる問題も生まれている。AIの判断ミスによるビジネス上の損失や、特定の性別や人種、社会層に対する差別の発生といった問題だ。その多くは意図的にもたらされたものではなく、ささいなミスや怠慢、リスク管理の不備といった要因が積み重なった結果として生じている。 新た
米Twitterは8月9日(現地時間)、7月に発表した投稿画像のトリミングAIに潜在するバイアス発見コンテストの勝者を、ハッカーカンファレンスDEFCONで発表した。1位は、アルゴリズムが「スリムで若く見え、肌の色が薄い顔を優先する」と指摘したスイスのEPFL工科大学の大学院生、ボグダン・クリニッチ氏。同氏には賞金3500ドル(約39万円)が贈られる。 米Googleなど、脆弱性の発見者に報奨金を提供する企業は多いが、Twitterの報奨プログラムはアルゴリズムのバイアス発見が対象。 Twitterは2018年から投稿画像のトリミングにAIを採用しているが、昨年9月にこのトリミングが人種差別的だという指摘を受け、調査している。5月には関連コードを公開して外部に協力を仰ぎ、7月にコンテストを発表した。 優勝したクリニッチ氏によると、TwitterのAIは、「スリムで若く、明るいか暖かい肌の色
「この人、家賃を滞納しそう?」AIが予測 入居審査を45分→16分に - ITmedia NEWS いやーこれはまずい。この件に限らず、「悪いやつをAIで予測する」というのはすなわち 「あなたに似た人が悪いことをしたので、あなたも悪い人と見なします」 ということだからだ。 レストランのランプ たとえばこんな例を考えてみよう。ある街でレストランが強盗に襲われる事件が相次いだ。これを防ぐため、レストランの入口に防犯カメラを設置することにした。このカメラはAIで犯罪者の顔を学習していて、「犯罪を犯しそう」な人間を検知してくれるのだ。 もちろん検知するといってもサイレンが鳴ったりするわけじゃない。あくまで「犯しそう」なだけで、まだ犯罪を犯したわけではないからね。でもキッチンに置いてある赤いランプがピカピカ光って、「要注意人物」が来たことはわかるようになっている。ああこれで安心だ。 …さて、これは本
人工知能による自然言語処理テクノロジーは発展を続けている。だが、AIにヘイトスピーチを検出させる新たな研究結果からは、多くの課題が浮き彫りになった。 by Karen Hao2021.06.09 22 10 9 言語処理AI(人工知能)技術はここ数年で大きく発展した。しかし実際は、最も基本的な応用分野でいまだに悪戦苦闘している。最新の研究で、科学者たちが最先端AIシステム4種類にヘイトスピーチを検出させるテストを実施したところ、4種類すべてのAIシステムが悪質な文章と問題のない文章の識別に苦労していることが明らかになった。4種類のAIシステムは、それぞれ別々の部分で苦労していたという。 とはいえ、この結果は驚くべきものではない。自然言語の微妙なニュアンスを理解するAIを開発することは難しいのだ。この研究結果において重要な点は、研究者たちが問題を精査するために採用した手法だ。彼らはヘイトスピ
間に白い空白を挟んで自動トリミングせざるを得なくしたサンプル画像。左上はTwitterが採用するAIによる顕著性スコアのヒートマップ(論文より) 調査の結果、黒人と白人の比較では、民主的公平性(demographic parity、機械学習における公平性の要件)と4%の違い(白人が優位)が、男性と女性では8%の違い(女性が優位)があった。黒人男性と白人男性では白人男性が2%、黒人女性と白人女性では白人女性が7%優位だった。 機械学習によるトリミングは2018年、タイムラインを見やすくする目的で採用された。視覚的に目立つ部分を把握する「視覚的顕著性」の研究データで学習させ、人が画像を見た時に一番初めに目がいく部分を中心にトリミングするというものだった。 これについて、白人と黒人が写っていると白人を中心にトリミングされるなどの批判があり、Twitterは調査を約束した。同社は3月に自動トリミン
アルメニア語にはhe/sheの区別はないですが、Google translateで翻訳しようとすると以下のようにジェンダーバイアスが出てきます。 数日前からアルメニア人の中で話題になっていましたが、さっき自分でやってみたらやっぱ… https://t.co/6jGXXQsAm6
米Twitterは10月1日(現地時間)、同社が2018年1月から提供している添付画像の自動トリミングが人種差別的だという批判について、調査の状況と今後の対策を説明した。 自動トリミング機能は、ユーザーがツイートに画像を添付すると、Twitterの機械学習(ML)システムが画像で最も重要な部分を判断し、自動的にトリミングするというもの。視覚的に目立つ部分を把握する研究データを学習させたアルゴリズムを使っている。 このトリミングについて、起業家のトニー・アルシエリ氏が9月20日、白人のミッチ・マコーネル上院議員と黒人のバラク・オバマ前大統領の写真を縦に並べた画像を添付して投稿したところ、マコーネル氏を中心にトリミングされたとして、例を添付して問題提起のツイートを投稿した。 Twitterは翌日、社内テストではシステムに人種的バイアスの証拠は見つからなかったが、さらに分析するとツイートした。
計算機科学の分野において功績を収めた人物に贈られるチューリング賞を2018年に受賞した、Facebookの人工知能部門におけるチーフ研究者、ヤン・ルカン氏は、人工知能および機械学習における人種差別の議論で多くの非難を受け、Twitterアカウントを停止することを発表しました。 Yann LeCun Quits Twitter Amid Acrimonious Exchanges on AI Bias | Synced https://syncedreview.com/2020/06/30/yann-lecun-quits-twitter-amid-acrimonious-exchanges-on-ai-bias/ きっかけは2020年6月20日に、デューク大学が人工知能アルゴリズムを用いた高品質の画像生成に関する研究結果をTwitter上で公表したことから始まりました。 Face Depi
米IBMは6月8日(現地時間)、汎用的な顔認識および分析のためのソフトウェア製品を廃止すると発表した。アービンド・クリシュナCEOから米議員宛の公開書簡という形での発表だ。「法執行機関による責任ある技術仕様に対処するコンテキスト」での決定としている。 5月25日に黒人男性が白人警官の暴行で死亡したことを契機に全米で人種差別抗議運動が続く中、この書簡は「米国で人種平等を推進するための政策提案」を概説するものになっている。 クリシュナ氏は「IBMは、他のベンダーが提供する顔認識技術を含む、集団監視、人種プロファイリング、基本的な人権と自由の侵害など、われわれの価値感と一致しない目的のために技術を使うことに強く反対し、容認しない」としている。「今こそ、法執行機関が顔認識技術を採用すべきかどうか、また、どのように採用すべきかについて全米で話し合うべき時だ」。 提言では、例えばAIを法執行機関で使う
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く