並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 43件

新着順 人気順

責任あるAIの検索結果1 - 40 件 / 43件

  • OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束

    米連邦政府は7月21日(現地時間)、AIを手掛ける7社の代表をホワイトハウスに招集し、AIの安全性、セキュリティ、透明性の高い開発に向けた取り組みを支援するため、これらの企業から自主的な取り組みを確保したと発表した。 サイバーセキュリティ対策やコンテンツがAIによって生成されたことをユーザーに示すための透かしへの投資などを約束するものだが、“自主的”なものであり、規制ではないので守れなくても責任は問われない。 主な内容は、Microsoftがまとめた以下の画像を参照されたい。 実際にホワイトハウスに集まった7社の代表は以下の通り。 OpenAI:グレッグ・ブロックマン社長 Microsoft:副会長兼プレジデントのブラッド・スミス氏 AlphabetおよびGoogle:グローバル担当社長のケント・ウォーカー氏 Anthropic:ダリオ・アモデイCEO Inflection AI:ムスタフ

      OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束
    • 「責任あるAI」チームを再編した米Meta ビッグテックですら手探り、AI倫理に“最適解”はあるのか

      米Metaは11月17日(現地時間)、同社内のレスポンシブルAI(Responsible AI、日本語では「責任あるAI」と訳される)チームの再編を発表した。 レスポンシブルAIとは、AIの開発や運用、利用に当たり、それが倫理的に行われている状態を指す。またその実現に向けて企業が行動し、説明責任を果たすこと(例えば、関連する指針やガイドライン、ポリシー類の策定や、各種ガバナンス体制の構築・運用といった取り組み)を指す表現としても、この言葉が使われている。 いま企業ではこうした取り組みを推進するため、レスポンシブルAIを担当するチームの設置や、担当部署の明確化を行うところが増えている。Metaもその1社で、レスポンシブルAIを実現するための施策を検討・推進するためのチームを設けていたのだが、その体制変更を発表したのである。 なぜMetaはAIチームを再編したのか この体制変更を、Metaがレ

        「責任あるAI」チームを再編した米Meta ビッグテックですら手探り、AI倫理に“最適解”はあるのか
      • 日本企業は責任あるAI使用に向け今すぐ準備を。ガートナーが警鐘

          日本企業は責任あるAI使用に向け今すぐ準備を。ガートナーが警鐘
        • Google、デジタル来歴証明のC2PAに運営委員として参加 「責任あるAI」の一環

          デジタルコンテンツの来歴証明技術の標準化団体C2PA(Coalition for Content Provenance and Authenticity)は2月8日(現地時間)、米Googleが運営委員会メンバーとして参加したと発表した。 C2PAは、コンテンツの出どころや関連情報を埋め込むオープンなメタデータの標準化を目指す、2021年設立の業界団体。Adobe、BBC、Intel、Microsoft、Publicis Groupe、ソニー、Truepicなどが運営委員会に参加している(かつてTwitterも運営委員だった)。AWS、キヤノン、ニコン、NHKなども一般会員として参加している。 C2PAのContent Credentialは、コンテンツが作成・変更された方法と時期を示すメタデータ。Content Credentials VerifyなどのツールでコンテンツがAIで制作され

            Google、デジタル来歴証明のC2PAに運営委員として参加 「責任あるAI」の一環
          • NTT、グループ統一「AI憲章」規定 AI最高責任者・AIガバナンス室設置

            NTT(持ち株会社)は6月7日、AI活用をめぐり、グループと社員が心がけておくべき基本的な方針をまとめた「AI憲章「NTTグループAI憲章」を制定したと発表した。 AIに関する最高責任者「Co-Chief Artificial Intelligence Officer」(Co-CAIO)も配置したほか、AIガバナンス室も新設し、AI活用のリスクを管理する。 AI憲章に加え、AIリスクを定義し、AIガバナンスの整備・運用ポリシーを定めた「AIガバナンスポリシー」、生成AI利用リスクと対策を示した「生成AI利用ガイドライン」を制定した。 新設したCo-CAIOは、適切なAI利用の推進とAIリスクへの対応を統制。AIガバナンス室はCo-CAIOを補佐し、グループのAIガバナンス規程類の整備や、会社のAIリスクマネジメント状況の評価を行う。 リスクマネジメント手法には、リスクベース・アプローチを採

              NTT、グループ統一「AI憲章」規定 AI最高責任者・AIガバナンス室設置
            • 【セッションレポート】生成 AI のセキュリティ対策と責任ある AI の実現(AWS-16) #AWSSummit | DevelopersIO

              はじめに AWS Summit Japan 2024 に参加しました。 「生成 AI のセキュリティ対策と責任ある AI の実現」のセッションレポートです。 セッション概要 生成 AI の利用が拡大する中で、モデルの安全性や公平性、プライバシーやモデルの透明性などの観点から生成 AI を開発する側にも活用する側にも責任あるAIが求められています。また、生成 AI を利用したシステムに対する外部からの攻撃や不正アクセスなどの脅威も懸念されています。本セッションでは、これらのセキュリティ課題とその対策に焦点を当て、AWS 環境において生成AIを安全かつ信頼性の高い技術として展開するための方法について解説します。 セッションスピーカー: 保⾥ 善太 所属:アマゾン ウェブ サービス ジャパン 合同会社 プロフェッショナルサービス本部 本セッションについて 対象者 AIエンジニア AIプロジェクト

                【セッションレポート】生成 AI のセキュリティ対策と責任ある AI の実現(AWS-16) #AWSSummit | DevelopersIO
              • 大胆かつ責任ある AI への共同の取り組み

                Google は、主要 AI 企業と協力し、人工知能の開発における責任ある実践に向けた 共同の取り組み に参加します。これは、AI がすべての人々に確実に役立つようにするために、業界全体で行う大きな節目です。これらの取り組みは、AI の利点を最大化し、リスクを最小限に抑える G7、OECD、各国政府の取り組みを支えるものです。 Google は、大胆にAI開発を進めることは、 開発初期から責任を持って取り組むこと だと長年信じています。下記に、私たちがどのように大胆かつ責任ある AI への取り組みを行っているかについて説明します。 AI を活用した社会の重要課題の解決 Google は数十年にわたり AI に 取り組んでおり、 2017 年には、「AI ファースト」を掲げ、さらに強化してきました。現在では、 Google 検索、翻訳、マップ、および 日常的に使用される その他のサービスで

                  大胆かつ責任ある AI への共同の取り組み
                • Google・MS・OpenAI・Metaなど7社、米政権に「責任あるAI開発」を約束

                    Google・MS・OpenAI・Metaなど7社、米政権に「責任あるAI開発」を約束
                  • MetaとIBM、オープンで責任あるAIに向け「AIアライアンス」 AMDやソニーら50社以上

                      MetaとIBM、オープンで責任あるAIに向け「AIアライアンス」 AMDやソニーら50社以上
                    • MetaやIBMなど50以上の組織が、オープンかつ安全で責任あるAIを推進する「AI Alliance」を創設

                      MetaとIBMは2023年12月5日(米国時間)、50以上の創設メンバーおよび協力者と共同で「AI Alliance」を立ち上げたと発表した。 AI Allianceの立ち上げに加わったこれらの組織には、産業界、政府機関、学界をリードする組織が名を連ねている。AMD、Dell Technologies、Intel、Oracle、Red Hat、ソニーグループ、Hugging Face、Stability AI、Linux Foundation、NASA(米国航空宇宙局)、CERN(欧州原子核研究機構)、コーネル大学、インペリアル・カレッジ・ロンドン、MOCアライアンス(ボストン大学とハーバード大学が運営)、カリフォルニア大学バークレー校、東京大学、慶応大学などだ。 AI Allianceを構成するメンバーの年間の研究開発費は合計800億ドル以上、メンバーのうち学術機関が支援する学生数は4

                        MetaやIBMなど50以上の組織が、オープンかつ安全で責任あるAIを推進する「AI Alliance」を創設
                      • 日本企業は「責任あるAI」の使用に向けて今すぐAIガバナンスの準備を――ガートナー提言

                        日本企業は「責任あるAI」の使用に向けて今すぐAIガバナンスの準備を――ガートナー提言:道を外せば法律の有無にかかわらず炎上 ガートナージャパンは、AIガバナンスに関する日本企業への提言を発表した。同社は、日本にAI関連の法規制がないことは取り組みを進めない理由にならず、企業は「責任あるAI」の使用に向けて今すぐ準備を開始すべきだとしている。

                          日本企業は「責任あるAI」の使用に向けて今すぐAIガバナンスの準備を――ガートナー提言
                        • Google、MS、OpenAIらが責任あるAI開発に向けた業界団体

                            Google、MS、OpenAIらが責任あるAI開発に向けた業界団体
                          • 全ての政府機関に最高AI責任者&AIガバナンス委員会を設けAI使用に関するリスクをまとめた年次報告書を作成するとアメリカ政府が発表

                            現地時間の2024年3月28日、アメリカ政府が公共サービスにおけるAIの使用が安全であることを保証するために、すべての政府機関に対して「使用するあらゆるAIシステムを監督する最高責任者を置くこと」を義務付けました。 FACT SHEET: Vice President Harris Announces OMB Policy to Advance Governance, Innovation, and Risk Management in Federal Agencies’ Use of Artificial Intelligence | The White House https://www.whitehouse.gov/briefing-room/statements-releases/2024/03/28/fact-sheet-vice-president-harris-announc

                              全ての政府機関に最高AI責任者&AIガバナンス委員会を設けAI使用に関するリスクをまとめた年次報告書を作成するとアメリカ政府が発表
                            • AIガバナンス動向とAI事業者への影響とは。責任あるAI活用に向けた課題と展望【JDLA 特別セミナーレポート】

                              AI・人工知能のAIsmiley TOP ニュース AIガバナンス動向とAI事業者への影響とは。責任あるAI活用に向けた課題と展望【JDLA 特別セミナーレポート】 ​一般社団法人日本ディープラーニング協会(JDLA)は、2024年2月14日(水)にイイノカンファレンスセンター​にて、『特別セミナー 責任あるAIへの取組「AIガバナンスの動向、事業者への影響とは?」』を開催しました。会場には、AI利活用する企業の関係者や、AI政策に関わる産学官民の方々が多数集まりました。 今回のイベントは、国内外のAIガバナンスの動向の全体像を整理し、今後のAI事業者に与える影響や求められる対応について具体的な情報を提供することを目的としています。 イベントでは、東京大学 東京カレッジ 准教授​ 兼 JDLA理事である江間 有沙​氏と一橋大学 特任教授 市川 類​氏による基調講演や、経済産業省 商務情報政

                                AIガバナンス動向とAI事業者への影響とは。責任あるAI活用に向けた課題と展望【JDLA 特別セミナーレポート】
                              • Partnership on AI 責任あるAIのすすめ:2023年のPAIリソーストップ4 - まるちゃんの情報セキュリティ気まぐれ日記

                                こんにちは、丸山満彦です。 2016年に設立され、世界(といっても米国中心ですが...)から113組織が加盟している、AIの責任ある利用に取り組む非営利団体のPartnership on AI; PAI;  [wikipedia]  が2023年を振り返って、発表した内容で特筆すべきものとして4点挙げています。。。 参加組織は113あるわけですが、日本企業という意味では、SONY(だけ)が参加していますね。。。設立はAmazon、Facebook、Google、DeepMind、Microsoft、IBMで、その後Appleも加盟しています。。。中国からも1団体(学術)が参加しています。 その中でも2月に発表した合成メディアの倫理的な開発と利用を導くことを目的としたフレームワークは確かに重要なものですね。。。私は発表当時見逃していたけど..(^^;) 生成AIがいろいろと話題になった202

                                  Partnership on AI 責任あるAIのすすめ:2023年のPAIリソーストップ4 - まるちゃんの情報セキュリティ気まぐれ日記
                                • 大阪市とAWSジャパン、生成AI活用に関する協定を締結--責任あるAI利用を追求

                                  印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 大阪市とアマゾン ウェブ サービス ジャパン(AWSジャパン)は9月1日、「生成AIの利活用にかかる連携協力に関する協定」を締結した。AWSジャパンが生成AIの活用に関して協定締結という形で連携するのは、政令指定都市を含む自治体・行政機関として大阪市が初めてだという。 左から大阪市 デジタル統括室 室長 鶴見一裕氏、大阪市長 横山英幸氏、AWSジャパン 執行役員 パブリックセクター 統括本部長 宇佐見潮氏、AWSジャパン パブリックセクター 官公庁事業本部 自治体営業部 部長 山口徹氏 大阪市では、データやデジタル技術の活用を前提に、サービス利用者の目線で、まちや地域、サービス、行政のあり方を再デザインし、社会環境の変化に対応していくこ

                                    大阪市とAWSジャパン、生成AI活用に関する協定を締結--責任あるAI利用を追求
                                  • noteのCXO(最高体験責任者)「AIで世界が変革され新しい時代が到来する」→「AIの著作権侵害に悩んでる人は相談してください!」

                                    深津 貴之 / THE GUILD @fladdict AIの操作は今後確実に呪術化していく。「第四節の詠唱に、聖霊を讃える『偉大なる』というワードを追加すると効果がアップする」といった異世界転生魔法学園ものみたいな世界が現実になる。 2022-07-03 23:13:38 深津 貴之 / THE GUILD @fladdict まだ頭の中がまとまってないのだけど…あと数日(から数週間)で、トップレベルの画像生成AIが、世界中にフリーで配布されそうだよ…という話と、雑感を書いた。メルカリで悪魔の実が売り出されるぐらいのスゴイ展開。 writing... note.com/fladdict/n/n13… 2022-08-22 02:32:58 リンク note(ノート) 世界変革の前夜は思ったより静か|深津 貴之 (fladdict) 世界のルールが根本的に変わってしまう… そういう展開は、

                                      noteのCXO(最高体験責任者)「AIで世界が変革され新しい時代が到来する」→「AIの著作権侵害に悩んでる人は相談してください!」
                                    • GitHub CopilotとGitHub社が目指す責任あるAIイノベーション | gihyo.jp

                                      5月14日、GitHub社による、GitHub Copilotと責任あるAIイノベーションに関しての記者向けの説明会が東京都内でおこなわれました。この説明会の模様をレポートします。 日本におけるGitHubの概況 はじめに、GitHub Japan 日本・韓国担当シニアディレクターの角田賢治氏が登壇しました。今年2月に就任したとのことです。角田氏は、日本におけるGitHubの概況について紹介しました。 GitHubのユーザーのうち、日本国内の開発者の数は現在300万を超えている。日本のコミュニティとして昨対比(YoY)で31%増加。GitHub Japanが設立されて9年ほど経つが、昨年一年でユーザー数が70万増えた。 GitHubにおけるAI関連のプロジェクト数をみると、日本は世界で3位。日本の開発者はAIに関するプロジェクトに積極的に貢献していると言える。 角田氏は自身のミッションとし

                                        GitHub CopilotとGitHub社が目指す責任あるAIイノベーション | gihyo.jp
                                      • オープンで安全な、責任あるAIの推進に向け、主要な技術開発者、研究者、AI導入者が協業する国際的なコミュニティーとして「AI Alliance」が発足

                                        オープンで安全な、責任あるAIの推進に向け、主要な技術開発者、研究者、AI導入者が協業する国際的なコミュニティーとして「AI Alliance」が発足 IBMとMeta社は、世界の50以上の設立メンバー(日本からは、東京大学、慶應義塾大学、Sakana AI 株式会社、SB Intuitions株式会社、ソニーグループ株式会社、フェンリル株式会社が参画)および協力組織が参画するAI Allianceを発足 AIの進歩は、私たちの働き方や暮らし方、学び方、関わり合い方をより良くする新たな機会をもたらしています。安全性、多様性、経済的機会、そして万人への利益を優先する形で、これらの進歩を活用するために必要な情報やツールを、幅広いAIの研究者や開発者、導入者が活用できるようにするためには、オープンで透明性の高いイノベーションが不可欠です。 オープン・サイエンスとオープン・テクノロジーに注力し、A

                                        • Meta、安全で責任あるAI開発を支援する「Purple Llama」プロジェクトを開始

                                          印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます Metaは米国時間12月7日、開発者による責任ある人工知能(AI)の開発を支援するための包括的なプロジェクト「Purple Llama」(パープル・ラマ)を発表した。 このプロジェクトの目的は、同社が2月に公開したオープンソースの大規模言語モデル「Llama」を使用する開発者に、サイバーセキュリティー向けのツールや検証、そして入出力のセーフガードを提供することだ。 同社によると、生成AIのリスクを軽減するには、攻撃(レッドチーム)と防御(ブルーチーム)の姿勢を組み合わせたパープルチームのアプローチが必要だという。プロジェクトの名称はこの考え方に基づいている。 Purple Llamaではまず、サイバーセキュリティー向けツールおよび検証、

                                            Meta、安全で責任あるAI開発を支援する「Purple Llama」プロジェクトを開始
                                          • GitHub、責任あるAIイノベーションに関する提言を発表

                                            左からGitHub Japan 日本・韓国担当 シニアディレクター 角田賢治氏、GitHub Chief Operating OfficerのKyle Daigle氏、GitHub Chief Legal OfficerのShelley McKinely氏 GitHub Japanの日本・韓国担当シニアディレクターである角田賢治氏によると、現在国内では300万人を超える開発者がGitHubを開発に使用しており、生成AIプロジェクトに貢献する開発者コミュニティの規模も世界第3位を誇っている。 Chief Operating OfficerであるKyle Daigle氏は、GitHub Platform全体で利用されるAIツール「GitHub Copilot」の活用により、55%の開発者が生産性の向上を実感していると述べた。 「GitHub Copilot Chat」を活用すれば自然言語でのコ

                                              GitHub、責任あるAIイノベーションに関する提言を発表
                                            • 米シスコのセキュリティー責任者、「責任あるAI」開発 テックの未来 - 日本経済新聞

                                              サイバー攻撃の手法が多様化する中、セキュリティー対策に生成AI(人工知能)を活用する動きが広がっている。顧客の攻撃監視業務を生成AIで効率化しようとしているのが、米ネットワーク機器大手のシスコシステムズだ。同社のアンソニー・グレコ最高情報セキュリティー責任者(CISO)は煩雑な作業が減ることに期待を寄せる一方で、「責任あるAI」を開発することの重要性を説く。「数時間、時には数日かかっていた作業

                                                米シスコのセキュリティー責任者、「責任あるAI」開発 テックの未来 - 日本経済新聞
                                              • Amazon 認識フェイスマッチング — 責任ある AI サービスカード — AWS

                                                AWS AI Service Card には、サービスで想定されるユースケース、サービスによる機械学習 (ML) の使用方法、責任あるサービスの設計と使用における主な考慮事項が記載されています。Service Card は、AWS がお客様からのフィードバックを受け取り、サービスが開発プロセスを繰り返すにつれて進化します。AWS では、お客様が解決する必要のあるユースケースごとに、AI サービスのパフォーマンスをお客様自身のコンテンツで評価することを推奨しています。詳細については、AWS 責任ある機械学習の使用ガイドと最後にある参考資料を参照してください。また、ご利用予定のサービスの AWS 責任 AI ポリシーおよび AWS サービス利用規約を必ずご確認ください。 この Service Card は、2022 年 11 月 7 日現在の Rekognition 顔照合のリリースに適用され

                                                  Amazon 認識フェイスマッチング — 責任ある AI サービスカード — AWS
                                                • 「責任あるAI」と人間観・社会観の変貌(新潮社 フォーサイト) - Yahoo!ニュース

                                                  AI開発者が実際に予測できることと、開発者が予見すべきだと社会が期待することの間には開きがある(C)Nata Studio/stock.adobe.com AI(人工知能)は労働力の代わりになることが期待されている。AIが労働を担う代償として、新たな雇用問題が発生する恐れがあることは指摘されつづけてきたことである。だが、われわれが払う代償はこれだけだろうか。現在、AIの社会実装に向けて「責任あるAI」というテーマが盛んに議論されているが、「責任あるAI」を追求する際に覚悟しておく必要があるのは、AIとその社会実装は社会構造の変化をもたらすだけではなく、社会システムの根幹を成してきた人間観や社会観の再考もしくは放棄をわれわれに強いるかもしれないということである。 再考せねばならない人間観と社会観の例をひとつ挙げよう。 ある工場で、メンテナンスの時以外は触ってはいけない機械のボタンを誰かが触っ

                                                    「責任あるAI」と人間観・社会観の変貌(新潮社 フォーサイト) - Yahoo!ニュース
                                                  • NTT、グループ統一「AI憲章」規定 AI最高責任者・AIガバナンス室設置

                                                    NTT(持ち株会社)は6月7日、AI活用をめぐり、グループと社員が心がけておくべき基本的な方針をまとめた「AI憲章「NTTグループAI憲章」を制定したと発表した。 AIに関する最高責任者「Co-Chief Artificial Intelligence Officer」(Co-CAIO)も配置したほか、AIガバナンス室も新設し、AI活用のリスクを管理する。 AI憲章に加え、AIリスクを定義し、AIガバナンスの整備・運用ポリシーを定めた「AIガバナンスポリシー」、生成AI利用リスクと対策を示した「生成AI利用ガイドライン」を制定した。 新設したCo-CAIOは、適切なAI利用の推進とAIリスクへの対応を統制。AIガバナンス室はCo-CAIOを補佐し、グループのAIガバナンス規程類の整備や、会社のAIリスクマネジメント状況の評価を行う。 リスクマネジメント手法には、リスクベース・アプローチを採

                                                      NTT、グループ統一「AI憲章」規定 AI最高責任者・AIガバナンス室設置
                                                    • 生成AIが持つ「差別や偏見」増大リスク、金融機関に必要な「責任あるAI」とは?

                                                      金融業界と生成AI AIは、金融業界のさまざまな分野で浸透しており、カスタマーサポートや決済、融資、保険、資産管理など、金融サービスの効率化や高度化に貢献しています。そして、AIの中でも特に注目されているのが生成AIです。すでに多くの金融機関でOpenAIのChatGPTが導入され、さらなる活用方法が模索され始めました。 ChatGPTは機能強化も活発で、より長いプロンプトを受け付けるモデルやコードインタープリター(プロンプト指示からPythonコードを生成し実行する機能)が追加されるなど、まさに日進月歩で進化していくため、「最新の状況をキャッチアップするのが大変だ」と考える方も多いのではないでしょうか。 機能が追加されると、それを使って新しくできることが増えますから、業務やサービスへの活用の幅も広がります。以前の記事で、生成AIが金融業界でどのように使われるかを俯瞰しましたが、近い将来、

                                                        生成AIが持つ「差別や偏見」増大リスク、金融機関に必要な「責任あるAI」とは?
                                                      • 責任ある AI イノベーションに対する YouTube のアプローチ

                                                        YouTube のサービスやイベント、技術の最新情報に関する日本版 YouTube 公式ブログです。

                                                          責任ある AI イノベーションに対する YouTube のアプローチ
                                                        • Googleが進める生成AIの取り組み、2023年のキーワードは「大胆かつ責任あるAI」

                                                          Google Cloud は8 月22日、生成 AI 関するイベント「Generative AI Summit」を開催した。基調講演では、Googleが提供する生成AIアシスタントの「Bard」をはじめとしたコンシューマー向けサービスのトレンド、Googleが開発した大規模言語モデル「PaLM」を搭載したGoogle Cloud の企業向け生成 AIサービスが紹介された。 基調講演には、Google Cloud上級執行役員 カスタマー エンジニアリング担当の小池裕幸氏、Google検索担当 ゼネラルマネージャーの村上臣氏、Google Cloud統括技術本部長(アナリティクス / ML、データベース)の寳野雄太氏らが登壇した。 本稿では、その一部始終を紹介する。

                                                            Googleが進める生成AIの取り組み、2023年のキーワードは「大胆かつ責任あるAI」
                                                          • 責任あるAIに関するISO規格が制定 | TEXAL

                                                            国際標準化機構(ISO)と国際電気標準会議(IEC)は、新しい国際規格「ISO/IEC 42001」を承認した。この規格は、組織が責任を持ってAIシステムを開発し、使用することを支援するために設計されている。 ISO/IEC 42001は、AIマネジメントシステムに関する世界初の規格であり、急速に進化する技術分野において有用な指針を提供することを目的としている。倫理的配慮、透明性、継続的学習など、AIがもたらす様々な課題に対応している。組織にとって、この規格はAIに関連するリスクと機会のバランスをとるための構造的な方法を提供することを意図している。 この規格は、AIベースの製品やサービスを提供または使用する企業を対象としている。すべてのAIシステムを対象としており、さまざまな応用分野や文脈で適用できるよう意図されている。 ISOはすでに、AI用語を定義したISO/IEC 22989、AIと

                                                              責任あるAIに関するISO規格が制定 | TEXAL
                                                            • 責任ある AI の原則とアプローチ | Microsoft AI

                                                              Microsoft は、人の信頼を保証する方法で責任を持って AI システムの 開発を確実に行うことに取り組んでいます。

                                                              • グーグル、マイクロソフト、アマゾン、Metaら、責任あるAI開発を米政府に約束

                                                                Joe Biden米大統領は米国時間7月21日、Amazon、Microsoft、Meta、Google、OpenAI、Anthropic、Inflection AIとホワイトハウスで会合し、AI技術開発において「安全性、セキュリティ、信頼性」を重視することで合意を得た。各カテゴリーの詳細は以下の通り。 安全性:企業各社は、「AIシステムの安全性と機能を試験すること、第三者機関の試験を受けること、生物学、サイバーセキュリティ、社会に関わる潜在的リスクを検証してその検証結果を公開すること」に合意した。 セキュリティ:企業各社は、自社のAI製品を「サイバー脅威とインサイダー脅威に対して」保護し、「誤用を防ぎ、社会に対するリスクを軽減し、国家の安全を守るためのベストプラクティスと基準」を共有するとした。 信頼性:確保された最大の合意の1つは、画像がオリジナルか、AIによって改変または生成されたも

                                                                  グーグル、マイクロソフト、アマゾン、Metaら、責任あるAI開発を米政府に約束
                                                                • IEEEが提言を発表 責任あるAIの使い方

                                                                  IEEE(アイ・トリプルイー)は世界各国の技術専門家が会員として参加しており、さまざまな提言やイベントなどを通じ科学技術の進化へ貢献しています。 2021年、ある研究者グループは、人工知能の倫理に関する話題がどれほど盛り上がっているかを定量化する作業に着手しました。彼らがGoogle ScholarでAIと倫理に関する文献を検索した結果、この分野が驚異的に盛り上がっていることが判明しました。1985年から2018年までの30年以上の間に、人工知能の倫理に焦点を当てた学術論文は275本もありました。2019年だけで雑誌に掲載された論文は334本に上り、過去34年間の合計を超えています。さらに、2020年には342本の論文が出版されました。 AI倫理に関する研究は爆発的に広がっており、その多くはAIモデルを構築する際のガイドラインに焦点が当てられています。今では、AIベースのツールが一般に広く

                                                                    IEEEが提言を発表 責任あるAIの使い方
                                                                  • Guardrails for Amazon Bedrock は、お客様のユースケースと責任ある AI ポリシーに合わせてカスタマイズされたセーフガードの実装に役立ちます (プレビュー版) | Amazon Web Services

                                                                    Amazon Web Services ブログ Guardrails for Amazon Bedrock は、お客様のユースケースと責任ある AI ポリシーに合わせてカスタマイズされたセーフガードの実装に役立ちます (プレビュー版) 責任ある人工知能 (AI) 戦略の一環として、 Guardrails for Amazon Bedrock (プレビュー版) を使用して、ユースケースと責任ある AI ポリシーに合わせてカスタマイズされたセーフガードを実装することで、ユーザーと生成系 AI アプリケーション間の安全なやりとりを促進できます。 AWS は、教育と科学に焦点を当てて、開発者が責任ある AI を AI ライフサイクル全体に統合できるよう支援することで、責任ある人間中心の考え方で生成系 AI を開発することに取り組んでいます。Guardrails for Amazon Bedrock

                                                                      Guardrails for Amazon Bedrock は、お客様のユースケースと責任ある AI ポリシーに合わせてカスタマイズされたセーフガードの実装に役立ちます (プレビュー版) | Amazon Web Services
                                                                    • 【国際】メタ、生成AIコンテンツに「Made with AI」ラベル表示へ。責任あるAI | Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs

                                                                      IT世界大手米メタ・プラットフォームズは4月5日、生成AIによって作成された動画、音声、画像に「Made with AI」ラベルを貼付する運用を5月から開始すると発表した。生成AIコンテンツへのラベル表示は3月にYouTubeも発表しており、それに続く形となった。 【参考】【国際】YouTube、クリエイターに生成AIコンテンツでのラベル明示義務化。違反続くと処罰も(2024年3月20日) 同社は2020年、…

                                                                        【国際】メタ、生成AIコンテンツに「Made with AI」ラベル表示へ。責任あるAI | Sustainable Japan | 世界のサステナビリティ・ESG投資・SDGs
                                                                      • AI-102試験対策のまとめ「責任あるAI」 - Qiita

                                                                        はじめに Azure AI Engineer Associate(AI-102)取得に向けた勉強でまとめた内容を本記事では投稿しています。 試験範囲の内容を私が勉強していく中で、 ・忘れてしまっていた内容 ・他の知識と絡めて理解した方が良い内容 ・Microsoft Learnの読解に苦戦した内容 などをできるだけ分かりやすく簡潔にまとめることを意識しています。 Azureの勉強を一から始め、AI-102取得を目指している方の参考になれば幸いです。 ※本記事の内容が必ず試験に出るわけではないこと、ご注意ください ※勉強しながら投稿しているため、追加で学んだことがあれば随時投稿内容を更新します。 試験対策のまとめ 責任あるAI 公平性 AIシステムでは、すべてのユーザーを公平に扱う必要がある システムによる決定が下記などに基づいてグループ/個人を差別してはならない 性別 人種 性的指向 宗教

                                                                          AI-102試験対策のまとめ「責任あるAI」 - Qiita
                                                                        • NTTがAIガバナンス規定類を制定、「AI最高責任者」「AIガバナンス室」も設置

                                                                          NTTは2024年6月7日、グループ各社がAI(人工知能)を活用する際の基本的な方針を示した、AIガバナンス規定類を新たに制定したと発表した。AIを扱う上でのリスク対応力や、ガバナンスを強化する狙いがある。 規定類はNTTグループと社員が心がけるべき基本的な方針を示した「NTTグループAI憲章」と、AIガバナンスの運用ポリシーなどを記した「NTTグループAIガバナンスポリシー」、生成AIを扱う上でのガイドライン「NTTグループ生成AI利用ガイドライン」の3つで構成する。 またAIに関する最高責任者「Co-CAIO(Co-Chief Artificial Intelligence Officer)」を2人配置する。2024年6月20日の株主総会を経て、大西佐知子常務取締役 常務執行役員、池田敬常務執行役員が就任予定だ。Co-CAIOを補佐し、グループ会社のAIリスクマネジメント状況のモニタリ

                                                                            NTTがAIガバナンス規定類を制定、「AI最高責任者」「AIガバナンス室」も設置
                                                                          • 米国議会図書館(LC)における責任あるAIの実装に向けたフレームワーク構築の取組(記事紹介)

                                                                            2023年11月15日付けで、米国議会図書館(LC)が、責任あるAIの実装に向けたフレームワーク構築の取組を紹介する記事“Introducing the LC Labs Artificial Intelligence Planning Framework”を公開しました。著者は同館のラボ事業LC LabsのAbigail Potter氏です。 記事によると、2016年の発足以来、機械学習を中心に数々の実験を実施してきたLC Labsでは、責任あるAIの実装計画を策定するためのフレームワークの構築が進みつつあります。現在、その初版が、ワークシートやチェックリスト等のツールとともにGitHub上で公開されています。 フレームワークでは、計画全体を①理解(Understand)、②実験(Experiment)、③実装(Implement)の3段階に分けて、それぞれについて機械学習を構成する3要素

                                                                              米国議会図書館(LC)における責任あるAIの実装に向けたフレームワーク構築の取組(記事紹介)
                                                                            • グーグル、責任あるAIの開発を推進するプロジェクトと2000万ドルの基金を立ち上げ

                                                                              グーグルは9月11日(現地時間)、AIの責任ある開発への取り組みを推進する「デジタル・フューチャーズ・プロジェクト(Digital Futures Project)」および、シンクタンクや学術機関に助成金を提供する2000万ドル(およそ29億円)の「Google.org fund(基金)」を立ち上げたことを発表した。 AIがすべての人に利益をもたらすように AIは私たちの生活を便利にし、病気の予防や自然災害の予測といった複雑な課題に対処する可能性を秘めている一方、公正さや偏見、誤った情報、セキュリティーなどの問題も多数存在している。 グーグルはこのプロジェクトを通じて研究者を支援し、AIの責任ある開発を促進するための公共政策ソリューションに関する会議を開催して議論を促進していくという。 また、プロジェクトの一環として、グーグルの慈善事業部門「Google.org」が設立した2000万ドルの

                                                                                グーグル、責任あるAIの開発を推進するプロジェクトと2000万ドルの基金を立ち上げ
                                                                              • 「日本のAI法規制が進んでいない」は言い訳? ガートナーが「責任あるAI」実現への準備を提言

                                                                                ガートナーは、世界で進むAI法規制を踏まえ、日本企業が「責任あるAI」の実現に向けて今すぐ準備を開始すべきだと提言した。即時対応を進めるための現実解とは。 ガートナージャパン(以下、ガートナー)は2024年4月25日、世界で進行するAI規制を踏まえ、日本企業への提言を発表した。企業は「責任あるAI」の実現に向けて今すぐ準備を開始すべきだという。 「日本のAI法規制が進んでいない」は言い訳? AIガバナンスの準備の必要性 グローバルでAIの開発と採用が進む中、AIの規制の動きも急ピッチで進行している。EU(欧州連合)の立法機関である欧州議会は、2024年3月13日(現地時間、以下同)に包括的なAI規制法案を可決した。米国では2023年10月30日にAIの安全性確保に向けた大統領令が発令され、議会ではAI規制に関する法案作りが進められている。中国でも、アルゴリズムの透明性確保やAI倫理の側面か

                                                                                  「日本のAI法規制が進んでいない」は言い訳? ガートナーが「責任あるAI」実現への準備を提言
                                                                                • 「責任あるAI」、企業のガイドライン設置進まず--Conversica調査

                                                                                  ビジネスリーダーのほぼ10人に9人が、人工知能(AI)の倫理と企業責任に関する明確なガイドラインを設けることは重要と考えているものの、実際にそのようなガイドラインを設置している企業はごく一握りであることが、最新調査で明らかになった。 この調査結果から、AI導入の管理にあたってとるべきアプローチが明確に定まっていない現状がうかがわれ、IT専門職はデータ主導のイニシアチブを安全かつ倫理的に進めるために、率先してリーダーシップをとる必要がある。 この結果は、テクノロジー企業のConversicaが発表したビジネスリーダー500人に対する意識調査で明らかになったものだ。「調査からはっきりと浮かび上がるメッセージは、回答者の大多数が、企業内で、特にAI技術をすでに採用している企業内で、責任をもってAIを利用するためには、明確に定義されたガイドラインが何より重要だと認識しているということだ」と同社は述

                                                                                    「責任あるAI」、企業のガイドライン設置進まず--Conversica調査