並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 25 件 / 25件

新着順 人気順

responsibleの検索結果1 - 25 件 / 25件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

responsibleに関するエントリは25件あります。 人工知能AI機械学習 などが関連タグです。 人気エントリには 『Responsible AI (責任あるAI...』などがあります。
  • Responsible AI (責任あるAI...

    本文書の後半では、この表の中にある「解釈可能性」をサポートするライブラリ、InterpretMLのサンプルを動かしてみます。 それでは技術トピックを紹介してゆきます。 解釈可能性 多くの機械学習器は指定されたフォーマットの入力に対して結果を返すブラックボックスのように動作します。しかし適用するドメインによってはなぜ機械学習モデルがその結果を出力したのかが問われることがあります。 AIや機械学習の研究開発では精度が重要です。精度を向上するために古典的な機械学習器であれば、あらゆる有効そうな特徴量やその組み合わせを元にモデルを作成します。近年、大きな発展を遂げた深層学習では多数の中間層をもつモデルで入力の各要素がどのように結果に影響をあたえるかを判断するのはさらに難しくなります。 解釈可能性をサポートする機械学習モデルは出力がどのような情報をどのような重みをつかってなされたのかについての根拠を

      Responsible AI (責任あるAI...
    • Japan’s GDP Plunges 27.8%, Begging Question Who Should Be Responsible?

      Yasutoshi Nishimura, acting as a special representative of Prime Minister Shinzo Abe, visits the ... [+] Yasukuni Shrine on the anniversary of Japan's World War II surrender in Tokyo, Japan, on August 15, 2016. Shiho Fukada/Bloomberg If there’s any Tokyo job lost in translation these days, it’s Yasutoshi Nishimura’s. He is Japan’s minister of “economic revitalization,” a contraction in terms as gr

        Japan’s GDP Plunges 27.8%, Begging Question Who Should Be Responsible?
      • Responsible AI pair programming with GitHub Copilot

        AI & MLLearn about artificial intelligence and machine learning across the GitHub ecosystem and the wider industry. Generative AILearn how to build with generative AI. GitHub CopilotChange how you work with GitHub Copilot. LLMsEverything developers need to know about LLMs. Machine learningMachine learning tips, tricks, and best practices. How AI code generation worksExplore the capabilities and be

          Responsible AI pair programming with GitHub Copilot
        • Animation Studio Responsible for Sonic Movie's Redesign Reportedly Closed - IGN

          The animation studio responsible for one of the biggest glow ups of the year in the Sonic redesign has reportedly been closed. According to CBC Canada, the Vancouver-based studio Moving Picture Company which was also behind the Academy Award-winning effects and animation in Life of Pie has shut down. An email sent to staff at the Vancouver branch on Wednesday reportedly announced the immediate clo

            Animation Studio Responsible for Sonic Movie's Redesign Reportedly Closed - IGN
          • 責任あるAI(Responsible AI)とは?

            用語「責任あるAI」について説明。倫理的な問題やプライバシー、セキュリティーなどの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアスがないことを保証すること、またはそのための指針として掲げる基本原則やプラクティスのことを指す。 連載目次 用語解説 AI(人工知能)は、倫理的な問題やプライバシー、セキュリティーなどにおいて、意図せずに社会や個人に深刻な影響を与える潜在的なリスクを抱えている。責任あるAI(Responsible Artificial Intelligence)とは、そういったAIの潜在的なリスクに企業や組織が責任を持って取り組み、作成したAIが安全で信頼できバイアス(偏見/偏り)がないことを保証すること、またはそのための指針として掲げる内部ポリシー(方針)や基本原則、プラクティスのことを指す(図1)。 公平性(Fairness): AI/機

              責任あるAI(Responsible AI)とは?
            • [レポート] Responsible AI: From theory to practice (2/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext | DevelopersIO

              [レポート] Responsible AI: From theory to practice (2/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext こんにちは、Mr.Moです。 現在、2020年7月14日から9月8日までの数週間にわたってGoogle Cloudのデジタルイベント『Google Cloud Next ’20: OnAir』が開催されています。 当エントリでは、その中から「Cloud AI」シリーズのセッションとして公開された『Responsible AI: From theory to practice』の内容をまとめてみたいと思います。(独自の解釈なども含まれると思いますのであらかじめご了承ください) なお、このセッションのレポートは内容が長くなったので2つに分けました。前半は下記をご参照ください。 Responsib

                [レポート] Responsible AI: From theory to practice (2/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext | DevelopersIO
              • 【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit | DevelopersIO

                【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit こんにちは、AWS事業本部オペレーション部の坂本です。 AWS Summit Tokyoに7年ぶりくらいに参加してきました。 幕張メッセで開催するAWS Summitの参加は初めてでした。 本記事では、2023年4月21日行われた「責任ある AI (Responsible AI) を理論から実践へ 」に関する内容をレポートします。 セッション情報 セッションについては以下の通りです。 ■スピーカー アマゾン ウェブ サービス ジャパン合同会社 パブリックセクター 技術統括本部 ソリューションアーキテクト 片山 洋平氏 ■概要 人工知能(AI)と機械学習(ML)は、社会課題への取り組みを支援し、企業における顧客体験の向上やイノベーションの促進のため

                  【レポート】AWS Summit Tokyo 2023:責任ある AI (Responsible AI) を理論から実践へ #AWSSummit | DevelopersIO
                • [レポート] Responsible AI: From theory to practice (1/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext | DevelopersIO

                  [レポート] Responsible AI: From theory to practice (1/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext こんにちは、Mr.Moです。 現在、2020年7月14日から9月8日までの数週間にわたってGoogle Cloudのデジタルイベント『Google Cloud Next ’20: OnAir』が開催されています。 当エントリでは、その中から「Cloud AI」シリーズのセッションとして公開された『Responsible AI: From theory to practice』の内容をまとめてみたいと思います。(独自の解釈なども含まれると思いますのであらかじめご了承ください) はじめに 2030年にはAIは世界経済を支配 AIに対応していないアプリケーションは欠陥品と感じるようになる とある研

                    [レポート] Responsible AI: From theory to practice (1/2) – Google Cloud Next ’20: OnAir #GoogleCloudNext | DevelopersIO
                  • [Azure Machine Learning] Microsoft Build 2020で印象的だったResponsible MLを少しまとめてコードも動かしてみた | DevelopersIO

                    [Azure Machine Learning] Microsoft Build 2020で印象的だったResponsible MLを少しまとめてコードも動かしてみた こんにちは、Mr.Moです。 Microsoft Build 2020では様々な発表がありましたが個人的に一番印象に残っているのが「Responsible ML」です。少しまとめながらコードも動かしてみたいと思います。 Responsible MLとは 現在多くの人が機械学習に触れるようになってきていて「Responsible AI(責任あるAI)」についての重要性もますます高まってきていると思われます。そんな中MicrosoftではAzure Machine Learningのサービスを介して責任ある機械学習プロジェクトを遂行できるようにと提供開始しているのがMicrosoft Build 2020でも話題になっていたRe

                      [Azure Machine Learning] Microsoft Build 2020で印象的だったResponsible MLを少しまとめてコードも動かしてみた | DevelopersIO
                    • ESG投資を支えるPRI(Principles for Responsible Investment, 責任投資原則)とは何か | LIMO | くらしとお金の経済メディア

                      最近はSDGsとともに、ESG投資というキーワードも注目されつつあります。そこで今回は、国連のウェッブサイトを参考にしながら、PRIについてみていきます。 PRIとは何か PRIはPrinciples for Responsible Investmentの略でPRIと表記されます。PRIは「責任投資原則」「責任投資の原則」とでも和訳できましょうか。 ウェッブサイトでは「PRIは責任投資において世界の主要な提案者となっています」とされています。PRIが人みたいな存在になっていますが、まあここは無視して話を進めましょう。 【関連記事】質問.ESGとは一体何か。いつ成立し誰が決めたのか、そして誰が内容を語ってよいのかを解説 また、PRIは以下のようなときに機能するといっています。 ESG要因と投資の関係性を理解するため 投資家で調印した内部ネットワークのものが、投資や保有する意思決定を行う際に、

                        ESG投資を支えるPRI(Principles for Responsible Investment, 責任投資原則)とは何か | LIMO | くらしとお金の経済メディア
                      • Our approach to responsible AI innovation

                        Inside YouTube Our approach to responsible AI innovation By Jennifer Flannery O'Connor and Emily Moxley, Vice Presidents, Product Management, YouTube Nov 14, 2023 – minute read Generative AI has the potential to unlock creativity on YouTube and transform the experience for viewers and creators on our platform. But just as important, these opportunities must be balanced with our responsibility to p

                          Our approach to responsible AI innovation
                        • Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 1) #Azure #AzureMachineLearning | DevelopersIO

                          こんにちは、Mr.Moです。 AI/MLの活用がどんどん進んでいる世の中ですが、一方で導入した後に倫理問題などの壁が立ちはだかることがあるようです。こういった問題には機械学習モデルに関するさらに深い理解・把握などが必要になります。そこで今回はMicrosoftが考えるResponsible AIについて見て行こうと思います。 (本エントリーの内容は個人的な解釈や見解が含まれますのであらかじめご了承ください。) MicrosoftのResponsible MLとは https://docs.microsoft.com/ja-jp/azure/machine-learning/concept-responsible-ml Microsoftでは信用できるAI/MLの構築に必要な要素として下記の点をあげています。 機械学習モデルを理解する モデルの動作を解釈して説明する モデルの不公平性を評価し

                            Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 1) #Azure #AzureMachineLearning | DevelopersIO
                          • Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 3) – Error Analysis編 – #Azure #AzureMachineLearning | DevelopersIO

                            Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 3) – Error Analysis編 – #Azure #AzureMachineLearning こんにちは、Mr.Moです。 前回はMicrosoftのResponsible MLのうち、Fairlearn<公平性>について確認していきました。本エントリーでは機械学習モデルをより深く理解するためのエラー分析機能について見ていこうと思います。 Error Analysisとは Responsible AIオープンソースツールキットコレクションに追加された最新のエラー分析は、機械学習モデルの動作をより深く理解するためのものです。エラー分析を使用して、エラー率の高いコホートを特定し、これらのエラーの背後にある根本原因を診断します。FairlearnやInterpret-

                              Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 3) – Error Analysis編 – #Azure #AzureMachineLearning | DevelopersIO
                            • Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 2) – Fairlearn<公平性>編 – #Azure #AzureMachineLearning | DevelopersIO

                              Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 2) – Fairlearn<公平性>編 – #Azure #AzureMachineLearning こんにちは、Mr.Moです。 前回はMicrosoftのResponsible MLの全体像など、広く浅く触れていきましたが本エントリーでは機械学習モデルの公平性について少し掘り下げて見ていこうと思います。 Fairlearnとは Fairlearnは、データサイエンティストがAIシステムの公平性を向上させるための、オープンソースでコミュニティ主導のプロジェクトです。AIシステムは、さまざまな理由で不公平な行動をとることがあります。社会的なバイアスが学習データやシステムの開発・展開時の意思決定に反映されていることが原因の場合もあります。また、社会的な偏見ではなく、データ

                                Azure Machine Learning Studioで使って理解を深めるResponsible AI (Part 2) – Fairlearn<公平性>編 – #Azure #AzureMachineLearning | DevelopersIO
                              • FACT SHEET:  White House Releases First-Ever Comprehensive Framework for Responsible Development of Digital Assets | The White House

                                FACT SHEET:  White House Releases First-Ever Comprehensive Framework for Responsible Development of Digital Assets Following the President’s Executive Order, New Reports Outline Recommendations to Protect Consumers, Investors, Businesses, Financial Stability, National Security, and the Environment The digital assets market has grown significantly in recent years. Millions of people globally, inclu

                                  FACT SHEET:  White House Releases First-Ever Comprehensive Framework for Responsible Development of Digital Assets | The White House
                                • Responsible Monkeypatching in Ruby | AppSignal Blog

                                  When I first started writing Ruby code professionally back in 2011, one of the things that impressed me the most about the language was its flexibility. It felt as though with Ruby, everything was possible. Compared to the rigidity of languages like C# and Java, Ruby programs almost seemed like they were alive. Consider how many incredible things you can do in a Ruby program. You can define and de

                                    Responsible Monkeypatching in Ruby | AppSignal Blog
                                  • Meeting the AI moment: advancing the future through responsible AI - Microsoft On the Issues

                                    All Microsoft Global Microsoft 365 Teams Copilot Windows Surface Xbox Deals Small Business Support Software Windows Apps AI Outlook OneDrive Microsoft Teams OneNote Microsoft Edge Skype PCs & Devices Computers Shop Xbox Accessories VR & mixed reality Certified Refurbished Trade-in for cash Entertainment Xbox Game Pass Ultimate PC Game Pass Xbox games PC and Windows games Movies & TV Business Micro

                                      Meeting the AI moment: advancing the future through responsible AI - Microsoft On the Issues
                                    • 変化する金融市場(3)~アメリカを離れると口座維持できない? - アメリカ暮らしのファイナンシャル・プラニング Smart&Responsible

                                      Last Updated on 2020年2月17日 by admin 長らく暮らしたアメリカだけれど、やはり老後は日本で・・という人も増えているように思います。その場合、アメリカで一生懸命貯めた401(K)やIRAなど投資口座はどうなってしまうのかという疑問をよく聞きます。この問題、一昔前まではほとんど浮上しませんでした。日本に帰ってもそのまま口座は持って置けるのがほとんどで、オンラインで操作することも可能な場合が多かったのです。ところが最近になって、かなり状況が変わってきています。口座の維持が難しい場合も発生しています。 ***このトピックはまだ新しく発展途上で、業界にもなかなか確固とした情報がありません。ここに書く内容は最善を尽くして集めたものですが、完全に正確でない可能性や、これから変化していく可能性もありますのでご了承ください。体験談などコメントくださると幸いです。*** アメリ

                                        変化する金融市場(3)~アメリカを離れると口座維持できない? - アメリカ暮らしのファイナンシャル・プラニング Smart&Responsible
                                      • パナソニックのAI戦略--「Scalable AI」と「Responsible AI」に強み

                                        印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます パナソニックグループは6月23日、同社のAI技術戦略について説明した。あらゆる顧客に素早くAIを届ける「Scalable AI」と、あらゆる顧客の信頼に応える「Responsible AI」に注力する姿勢を新たに示した。 パナソニックホールディングス テクノロジー本部デジタル・AI技術センター所長の九津見洋氏は、「これまで事業に使える技術をそろえることと、事業でAIを使いこなせる人を増やすことに力を注いできたが、今後はAI活用を加速するために、より多くの顧客に寄り添い、AIを届ける活動を強化していく」と述べた。 生成AIの活用については、社内業務の効率化を目的に「PX-AI」の全社導入を開始していることに触れながら、「PX-AIでは倫理

                                          パナソニックのAI戦略--「Scalable AI」と「Responsible AI」に強み
                                        • Responsible AI(責任あるAI)の構築に向けて:AIガバナンスの取り組みが進む背景

                                          社会のあらゆる場面でAIが活用され始めた昨今、AIリスクを起因とするインシデント事例が世界的に増加しています。これに対応するため、国際機関や各国政府はAIリスクに対応するための原理原則や中間的ルールの整備を進めています。 世界的に増加するAIインシデント 産業界におけるAIの活用は大きく進展しており、消費拡大と生産性向上の2つの側面でグローバル経済に大きく貢献する見込みとなっています。2030年までのAIの世界的なGDPへの影響は、15.7兆ドルになると予想されており、その内訳は消費拡大によるものが約60%、 生産性向上によるものが約40%程となる見込みです1。特に米国・中国におけるAI活用によるGDPへのインパクトが大きく、日本においても、2030年までに実質GDPの約18.2%(132兆円、2016年比)の押し上げ効果が期待されています2。 一方、AIの社会実装が進む中で、AIリスクを

                                            Responsible AI(責任あるAI)の構築に向けて:AIガバナンスの取り組みが進む背景
                                          • Wishma's unfortunate death in Japan: Who is responsible?

                                            Wishma's unfortunate death in Japan: Who is responsible? The death of a 33-year-old Sri Lankan  female at a detention centre in Japan has raised concerns  in the society. She had died due to hunger. When Ceylon Today inquired from the Sri Lankan Embassy in Tokyo about this unfortunate  incident,Roshan Gamage, Minister- Consulate at the Embassy, said the responsibility and the well-being of anyone

                                              Wishma's unfortunate death in Japan: Who is responsible?
                                            • [速報] Guardrails for Amazon bedrockが登場。Responsible AIを生成AIにも。 #AWSreinvent | DevelopersIO

                                              [速報] Guardrails for Amazon bedrockが登場。Responsible AIを生成AIにも。 #AWSreinvent せーのでございます。 ただいま、AWS re:Invent 2023 keynoteをラスベガス現地にて聞いております。 AWSよりBedrock用の新機能「Guardrails for Amazon bedrock」がリリースされたのでお伝えします。 めちゃめちゃ簡単に言うと? Bedrockを使って自然言語によるやり取りをする際に、有害なコンテンツや説明を伴いたいトピックに対して、あらかじめガードレールを敷くことができるサービスです。 主な用途 メインはやはり企業がLLMなどを使う際に企業のポリシーと原則に沿った適切で安全に従業員、またはエンドユーザーに生成AIを使わせる、という目的になるでしょう。 通常はこういったフィルタリングやガードレ

                                                [速報] Guardrails for Amazon bedrockが登場。Responsible AIを生成AIにも。 #AWSreinvent | DevelopersIO
                                              • GitHub - microsoft/responsible-ai-toolbox: Responsible AI Toolbox is a suite of tools providing model and data exploration and assessment user interfaces and libraries that enable a better understanding of AI systems. These interfaces and libraries empowe

                                                Responsible AI Toolbox is a suite of tools providing model and data exploration and assessment user interfaces and libraries that enable a better understanding of AI systems. These interfaces and libraries empower developers and stakeholders of AI systems to develop and monitor AI more responsibly, and take better data-driven actions.

                                                  GitHub - microsoft/responsible-ai-toolbox: Responsible AI Toolbox is a suite of tools providing model and data exploration and assessment user interfaces and libraries that enable a better understanding of AI systems. These interfaces and libraries empowe
                                                • Announcing our updated Responsible Scaling Policy

                                                  Today we are publishing a significant update to our Responsible Scaling Policy (RSP), the risk governance framework we use to mitigate potential catastrophic risks from frontier AI systems. This update introduces a more flexible and nuanced approach to assessing and managing AI risks while maintaining our commitment not to train or deploy models unless we have implemented adequate safeguards. Key

                                                    Announcing our updated Responsible Scaling Policy
                                                  • 仕事の未来や経営のあり方を変えるResponsible AI(責任あるAI)とは | Forbes JAPAN 公式サイト(フォーブス ジャパン)

                                                    AIに対して悲観的な日本人 築地テレサ(以下、築地) ビジネスにAIを取り入れる動きが活発化していますが、日本では悲観的な論調が目立ちます。PwCで調査を行ったところ、未来の仕事をネガティブに捉えている人が74%を占め、諸外国と比べ圧倒的に高い数字でした。加えて、AIなどの新しいテクノロジーに適応する自信も低いという結果が出ています。日本人の特性なのか、新しいテクノロジーの活用に対して「とても自信がある」と回答したのはわずか5%です。 日本人は未来の仕事に対して否定的 ・将来の仕事を否定的(心配だ/興味がない)に捉えている日本人は74%おり、諸外国と比較して顕著に高い 日本人は職場へのテクノロジー導入に順応できる自信がない ・日本人が将来の仕事に対して否定的(心配だ/興味がない)である理由として、AIを含む先端テクノロジーの活用に自信がないことが原因と考えられる。「とても自信がある」と回答

                                                      仕事の未来や経営のあり方を変えるResponsible AI(責任あるAI)とは | Forbes JAPAN 公式サイト(フォーブス ジャパン)
                                                    1

                                                    新着記事