並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 38 件 / 38件

新着順 人気順

ai社会原則の検索結果1 - 38 件 / 38件

  • セキュリティ担当者がChatGPTの業務利用方針を検討するうえでの留意点

    目次[非表示] 1.はじめに 2.AI関連の指針・原則・ガイドラインの動向 2.1.国内における分野横断の主なAI関連の指針・原則・ガイドライン 3.ChatGPTの業務利用に関する動向 3.1.ChatGPT等の業務利用を推進する企業様のニュース 3.2.ChatGPTの業務利用を制限・禁止する企業様のニュース 3.3.AIサービスの業務利用に関するガイドライン策定のニュース 4.ChatGPTのプライバシーポリシーと利用規約における留意点 4.1.情報漏えい 4.2.情報の正確性 4.3.参照 5.ChatGPT Web版の業務利用における情報セキュリティ上の留意点のまとめ 5.1.情報漏えい 5.2.情報の正確性 6.まとめ はじめに昨今、ChatGPTに関する話題に注目が集まるなか、「業務利用」について検討される企業様が増加しています。実際に、クラウドリスク評価「Assured(ア

      セキュリティ担当者がChatGPTの業務利用方針を検討するうえでの留意点
    • DXとは何か? - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing

      Summilux 50/1.4, RDPIII, Leica M7 @Lake District, UK 月曜日の夜、データサイエンティスト協会(以下DS協会)スキル定義委員会で「DXって何?」という話が出た。 DS協会スキル定義委員会は、これまでもデータサイエンティストのミッション、定義、求められる3つのスキルの整理(2014)に始まり、この類のものとしては恐らく世界初と思われるデータサイエンティストにもとめられるスキル要件を洗い出したスキルチェックリスト(2015 ver.1/2017 ver.2/2019 ver.3)、IPAと共同でのタスクリスト(2017 ver.1/2019 ver.2) *1、最近ではデータサイエンス100本ノック(構造化データ加工編)などを生み出してきたDS協会の中核的な委員会だ。*2 *3 このメンツから出てくる「DXって何?」というのは、当然のことながら

        DXとは何か? - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing
      • 一冊の本をまとめました、、『シン・ニホン』 - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing

        2015年春ごろから、急に国の仕事に巻き込まれるようになった。現在、大学と会社*1の仕事が表向きメインではあるが、データサイエンティスト(DS)協会のスキル定義委員会、理事会らの活動に加え、かれこれ10ほどの公的なロールがある。毎週のように講演や取材対応もある*2。その記事確認も結構重い。恥ずかしながら、実は今もいくつも溜まっている。 国関連では、その時折で重い仕事があるが、今は高等教育を受ける人全部にデータ×AIリテラシーを、という話をインプリするための仕事が特に重い*3。 こんな生活なのであなたは何が本職なのかと聞かれることも多いが、本職というのはどういう意味なのだろうか、というのが僕がいつも思っていることだ。 僕的には、2018年の年末にその年の対外的な活動を総括したブログエントリで書いたとおり、 未来に賭けられる国にするということ 未来を生み出す人材を一人でも多く生み出すこと 今の

          一冊の本をまとめました、、『シン・ニホン』 - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing
        • 産総研:機械学習品質マネジメントガイドラインを公開

          発表・掲載日:2020/06/30 機械学習品質マネジメントガイドラインを公開 -AIを用いた製品やサービスの品質を安全、安心に管理するために- ポイント マネジメントが困難とされる機械学習を用いたAIシステムの品質管理方法をガイドラインとして公開 機械学習AIシステムの品質要件を分類・整理し、開発者が客観的に評価できる枠組みを構築 企業での利用とそのフィードバックにより有用性を高めながら、国際標準化を目指す 国立研究開発法人 産業技術総合研究所【理事長 石村 和彦】(以下「産総研」という)サイバーフィジカルセキュリティ研究センター【研究センター長 松本 勉】ソフトウェア品質保証研究チーム【研究チーム長 大岩 寛】と人工知能研究センター【研究センター長 辻井 潤一】は、民間企業・大学などの有識者と共同で、AIシステムの設計開発における品質マネジメントについて体系的にまとめた「機械学習品質マ

          • 公平性に配慮した機械学習 | メルカリエンジニアリング

            こんにちは。メルペイのMachine Learningチームの@hiroです。Merpay Advent Calendar 2021 の18日目の記事をお届けします。 機械学習の社会的重要性の高まり 近年、機械学習という技術領域が人口に膾炙し、多くの産業やプロダクトに用いられるようになってきています。機械学習は、アルゴリズムによって、蓄積されたデータのパターンを学習し、従来ひとの判断やルールベースで行ってきた意思決定を自動化、高精度化することで、様々な産業の生産性向上に寄与し、私達の生活を豊かにしてきました。私達の社会にとってなくてはならない技術領域のひとつになっています。 一方、そうした機械学習の自動判断において、結果的に差別的な振る舞いをしてしまったり、お客さまに不愉快な体験をさせてしまったりといった、社会にネガティブな影響を与えてしまう事案も発生しています。この記事で具体的な事例をと

              公平性に配慮した機械学習 | メルカリエンジニアリング
            • 2022年AI倫理ニュースベスト10 - ABEJA Tech Blog

              本記事はABEJAアドベントカレンダー2022の16日目の記事です! 本日の担当は、法務・AI倫理関係を担当している古川です。12年ほど弁護士をしていまして、途中で機械学習をやってみたくなり数学から統計から機械学習の勉強をして(PRMLとかカステラ本とか読みました!)、Pythonも勉強をして、ある会社で画像解析AIの実装をしていたのですが、現在は法律・倫理関係業務だけ扱っています。 AI倫理・ガバナンス関係の記事を毎年書いているので、今年もその路線で行きます。テーマは「行く年くる年」。このテーマなら毎年書けますしね。まあ、「くる年」の議論はしませんので、厳密には「行く年」だけで2022年の振り返りでしかないのですが・・・ では、ランキング形式で2022年のAI倫理関係のニュースを振り返ります。ランキング形式が人気らしいのでランキング形式なだけで、別に1位だとか2位という順位に大した意味は

                2022年AI倫理ニュースベスト10 - ABEJA Tech Blog
              • 「風の谷を創る」ことで、未来そのものを創る | 安宅和人 | 遅いインターネット

                「風の谷を創る」とはなにか はじめまして、安宅和人と申します。 ここでは、まず僕たちが現在進めている「風の谷」をキーワードにした未来創造のプロジェクトについて、紹介できたらと思います。 成立経緯や概要は2019年7月に公開した僕のブログ記事にまとめているのですが、一言で言うなら「都市集中型の未来に対するオルタナティブ」をテクノロジーをうまく使い倒しながら作ろうという運動論です。 日本だけでなく世界的に都市集中の流れが止まらず長い間人が住んできた場所の多くが棄てられつつある。このままいけば映画『ブレードランナー』が描いたような、極端に人口の集中したメガシティにしか人が暮らせなくなる、そんなある種のディストピア的な世界の到来が避けられないのではないか、と考えていることがこの活動の原点にあります。 この大筋の原因、システム的な課題を探り、それに対して様々な知恵とテクノロジーの力も使い倒しながら対

                  「風の谷を創る」ことで、未来そのものを創る | 安宅和人 | 遅いインターネット
                • 安宅さんに聞く「これからの時代を生き抜く“レアな人材”になるための方法」

                  柴山和久(ウェルスナビ代表取締役CEO)「誰もが安心して手軽に利用できる次世代の金融インフラを築きたい」という想いから、プログラミングを一から学び、2015年4月にウェルスナビ株式会社を設立。2016年7月に自動でおまかせの資産運用サービス「WealthNavi(ウェルスナビ)」をリリース。リリースから約7年5ヵ月となる2024年1月に預かり資産1兆円を突破した。起業前には、日英の財務省で合計9年間、予算、税制、金融、国際交渉に参画。その後マッキンゼー・アンド・カンパニーに勤務し、10兆円規模の機関投資家をサポート。東京大学法学部、ハーバード・ロースクール、INSEAD卒業。ニューヨーク州弁護士。Forbes JAPAN「起業家ランキング2021」でTop3に選出。著書に『新しいNISA投資の思考法 お金の悩みから解放される 正しい「長期・積立・分散」のはじめ方』(ダイヤモンド社、2023

                    安宅さんに聞く「これからの時代を生き抜く“レアな人材”になるための方法」
                  • 【AI倫理・法務に関わる人必見!】AIに関する国内外のルールメイキングの状況 (2023年12月版) - ABEJA Tech Blog

                    今日は、法務・コンプライアンス・AI倫理担当の古川が担当させていただきます。 これで4回目のアドベントカレンダーです。筆者の経歴などは過去の記事で書きましたので省略します。若干追加するならば、Global Partnership On AI(GPAI)というOECDが運営するAIの適切な利活用に関する取り組みの日本の専門家委員を1月からやっております。GPAIを通じてAI倫理だとか責任あるAIの国際的な様々な取り組みに関与させていただいています。 今年も去年に従って「AI倫理ニュース振り返り2022年」を書こうと思ったのですが、より興味が高いであろう国内外のルールメーキングの状況をお話しします。といっても、EU、US、日本だけですが。 1.EU EUはAI法案が非常に重要です。2021年にAI法案をリリースしています。その後、議会による修正案が出ています。基本的にはこの議会の修正版までが一

                      【AI倫理・法務に関わる人必見!】AIに関する国内外のルールメイキングの状況 (2023年12月版) - ABEJA Tech Blog
                    • 安宅さんに聞く「人口減でも日本は成長できる。G7並みは無茶じゃない」

                      柴山和久(ウェルスナビ代表取締役CEO)「誰もが安心して手軽に利用できる次世代の金融インフラを築きたい」という想いから、プログラミングを一から学び、2015年4月にウェルスナビ株式会社を設立。2016年7月に自動でおまかせの資産運用サービス「WealthNavi(ウェルスナビ)」をリリース。リリースから約7年5ヵ月となる2024年1月に預かり資産1兆円を突破した。起業前には、日英の財務省で合計9年間、予算、税制、金融、国際交渉に参画。その後マッキンゼー・アンド・カンパニーに勤務し、10兆円規模の機関投資家をサポート。東京大学法学部、ハーバード・ロースクール、INSEAD卒業。ニューヨーク州弁護士。Forbes JAPAN「起業家ランキング2021」でTop3に選出。著書に『新しいNISA投資の思考法 お金の悩みから解放される 正しい「長期・積立・分散」のはじめ方』(ダイヤモンド社、2023

                        安宅さんに聞く「人口減でも日本は成長できる。G7並みは無茶じゃない」
                      • AIソフトウェア工学の資料まとめ - Qiita

                        この文書の説明 AI応用システムの安全性・信頼性を確保する新世代ソフトウェア工学の確立(科学技術振興機構 研究開発戦略センター)の概要です 本文 AIソフトウェア工学とは 従来の演繹型システムとは異なる帰納型システムの安全性・信頼性を確保できる方法論・技術体系である AIソフトウェア工学に対する二つのアプローチ 1:実践から得られる知見の体系化⇒産業界を中心に自ずと進んでいく 2:理論・原理に関わる学術研究のアプローチ⇒本書のターゲット 重要な技術的課題(詳細はドキュメント参照) 1:機械学習自体の品質保証 2:全体システムとしての安全性確保 3:ブラックボックス問題への対策 4:問題を効率よく解く工学的な枠組み システム開発のパラダイム転換 従来の考え方が通用しなくなる例(産業課題) V字モデル(ウォーターフォール開発) システムの機能(仕様)が、抽象度の高いレベル(上位)から具体的なレ

                          AIソフトウェア工学の資料まとめ - Qiita
                        • 中国で「AIの倫理」はどう語られているのか、国際学会に参加してわかった実態

                          2019年10月31日から11月1日にかけて、北京智源人工知能研究所(北京人工知能アカデミー:Beijing Academy of AI、以下BAAI)でAI(人工知能)研究の国際会議が開催された。 会議には自然言語処理(NLP)の大家である米スタンフォード大学のクリストファー・D・マニング教授、チューリング賞など数々の賞を受けた計算機科学者である米コーネル大学のジョン・エドワード・ホップクロフト教授、2016年のScience誌で「もっとも影響力のあるコンピューター科学者」と紹介されたカリフォルニア大学バークレー校のマイケル・I・ジョーダン教授、機械学習の重要人物である米コーネル大学のソーステン・ヨアヒム教授など豪華メンバーが基調講演の壇上に立った。もちろん著名な中国の研究者も名を連ね、会場は多くの研究者や企業、学生でにぎわっていた。 この会議の母体となったBAAIは北京市が2018年に

                            中国で「AIの倫理」はどう語られているのか、国際学会に参加してわかった実態
                          • AI戦略 - 科学技術・イノベーション - 内閣府

                            ・AIに関する暫定的な論点整理(本文)(PDF形式488KB) (要旨)(PDF形式:217KB) (要旨(仮訳))(PDF形式:270KB) ・AI戦略2022:(本文)(PDF形式455KB) (別紙)(PDF形式:282KB) (概要)(PDF形式:455KB) ・AI Strategy 2022(tentative translation)(PDF形式:365KB) ・AI Strategy 2022(overview)(PDF形式:316KB) 【過去の資料】 ・AI戦略2021:(本文)(PDF形式:1271KB) (別紙)(PDF形式:1745KB) (概要)(PDF形式:325KB) ・AI 戦略 2019(PDF形式:1254KB) ・AI Strategy 2019(tentative translation)(PDF形式:943KB) ・AI 戦略 2019フォローア

                              AI戦略 - 科学技術・イノベーション - 内閣府
                            • 勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に

                              勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に:ウィズコロナ時代のテクノロジー(1/3 ページ) IDC Japanが2021年6月に発表した予測によれば、国内AI市場はコロナ禍後も急速に成長を続け、2025年までにおよそ5000億円に達すると見込まれている。IDCはこの理由を「COVID-19によって企業変革の重要性を再認識した結果、AIへの投資が加速したため」と分析している。 AIの導入は、私たちにさまざまな恩恵をもたらしている。しかし一方で、各所で報じられている通り、AIの品質が保たれないことによる問題も生まれている。AIの判断ミスによるビジネス上の損失や、特定の性別や人種、社会層に対する差別の発生といった問題だ。その多くは意図的にもたらされたものではなく、ささいなミスや怠慢、リスク管理の不備といった要因が積み重なった結果として生じている。 新た

                                勃興するAI版“車検制度” 差別しないAIをどう作る? 海外では「品質保証」が産業に
                              • 5人か1人か、どちらを救う? 自動運転車が直面する「トロッコ問題」【けいざい百景】(時事通信) - Yahoo!ニュース

                                あなたが乗っている自動運転車の前方に、突然5人が飛び出してくる場面を想像してほしい。今のスピードのままではブレーキが間に合わず、右側の対向車線には避ける余地がないほど車が続いている。車は乗員の命を守ることを前提に、右に進路を変えることはなさそうだ。左側の歩道には歩いている1人が見える。直進すれば5人にぶつかり、左に回避すれば1人を巻き込むことが予想される。「トロッコ問題」と呼ばれるこの究極の2択を迫られる状況で、自動運転車はどう動くべきか。(時事通信経済部 工藤玲) 【写真】自動運転倫理ガイドライン研究会による公開シンポジウム ◇倫理的な議論の意義 トロッコ問題は、当然ながら自動運転だけではなく、人間が自ら運転する場合にも起こり得る。ただ人間の場合、反射的にハンドルを切ったり、パニックで体が固まってしまったりと、冷静な判断が難しいケースが多い。一方の自動運転車は、考え得る限りのケースを想定

                                  5人か1人か、どちらを救う? 自動運転車が直面する「トロッコ問題」【けいざい百景】(時事通信) - Yahoo!ニュース
                                • 89.1%が“最高だった”と評価した伝説のセッション「知性の核心とは何か?」 | 【ICC】INDUSTRY CO-CREATION

                                  1. 89.1%が“最高だった”と評価した伝説のセッション「知性の核心とは何か?」 2019 7/22 ▶平日 毎朝7時に公式LINE@で新着記事を配信しています。友達申請はこちらから! ▶ICCの動画コンテンツも充実! Youtubeチャネルの登録はこちらから! ICCサミット FUKUOKA 2018の人気No.1セッションを全8回シリーズでお届けします。(その1)は、ヤフーCSO/慶應義塾大学教授の安宅さんに、私たちが「知性」と呼ぶものは一体何なのか? その正体をスライドと共に解説いただきます。会場の89.1%が“最高だった”と評価した伝説のセッションをぜひご覧ください! ▶ICCパートナーズではコンテンツ編集チームメンバー(インターン)の募集をすることになりました。もし興味がございましたら採用ページをご覧ください。 ICCサミットは「ともに学び、ともに産業を創る。」ための場です。毎

                                    89.1%が“最高だった”と評価した伝説のセッション「知性の核心とは何か?」 | 【ICC】INDUSTRY CO-CREATION
                                  • 罰金リスクはらむ「AI倫理」、米IBM・NTTデータが講じた施策とは

                                    「欧州AI規則案は施行に向けて着々と準備が進んでいる。2024年には全面施行になる可能性がある」。渥美坂井法律事務所・外国法共同事業の三部裕幸弁護士は、欧州委員会が整備を進めるAI規則案の状況をこう語る。 欧州AI規則案は、AI全般の利活用を対象とした世界で初めての法規制となる。内閣府が2019年に公表した「人間中心のAI社会原則」の検討会議で議長を務めた中央大学の須藤修教授ELSIセンター所長は、欧州AI規則案について「欧州の戦略をグローバルのルールにしたいという意図が見え隠れする」と指摘する。 これまで特定の業界におけるAIの利活用に関するルールを整備した例は存在する。例えば米国は州ごとに定める雇用や消費者保護、金融など特定の業界におけるAIの利活用に対する法整備が進んでいる。 欧州AI規則案は欧州地域で販売したりサービスを提供したりするAIシステムを対象とし、AIシステムのリスクを基

                                      罰金リスクはらむ「AI倫理」、米IBM・NTTデータが講じた施策とは
                                    • 稲葉振一郎『AI時代の労働の哲学』 - 労務屋ブログ(旧「吐息の日々」)

                                      『キャリアデザインマガジン』12月号(通巻145号)に寄稿した書評を転載します。内閣府の「人間中心のAI社会原則」は(タイトルどおり)「AIは道具」と断言していますし、最近人工知能学会などが発表した「機械学習と公平性に関する声明」も「機械学習は道具にすぎません」と言い切っているわけですが、しかし現実には「人でも物でもないAI」といったものが登場しないという保証もありません。想像をたくましくすれば、選挙以外の方法で指導者が選ばれている一党独裁国家なんかだと一定以上の国家指導者層が軒並みAIになってもあまり違和感なく世間は動くのではないかなどと妄想しなくもない(本当に人間並みAIができて選挙権を持つようになれば選挙で選んでもそうなるかも?)。 なお本書では「人でも物でもないAI」を考える補助線として動物倫理学が参照されており、私は動物倫理学については「まあクジラやイルカは人間と同じだと考える人

                                        稲葉振一郎『AI時代の労働の哲学』 - 労務屋ブログ(旧「吐息の日々」)
                                      • 「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」を取りまとめました (METI/経済産業省)

                                        経済産業省は、「AI原則の実践の在り方に関する検討会」において、人間中心のAI社会原則(平成31年3月29日、統合イノベーション戦略推進会議決定)を尊重する際に実践すべきことを整理した「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」を取りまとめました。 経済産業省は、統合イノベーション戦略2020及びAI戦略2019フォローアップの下、AI社会原則の実装に向けて、国内外の動向も見据えつつ、我が国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、我が国のAIガバナンスの在り方を検討するために、「AI社会実装アーキテクチャー検討会」を開催し、国内外のAI原則やルール形成の動向を構造的に明らかにするとともに、人間中心のAI社会原則の実装のための中間的なガイドラインの作成を含む我が国の在るべきAIガバナンスの全体像を提示する「我が国のAIガバナ

                                        • 「我が国のAIガバナンスの在り方 ver. 1.0(AI社会実装アーキテクチャー検討会 中間報告書)」の意見公募手続(パブリックコメント)を開始しました (METI/経済産業省)

                                          経済産業省は、AIガバナンスに関する国内外の動向を整理するとともに、我が国のAIガバナンスについて、現時点で望ましいと考えられる姿を「我が国のAIガバナンスの在り方 ver. 1.0(AI社会実装アーキテクチャー検討会 中間報告書)」として取りまとめ、1月15日にパブリックコメントを開始しました。 1.経緯・背景 人間中心のAIの開発・利用を実現するため、2019年にはOECDのAI原則やG20 AI原則のとりまとめが行われ、日本においても、「人間中心のAI社会原則」が取りまとめられました。これらの原則に基づき、AIを構成要素として含むAIシステム、AIシステムの機能を提供するAIサービス、その他付随的サービス、及び、これらを開発、利用、提供する者に関するガバナンスのあり方が、国内外で議論されています。これを受けて、国内ではAI戦略2019フォローアップや統合イノベーション戦略2020にお

                                          • IPAデジタルスキル標準ver.1.0.pdf

                                            All Rights Reserved Copyright© IPA 2023 デジタルスキル標準 ver.1.1 2023年8月 All Rights Reserved Copyright© IPA 2023 1 目次 I. デジタルスキル標準の概要 ⚫ デジタルスキル標準策定の背景、ねらい ⚫ デジタルスキル標準 改訂の考え方 ⚫ デジタルスキル標準の構成 ⚫ デジタルスキル標準で対象とする人材 ⚫ デジタルスキル標準の汎用性 ⚫ デジタルスキル標準の活用イメージ II. DXリテラシー標準 1. DXリテラシー標準策定のねらい、策定方針 2. DXリテラシー標準の構成 3. スキル・学習項目 a. 概要 b. 詳細 4. DXリテラシー標準の活用イメージ III. DX推進スキル標準 1. DX推進スキル標準策定のねらい、策定方針 2. DX推進スキル標準の構成 3. 人材類型・ロー

                                            • アップルも宣言、AI活用で問われる「データ倫理」に日本企業はどう対応すべきか?

                                              アップルがプライバシーの権利を保証を宣言するCMを流しているが、いま、プライバシーデータを法規制する動きが世界中で進んでいる。背景には、誰しも、気づかずにAIが活用されたサービスを使っている現状において、データの管理やそのリスクに関する説明が不十分のままデータ活用がなされていることが挙げられるだろう。その結果、炎上するというケースもあとを絶たない。いま、AIとデータ倫理をどう考えるべきなのか。この6月に『AI・データ倫理の教科書(弘文堂出版)』を上梓した福岡真之介弁護士(西村あさひ法律事務所)に国内外でデータセキュリティのコンサルティングを手がける寺川貴也氏が聞いた。 主に技術系の書籍を中心に企画・編集に携わる。2013年よりフリーランスで活動をはじめる。IT関連の技術・トピックから、デバイス、ツールキット、デジタルファブまで幅広く執筆活動を行う。makezine.jpにてハードウェアスタ

                                                アップルも宣言、AI活用で問われる「データ倫理」に日本企業はどう対応すべきか?
                                              • 『AIの倫理リスクをどうとらえるか 実装のための考え方』訳者あとがき - HONZ

                                                本書は2022年7月に出版された、Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI(倫理的なマシン:完全にバイアスがなく、透明性の高い、人を尊重するAIを実現するための簡潔なガイド)の邦訳である。副題が示す通り、AIすなわち人工知能を開発・運用する際に、倫理面での対応をどう進めるかを解説したガイドブックだ。 本書のタイトルを見て興味を引かれた、という方は、既にご自身の会社や組織の中でAI倫理に取り組まれているのかもしれない。AI倫理という捉えどころのない(本書はそれを「ぐにゃぐにゃ」と形容している)ように感じられるテーマとどう向き合い、実現すれば良いのか、途方に暮れている状態だという方もいらっしゃるだろう。だとしたら、本書は実務ですぐに役立つ、具体的なアドバイスを

                                                  『AIの倫理リスクをどうとらえるか 実装のための考え方』訳者あとがき - HONZ
                                                • 人間中心のAI 社会原則

                                                  1 2 3 5 4 5 6 7 8 Ø Ø Ø 9 Ø Ø Ø Ø 10 Ø Ø Ø Ø Ø Ø 11 Ø Ø Ø Ø Ø Ø Ø Ø Ø 12 Ø Ø 13 14

                                                  • Software 2.0とその社会的課題 - Preferred Networks Research & Development

                                                    本稿は、自動車技術会誌「自動車技術」Vol.75 No.4(2021年4月1日発行)への著者の寄稿を、自動車技術会の許諾を得て転載したものです。 1. Software 2.0 深層学習が目覚ましい発展を遂げて、画像認識や音声認識などの人工知能の分野で新しい応用分野を切り開いている。一方で、人工知能というよりも、新しいプログラミングパラダイムとして深層学習に注目している人たちがいる。テスラ社の人工知能およびオートパイロット部門のディレクタであるAndrej Karpathy は、2017 年11 月に書いたブログの中で、「ニューラルネットワークは新しい識別器というだけではない。われわれがソフトウェアを開発するためのまったく新しい方法なのだ」と述べている(1)。これを彼はSoftware 2.0と呼んでいる。 1940 年代にストアードプログラム方式の電子計算機が発明されて以来、ソフトウェア

                                                      Software 2.0とその社会的課題 - Preferred Networks Research & Development
                                                    • 「AI原則実践のためのガバナンス・ガイドライン ver. 1.0」の意見公募手続(パブリックコメント)を開始しました。 (METI/経済産業省)

                                                      経済産業省は、「AI原則の実践の在り方に関する検討会」において、「我が国のAIガバナンスの在り方 ver. 1.1」をとりまとめるとともに、人間中心のAI社会原則(平成31年3月29日、統合イノベーション戦略推進会議決定)を尊重する際に実践すべきことを整理した「AI原則実践のためのガバナンス・ガイドライン ver. 1.0」を策定し、7月9日にパブリックコメントを開始しました。 1.経緯・背景 経済産業省は、統合イノベーション戦略2020及びAI戦略2019フォローアップの下、AI社会原則の実装に向けて、国内外の動向も見据えつつ、我が国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、我が国のAIガバナンスの在り方を検討するために、「AI社会実装アーキテクチャー検討会」を開催し、国内外のAI原則やルール形成の動向を構造的に明らかにするとともに、人間中心の

                                                      • 人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは

                                                        AI(人工知能)の社会実装が進む一方で、倫理などAIに関するリスクへの関心が国際的に高まっている。AIの判断には不確実性が含まれるため「AIによって誰かが差別的な判断を受けるかもしれない」「AIによる差別が偶発的なものか恣意的なものか分からない」「ある1つのAIがネガティブに判断をすると、他のAIまで連鎖的にネガティブな判断をするかもしれない」「自分のことをAIに判断されるのが怖い」といった懸念が発生している。 こうした問題意識を背景に、国際機関や多くの政府が「信頼できるAI(Trustworthy AI)」を実現するためのポリシーやガイドラインを策定している。日本でも内閣府が2019年に「人間中心のAI社会原則」を発表し、総務省や経済産業省が実践に向けたガイドライン等を策定した。 政府の動きを受けて、AIのシステムを開発する企業の中では、自社のAIに関するポリシーを公開するところが増えて

                                                          人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは
                                                        • ヤマトHD「特命DX請負人」は300人のIT・デジタル専門チームで何を変えるのか

                                                          ヤマトホールディングス(以降、ヤマトHD)は2020年1月、グループの経営構造改革プラン「YAMATO NEXT 100」を発表した。その中で、今後4年でデジタル分野に約1000億円を投資し、デジタルプラットフォームの構築やDXの実現に向けた取り組みを進めていく。YAMATO NEXT 100の中で同社がミッションとして掲げるのが、社会インフラの一員として顧客と社会に向き合い「新たな物流のエコシステム」を創出すること、それを通して次の時代にも、豊かな社会の実現に持続的な貢献を果たす企業であり続けることだ。 この計画の中で、2019年にヤマトホールディングスに参画した執行役員 データ戦略担当の中林紀彦氏が果たす役割は大きい。中林氏はデータサイエンティスト協会の理事としての顔を持ち、内閣府「人間中心のAI社会原則」や経済産業省「AI・データ活用ガイドライン」の策定にも加わる。自身がデータサイエ

                                                            ヤマトHD「特命DX請負人」は300人のIT・デジタル専門チームで何を変えるのか
                                                          • 「パナソニックグループのAI倫理原則」を策定 | 技術・研究開発 | 技術・研究開発 | プレスリリース

                                                            パナソニック ホールディングス株式会社は、AIの開発・運用・利活用において遵守すべき「パナソニックグループのAI倫理原則」を策定しました。 パナソニックグループでは、AIの利活用によって、人々のウェルビーイングと社会のサステナビリティの実現を目指しています。家電・住宅、自動車、B2Bソリューションなどの主要な事業領域で、くらしや社会の課題を解決する革新的な製品やサービスをお届けするため、AIの研究・開発・運用に注力しています。 一方で、近年、AIの不適切使用による、差別の助長、プライバシーの侵害、安全性への不安等のAI倫理上の課題が社会問題となっています。これらの問題に対し、経済協力開発機構(OECD)は国際的な政策ガイドラインを採択、国内では内閣府から「人間中心のAI社会原則」、経済産業省からは「AI原則実践のためのガバナンス・ガイドライン」が発行されています。 これらの社会動向を踏まえ

                                                              「パナソニックグループのAI倫理原則」を策定 | 技術・研究開発 | 技術・研究開発 | プレスリリース
                                                            • AI開発や利用に関する原則&各種ガイドラインをまとめてチェック【国内編】

                                                              「ChatGPT」をはじめとした生成AI(人工知能)の利用が広がる中、AI開発や利用に関する法的な論点に注目が集まっている。本稿では、IT業界で働く人が知っておきたい日本国内のAI原則やガイドラインなどをまとめた。それぞれに所轄官公庁などの情報提供ページへのリンクを記載しているので、詳しく知りたい方は確認してほしい。海外のAI原則やガイドラインなどをまとめた「海外編」も後日公開予定なのでそちらもあわせてチェックしてほしい。 AIに関する原理、原則を定めたもの 「人間中心のAI社会原則」(内閣府)(2019年) 「AIの適切で積極的な社会実装を推進するため」各ステークホルダー(国、行政組織、開発者、事業者)が留意すべき原則として、「人間中心の原則」「教育・リテラシーの原則」「プライバシー確保の原則」「セキュリティ確保の原則」「公正競争確保の原則」「公平性、説明責任および透明性の原則」「イノベ

                                                                AI開発や利用に関する原則&各種ガイドラインをまとめてチェック【国内編】
                                                              • Responsible AI(責任あるAI)の構築に向けて:AIガバナンスの取り組みが進む背景

                                                                社会のあらゆる場面でAIが活用され始めた昨今、AIリスクを起因とするインシデント事例が世界的に増加しています。これに対応するため、国際機関や各国政府はAIリスクに対応するための原理原則や中間的ルールの整備を進めています。 世界的に増加するAIインシデント 産業界におけるAIの活用は大きく進展しており、消費拡大と生産性向上の2つの側面でグローバル経済に大きく貢献する見込みとなっています。2030年までのAIの世界的なGDPへの影響は、15.7兆ドルになると予想されており、その内訳は消費拡大によるものが約60%、 生産性向上によるものが約40%程となる見込みです1。特に米国・中国におけるAI活用によるGDPへのインパクトが大きく、日本においても、2030年までに実質GDPの約18.2%(132兆円、2016年比)の押し上げ効果が期待されています2。 一方、AIの社会実装が進む中で、AIリスクを

                                                                  Responsible AI(責任あるAI)の構築に向けて:AIガバナンスの取り組みが進む背景
                                                                • なぜ今「AI倫理」の議論が必要なのか

                                                                  国内のメディアで「AI」という言葉を目にするとき、そのほとんどが技術的なトピックや社会普及の文脈で語られている。一方、グローバルではその便益だけでなく、AIによって生じる不利益や不平等といった新たな問題を巡る議論も加速している。AI倫理とガバナンスの動向を、東京大学未来ビジョン研究センター特任講師の江間有沙氏にまとめてもらった。 by Arisa Ema2020.09.29 55 19 3 11 本稿を書いている2020年6月中旬、日本では外出自粛が解除され、学校も始まった。「New Normal」や「With Corona」という言葉が使われ、私たちはぎこちないながらも日常へ戻ろうとしている。リモートワーク、遠隔医療や教育などではIT技術の利活用が求められる場面もあるだろう。 この記事はマガジン「AI Issue」に収録されています。 マガジンの紹介 また、各国で人々の行動追跡や接触確認

                                                                    なぜ今「AI倫理」の議論が必要なのか
                                                                  • 報道から見る欧州AI規則案の日本での受容と影響 | InfoComニューズレター

                                                                    1.はじめに2021年4月、欧米で相次いでAI(人工知能)に関する規制が出された。4月19日、米FTC(Federal Trade Commission)が、AIの利用に関するガイダンスを出した1。特に目新しい指摘があるわけではない。AIモデルの構築にあたり、データセットに特定の情報を欠いたままにすれば差別的な結果が生じ得ること、そして、これを前提としたうえで、アルゴリズムがもたらすパフォーマンスに責任を持つことが重要であることなどが述べられている。 その2日後の4月21日、EUは、AIに関する包括的かつリスクベースアプローチに基づく「AI規制案(以下「AI規則案」)」2を発表した。AI規則案については、日本経済新聞のトップを始め、わが国でも広く報じられている3。 本稿は、「わが国におけるAI規制の受容」という観点から、最初にAI規則案を概観し、次に、このAI規則案がわが国においていかに報

                                                                      報道から見る欧州AI規則案の日本での受容と影響 | InfoComニューズレター
                                                                    • AIを広く活用する日本企業のリーダーは8%--運用ガイドラインは5社中2社

                                                                      印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます ライブパーソンジャパンは6月25日、人工知能(AI)と倫理に関する日本企業の意識・実態調査の結果を発表した。米本社LivePersonがアジア太平洋日本(APJ)地域のITやカスタマーエクスペリエンス、デジタルの各部門の意思決定者2500人(うち500人は日本企業)を対象にしたアンケート調査によれば、AIを幅広く使用していると回答した、日本企業のビジネスリーダーはシンガポールの半分、中国の3分の1にあたる8%となっている。 限定的にAIを採用しているのは23%。導入中と回答したのは16%。計画中と回答したのは23%。使用していないと回答したのは29%。このようにビジネスにおけるAI活用が広まりつつあるなか、AIの運用ガイドラインを定めて

                                                                        AIを広く活用する日本企業のリーダーは8%--運用ガイドラインは5社中2社
                                                                      • パナソニック AI倫理原則を策定

                                                                        パナソニックは、AIの開発・運用・利活用において遵守すべき「パナソニックグループのAI倫理原則」を策定しました。 このAIニュースのポイント パナソニックがAI倫理原則を策定 AI製品やサービスを信頼して使用してもらうために策定 AI倫理委員会を設置し、AI倫理教育を推進していく方針 パナソニック ホールディングス株式会社は、AIの開発・運用・利活用において遵守すべき「パナソニックグループのAI倫理原則」を策定しました。 パナソニックでは、家電・住宅、自動車、B2Bソリューションなどの主要な事業領域で、くらしや社会の課題を解決する革新的な製品やサービスをお届けするため、AIの研究・開発・運用に注力しています。 一方で、パナソニックでは近年、AIの不適切使用による、差別の助長、プライバシーの侵害、安全性への不安等のAI倫理上の課題が社会問題となっていることを把握しています。 これらの問題に対

                                                                          パナソニック AI倫理原則を策定
                                                                        • 仕事の未来や経営のあり方を変えるResponsible AI(責任あるAI)とは | Forbes JAPAN 公式サイト(フォーブス ジャパン)

                                                                          AIに対して悲観的な日本人 築地テレサ(以下、築地) ビジネスにAIを取り入れる動きが活発化していますが、日本では悲観的な論調が目立ちます。PwCで調査を行ったところ、未来の仕事をネガティブに捉えている人が74%を占め、諸外国と比べ圧倒的に高い数字でした。加えて、AIなどの新しいテクノロジーに適応する自信も低いという結果が出ています。日本人の特性なのか、新しいテクノロジーの活用に対して「とても自信がある」と回答したのはわずか5%です。 日本人は未来の仕事に対して否定的 ・将来の仕事を否定的(心配だ/興味がない)に捉えている日本人は74%おり、諸外国と比較して顕著に高い 日本人は職場へのテクノロジー導入に順応できる自信がない ・日本人が将来の仕事に対して否定的(心配だ/興味がない)である理由として、AIを含む先端テクノロジーの活用に自信がないことが原因と考えられる。「とても自信がある」と回答

                                                                            仕事の未来や経営のあり方を変えるResponsible AI(責任あるAI)とは | Forbes JAPAN 公式サイト(フォーブス ジャパン)
                                                                          • 機械学習の公平性について専門家らが声明を発表

                                                                            機械学習技術の研究者コミュニティが、機械学習の利用による公平性の問題について2019年12月10日、声明を発表した。「(1)機械学習は道具にすぎず人間の意志決定を補助するものであること」「(2)(研究者コミュニティは)公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること」を声明で強調した。 声明を発表したのは、人工知能学会 倫理委員会、日本ソフトウェア科学会 機械学習工学研究会(MLSE)、電子情報通信学会 情報論的学習理論と機械学習研究会である。 (1)については、機械学習はあくまで学習データという過去の事例に基づいて予測を行うため、学習データに偏り(バイアス)があれば、予測結果も偏りのある内容となる。予測が公平性を欠かないようにするには人間が注意深く介在する必要があると、声明では述べている。 (2)については、この問題に関する機械学習の研究者コミュニティでの取り組

                                                                              機械学習の公平性について専門家らが声明を発表
                                                                            • 【チートシート】G検定の試験当日のカンペ

                                                                              はじめに G検定に向けたカンペを作っておこうと思う。 ネットと書籍の情報だと、カンペはOKらしいので、 2021年7月の公式サイトのシラバスに乗っている単語を中心に記載する。 カンペ 人工知能の定義 人工知能とは何か コンピュータを使って、学習・推論・判断など人間の知能のはたらきを人工的に実現したもの。 AI効果 人工知能で何か新しいことが実現され、その原理が分かってしまうと、「それは単純な自動化であって知能とは関係ない」と結論付ける人間の心理的な効果 人工知能とロボットの違い ロボット:あらかじめプログラムされた動作を正確に行う。自己判断で進めることはできない。 人間で例えると「体」 人工知能:自立して発展していく。自ら学習して精度を高めることができる仕組み。 人間で例えると「脳」 エージェント 事前に定義された目標を達成するためのコードまたはメカニズム 「チャットボット」「ソフトウェア

                                                                              1