はじめに 近年、AIをはじめとするITの発展により、パーソナルデータを利用した新たなサービスが次々と生み出され、私たちの生活に大きな影響を与えつつあります。その一方で、技術に起因する、予期せぬプライバシー侵害が問題となっており、その対策に関する議論も活発化しています。 本稿では、AIを用いたパーソナルデータの利用において考慮すべきプライバシー侵害のリスクを整理した上で、その対策となるルールや技術について紹介します。 1. AIの利用におけるプライバシー侵害のリスク まずはAI利用の流れを見てみましょう。AIだからといって特殊なわけではなく、大きく「収集・集積」「解析」「利用」という一連の流れにより成り立つと考えられます。まずは、パーソナルデータを「収集・集積」する必要があります。次に、収集・集積したデータをAIにより「解析」することでパターンや相関関係を導き出します。これにより、例えば個人
このタイトル・見出し・記事はChatGPT Plus(GPT3.5 or 4)が生成した回答を元に作成しています。 1. はじめに AI技術の進化に伴い、私たちの生活はますます便利になっています。しかし、その一方で、プライバシー侵害や個人情報の保護という問題も生じています。本記事では、ChatGPTを含むAI技術におけるプライバシー侵害と個人情報の保護、さらに法的対応について解説します。 2. AI技術とプライバシー侵害 2.1 ChatGPTとプライバシー ChatGPTはOpenAIによって開発されたAI技術で、自然言語処理を用いて人間と同様の会話ができるように設計されています。しかし、この技術によってもたらされる利便性と引き換えに、プライバシー侵害のリスクが伴います。例えば、ChatGPTを使って個人情報を共有してしまうと、その情報が第三者に漏れる可能性があります。 2.2 AI技術
UPDATE: 3 Feb. 2024: In the wake of a near-disastrous cabin blowout in an Alaska Airlines 737 Max 9 on 5 Jan.—which has propelled the embattled redesign of the once iconic 737 back into the headlines—Boeing, the plane’s designer, has been shaken anew. As the Financial Timesreported on 31 Jan., the company’s chief executive Dave Calhoun wrote in a note to employees that outsourcing in the 737 Max d
2005年、京都大学大学院文学研究科で博士号(文学)を取得。2014年より名古屋大学大学院情報科学研究科准教授。2017年より名古屋大学大学院情報学研究科准教授。専門は情報の哲学、技術哲学、人文情報学など。翻訳書にアンディー・クラーク『生まれながらのサイボーグ』(共訳、春秋社、2015年)、ウェンデル・ウォラック&コリン・アレン『ロボットに倫理を教える』(共訳、名古屋大学出版会、2019年)、著書に『ロボットからの倫理学入門』(共著、名古屋大学出版会、2017年)、『人工知能と人間・社会』(共著、勁草書房、2020年)などがある。 1.はじめに 2019年末、東京大学に所属する人工知能研究者、大澤昇平のツイートが物議を醸した(2020年3月現在は東京大学を懲戒解雇されている)。彼はある国に言及して、その国籍を持つ人間は能力が低いので自分の経営する会社では雇わないと発言し、そのことを差別的だ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く