エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ChatGPTの情報漏えいをどう防げばいいのか? 続々登場する新ソリューションの仕組み
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ChatGPTの情報漏えいをどう防げばいいのか? 続々登場する新ソリューションの仕組み
AIトレーニングとデータ漏えいリスク 生産性改善やコスト削減の可能性を裏付ける調査は多数発表されてお... AIトレーニングとデータ漏えいリスク 生産性改善やコスト削減の可能性を裏付ける調査は多数発表されており、企業における生成AI活用機運は拡大の一途だ。 しかし、生成AIに関するリスク懸念が完全に払拭された訳ではなく、生成AIを活用する上でのリスクを下げるための取り組みを模索する動きも活発化しつつある。たとえば、生成AIが嘘をつく「ハルシネーション」問題に対しては、RAG(Retrieval Augmented Generation)アプローチを用いるなどの対策が講じられている。 企業が懸念する主要リスクの1つとなるのが「データ漏えい」だ。生成AIに機密情報を入力してしまうと、その情報がAIのトレーニングに利用され、他のユーザーが利用した際のアウトプットとして生成される可能性がある。 ChatGPTが登場した当初、いくつかの企業で社内におけるChatGPT利用を禁止する動きがあったが、その主な