
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
日本企業における生成AIの利用実態とセキュリティリスクとは?Netskope Threat Labsが調査結果を発表
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
日本企業における生成AIの利用実態とセキュリティリスクとは?Netskope Threat Labsが調査結果を発表
同調査によれば、日本では従業員が生成AIアプリを直接利用している企業が68%を占めており、国内の企業... 同調査によれば、日本では従業員が生成AIアプリを直接利用している企業が68%を占めており、国内の企業に勤める全従業員のうち平均1.4%が月間アクティブユーザーとなっている。 もっとも利用されている生成AIアプリはChatGPTで、Google Gemini、Perplexity AI、Microsoft Copilot、GitHub Copilotがそれに続いた。 Netskopeのシステムが検出した、日本のユーザーによる生成AIアプリに機密データを共有しようとするデータポリシー違反の内訳をみると、「知的財産」(90%)が最多となり、以下「規制対象データ」(6%)、「ソースコード」(4%)が続く。世界全体では、「ソースコード」(48%)、「規制対象データ」(23%)、「知的財産」(17%)、「パスワードとアクセスキー」(13%)が上位を占めている。 さらに、日本では従業員の34%が生成AI