エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Copilot for Microsoft 365でリスクになるNG設定とは 管理者の目線で解説
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Copilot for Microsoft 365でリスクになるNG設定とは 管理者の目線で解説
大きな関心を集める「Copilot for Microsoft 365」だが、Microsoft 365でのデータのアクセス権の設定や... 大きな関心を集める「Copilot for Microsoft 365」だが、Microsoft 365でのデータのアクセス権の設定や共有方法によっては、意図しない人にデータが筒抜けになる可能性がある。IT管理者が知っておくべきリスクや対策を専門家が解説した。 Copilot for Microsoft 365は、Microsoft 365の各アプリケーションにOpenAIの大規模言語モデル(LLM)を掛け合わせたサービスだ。2023年11月の提供開始以来、AI(人工知能)によって業務効率化を図りたい多くの企業の関心を集めてきた。 一方でユーザーからは、「自社で使用する場合のデータの取り扱いやガバナンスに不安がある」といった声が上がっている。こうした懸念に対し、IT管理者が知っておくべきリスクや事前対策について、大塚商会の池邉洋平氏(TSCコミュニケーション課)が講演した。 機密データが漏