「ChatGPTはすごい。」なので、法人でも従業員がうまく使える体制を築きたい。そう思うのは自然なことです。実際にどんどんと活用事例が出てきています。 でも、気になるのが情報漏洩です。機密情報を投げ込んで、それが漏れたら大変です。なので、そこにガイドラインを引きたいと考えるのは自然なことです。 そのなかで企業がChatGPTを利用する際に、学習データに関する機密情報が利用されないようにOpenAIにオプトアウト申請をすることがある種の落とし所になっているかと思います。 機密情報の漏洩を防ぐためのこの対策は、ある程度の基準としては理解できますが、冷静に考えると腑に落ちない点も存在します。 ChatGPTに機密情報を入力してしまって、その情報が社会に漏洩してしまうには2つの可能性が考えられます。 ・OpenAI自身がセキュリティの不備などで「会話履歴」を漏洩する ・OpenAIが「会話履歴」を