OpenAIのGPT-4やMetaのLLaMAなどの大規模言語モデルは、ChatGPTなどのチャットAIに用いられるなど、世界的に大きな評価を受けています。しかし、これらの大規模言語モデルには、学習時に使用されたデータやアルゴリズムを特定するためのソリューションが存在しないことが問題視されています。モデルのトレーニングを行う際に、誤った情報をトレーニングしてしまうと、フェイクニュースの拡散などにつながります。AIに関するセキュリティ関連企業のMithril Securityが、既存の大規模言語モデルに誤った情報を加え、フェイクニュースを生成するチャットAI「PoisonGPT」を公開しました。 PoisonGPT: How we hid a lobotomized LLM on Hugging Face to spread fake news https://blog.mithrilsec
![大規模言語モデルにウソの情報を埋め込んで誤った情報を生成させるチャットAI「PoisonGPT」が開発される](https://cdn-ak-scissors.b.st-hatena.com/image/square/8756b9e4995d586ea0399a8b9734332741fa42bf/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2023%2F07%2F10%2Fai-fake-poison-gpt%2F00.png)