チャットAI「Claude」などを開発するAI企業「Anthropic」がAIの安全性に関するポリシーの反省点を発表しました。今回発表された反省点をもとに、新たなポリシーが構築される予定です。 Reflections on our Responsible Scaling Policy \ Anthropic https://www.anthropic.com/news/reflections-on-our-responsible-scaling-policy Anthropicは、OpenAIでGPT-2やGPT-3の開発に携わっていたダリオ・アモデイ氏がCEOを務めるAI企業です。AnthropicはAIの性能向上に伴う安全への脅威を「AI安全レベル(ASL)」と呼ばれる指標で分類しており、「重大なリスクをもたらさないAI」をASL-1、「生物兵器の開発などに悪用される兆候を示すAI」を
![「人類に壊滅的なリスクをもたらすAI」を安全に提供するためにAnthropicが既存ポリシーの反省点を公開](https://cdn-ak-scissors.b.st-hatena.com/image/square/e2054b9c6ac55729e4a57566b47d4ab440a0ee47/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2024%2F05%2F20%2Fanthropic-ai-responsible-scaling-policy%2F00.jpg)