OpenAIが有害なAIのリスクと脅威から守るために社内の安全プロセスを見直し、「Safety Advisory Group(安全諮問グループ)」を技術チームの上に設立することを発表しました。このSafety Advisory Groupは継続的にAIモデルに対するテストを実施し、危険性があった場合は経営陣と取締役会に勧告を行うとのことです。 Preparedness https://openai.com/safety/preparedness Preparedness Framework(Beta) | OpenAI (PDFファイル)https://cdn.openai.com/openai-preparedness-framework-beta.pdf We are systemizing our safety thinking with our Preparedness Frame