従来の強化学習では、エージェントは何度も失敗や衝突を繰り返しながら学習を重ねていきます。しかし、これは試行錯誤の原則に基づいて動作・学習しているだけであり、エージェントは行動のよしあしを検討しておらず、安全性が保障されません。人工知能(AI)を研究する非営利団体OpenAIは、「従来の強化学習では、AIが危険な動作によって予測できないエラーを起こす可能性がある」と指摘し、安全上の制約を尊重しながらエージェントの強化学習を行うためのツール群「Safety Gym」を発表しました。 Safety Gym https://openai.com/blog/safety-gym/ OpenAI releases Safety Gym for reinforcement learning | VentureBeat https://venturebeat.com/2019/11/21/openai-s
![AIがリスクとコストを事前に考慮して強化学習を行うためのツール群「Safety Gym」をOpenAIが発表](https://cdn-ak-scissors.b.st-hatena.com/image/square/97d54cfb16fe86438272e121aff653618a06d0fc/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2019%2F11%2F22%2Fopenai-safety-gym%2F00.png)