AIモデルの弱点として、未知の状況に遭遇した際に悲劇的な失敗をすることがある。ウィスコンシン大学のシャロン・リー助教授の研究の狙いは、訓練されていない状況にAIが直面した際の安全性を確保することだ。 by Melissa Heikkilä2023.09.26 4 11 人工知能(AI)システムが研究室から現実世界へと導入される中で、そうしたシステムが思いもしない方法で動作し、悲惨な結果をもたらす事態に備える必要が生じている。そうした事態はすでに起こっている。例えば、昨年モスクワでは、7歳の少年がチェスロボットの腕によって指を骨折させられた。ロボットはチェスの駒を動かしている少年の指をつかみ、近くにいた大人がロボットの爪をこじ開けるまで、決して放そうとしなかった。 こうしたことが起こった原因は、ロボットが危害を加えるようにプログラムされていたからではない。ロボットは、少年の指がチェスの駒であ
![AIの暴走防ぐ研究者、「知らないことを知る」安全性組み込む](https://cdn-ak-scissors.b.st-hatena.com/image/square/77606b65e9fcb00272f57ec92f00636bce7149d0/height=288;version=1;width=512/https%3A%2F%2Fcdn.technologyreview.jp%2Fwp-content%2Fuploads%2Fsites%2F2%2F2023%2F09%2F12195017%2FSharonLi_Stathas_thumb1-1400x787.jpeg)