一部の著名人や専門家が懸念するように、人工知能(AI)が本当に人間を滅ぼすほど危険なものなのかはまだわからない。 だが少なくとも人類は、機械の反乱を防ぐためのアイデアを何十年も前にから提唱している。それが「ロボット工学三原則」だ。 20世紀のSF作家「アイザック・アシモフ」が考案したこの有名な三原則がプログラムされたロボットやAIなら、ただひたすらに人間の幸せのために貢献してくれるはずだ。 だが、当のアシモフ自身が予見しているように、この三原則は必ずしもロボットの反乱を防いではくれず、思いがけない結果を招くことになるかもしれないという。 一体なぜ、ロボット三原則ではダメなのか? 急速にAIが普及している今だからこそ、この重要な問題について考えてみよう。
![ロボットの反乱を防ぐ「ロボット工学三原則」が現実的ではない理由 : カラパイア](https://cdn-ak-scissors.b.st-hatena.com/image/square/6b89b17039e2abd3b108867d5b0d6dcc7e123f7e/height=288;version=1;width=512/https%3A%2F%2Flivedoor.blogimg.jp%2Fkarapaia_zaeega%2Fimgs%2Fb%2F1%2Fb17b1b1b.jpg)