人工知能(AI)が社会の構成員になる未来を見据えて、研究開発や利用に一定の指針や倫理規定を設けるべき、という議論が世界で巻き起こっている。 政府機関では、欧州議会が2017年1月にAIも含めた「ロボット」に関するルール作りを勧告しており、将来は法制化に向かう可能性がある。個人情報保護などの法制化を勧告してきた実績を持つOECD(経済開発協力機構)は2017年秋からAIを議題に取り上げる方針だ。 民間からはグーグルやIBM、マイクロソフトなどの米IT大手を中心に発足した「Partnership on AI」がAIの開発や利用段階で求められる倫理概念について議論を始めた。日本では、人工知能学会が研究開発で守られるべき「倫理指針」を2017年3月に公表している。 一方で、特に政府がAIの倫理規定や指針を規定する動きには「AIの研究開発を萎縮させる」「SF(サイエンスフィクション)で語られるAI脅