これから発展する人工知能(AI)のような技術をハードロー(法令)で規制すると、条文に多くのバグを盛り込むことになりかねない。その前に、専門家を集めてソフトローを作る――。 法哲学を専門とし、総務省が主導する産官学会議「AIネットワーク社会推進会議」の構成員でもある慶応義塾大学 法学部の大屋雄裕教授は、同会議が策定するAI開発の指針案「AI開発ガイドライン(仮)」の意義をこのように解く。 大屋教授は、ITを含む技術の発展で社会や個人がどう変わるかという視点から、技術を統制する法制度のあり方を研究している。大屋教授に、AI開発ガイドライン策定の狙いと、法哲学の視点から見た「AIと倫理」を巡る論点を聞いた。 AI技術者の一部には、発展途上であるAIについて、政府がガイドラインという形で縛ることに反対する声がある。 まず前提として、AI技術を社会としてどう統制するかが、既に世界的な議論になっている