タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

AIと自動運転に関するscreekのブックマーク (1)

  • 5人の命を助けるために1人を殺してもよいか?人工知能が殺人を犯す懸念と倫理問題

    連載の第7回で、人工知能は「敵か、家族か」という二分法で考えられるほど単純なものではなく、遅かれ早かれ「人間の倫理」の問題として浮上してくると書いた。人工知能の動向を追いかけていると、「人間とは何か」「社会はどうあるべきか」という問いが、人工知能を発達させるうえで避けて通れない大きな問題として存在することがわかってくる。 人工知能開発における究極の選択問題 トロッコ問題(トロリー問題)をご存じだろうか。簡単にいうと、「ある人を助けるためにほかの人を犠牲にするのは許されるか?」という倫理学の思考実験だ。 「線路を走っているトロッコが制御不能になった。このままトロッコが進むと線路前方にいる5人の作業員が死んでしまう。このとき現場で、この状況を目撃したAさんは線路を切り替えることのできる転轍機のそばにいた。切り替えれば5人は助かるが、切り替えたほうの線路にいるもう1人の作業員Bさんは死んでしま

    5人の命を助けるために1人を殺してもよいか?人工知能が殺人を犯す懸念と倫理問題
  • 1