タグ

2015年7月29日のブックマーク (3件)

  • 安全保障学を学ぶ

    2020年以降、世界規模で感染が拡大した新型コロナウイルスの影響を受けて、あらゆる慣行や制度が見直されましたが、外交もその例外ではありませんでした。対面で協議することができなくなったために、外交の現場ではオンラインでの交渉を余儀なくされています。しかし、そのことは従来の対面で実施されていた交渉で用いられた外交的なテクニックを使いにくくしていることも明らかにされています。 今回は、2021年に出版されたばかりの論文「失われている平和の感覚:新型コロナウイルスによるロックダウンにおける外交的接近とその仮想化(The missing sense of peace: diplomatic approachment and virtualization during the COVID-19 lockdown)」の内容の一部を紹介してみたいと思います。 論文情報: Isabel Bramsen, A

    安全保障学を学ぶ
    zyesuta
    zyesuta 2015/07/29
    リンクに追加しました。オススメのブログです。私は全記事読んでます。
  • ホーキング博士ら「ロボット戦争」を警告 人工知能兵器に懸念 (ウォール・ストリート・ジャーナル) - Yahoo!ニュース

    ロボット戦争のリスクについては、映画「ターミネーター」などのSFシリーズで世間に広まったが、それはわれわれが考える以上に間近に迫っているのかもしれない。そこで、ハイテクと人工知能AI)分野のリーダーから構成されるグループが、これを阻止しようと動いている。 著名な天体物理学者のスティーブン・ホーキング博士、電気自動車のテスラ・モーターズを創業したイーロン・マスク氏、それにアップルの共同創設者であるスティーブ・ウォズニアック氏などが署名した書簡が27日公開された。自律型兵器の禁止を求めるものだ。非営利団体「フューチャー・オブ・ライフ・インスティチュート(FLI)」がアルゼンチンで開かれている国際人工知能会議(IJCAI)で公開したもので、自律型兵器は戦争において、火薬と核兵器に次ぐ「3番目の革命」になると指摘した。 書簡は「主要な軍事大国でAI兵器の開発を進める国があれば、世界で開発競争

    zyesuta
    zyesuta 2015/07/29
    ロボット戦争のリスクについては、映画「ターミネーター」などのSFシリーズで世間に広まったが、それはわれわれが考える以上に間近に迫っているのかもしれない。そこで、ハイテクと人工知能(AI)分野のリーダーから
  • イーロン・マスク氏、ホーキング博士、ウォズニアック氏ら、AI自律型兵器禁止を呼び掛け

    人工知能AI)研究の発展により、数十年ではなく数年後には、自律型兵器(autonomous weapon)の開発が可能になり、その代償は大きいだろう。自律型兵器は、火薬、核兵器に続く、戦争における第三の革命とみなされている」──。主に人工知能AI)の安全性について研究する非営利の研究組織Future of Life Institute(FLI)は7月28日(現地時間)、アルゼンチンのブエノスアイレスで開催のIJCAI人工知能国際会議)2015のオープニングで自律型兵器の開発禁止を呼び掛ける公開書簡を発表した。 書簡の著者らは、人間の判断を介さない自律型兵器の使用は、戦闘開始の閾値を低くし、結果的に大規模な人命損失につながると主張する。また、AI兵器は核兵器と比較して開発が容易で低コストな上、監視が困難だ。さらに、コピーも比較的簡単なこともあり、ブラックマーケットに出回り、すぐに暗殺

    イーロン・マスク氏、ホーキング博士、ウォズニアック氏ら、AI自律型兵器禁止を呼び掛け
    zyesuta
    zyesuta 2015/07/29
    AI(人工知能)研究の発展により、数年後には技術的に自律型兵器の開発が可能になってしまうとして、そうした兵器開発を禁止するべきだと研究者や企業幹部らが公開書簡で呼び掛けた。 「人工知能(AI)研究の発展によ