2019年11月15日のブックマーク (2件)

  • 京アニ事件容疑者「こんなに優しくされたことなかった」 医療スタッフに感謝、転院前の病院で(京都新聞) - Yahoo!ニュース

    京都市伏見区桃山町因幡のアニメ製作会社「京都アニメーション」(京アニ)第1スタジオが放火され、男女36人が死亡、33人が重軽傷を負った事件で、大阪府内の病院に入院していた青葉真司容疑者(41)=殺人などの疑いで逮捕状=が14日、京都市内の病院に転院した。命に別条がない程度まで回復したためで、京都府警は勾留に耐えられる状態になるのを待って逮捕する方針。 【動画】転院する青葉容疑者の様子 病院関係者によると、青葉容疑者は現在、感染症などの合併症を起こす危険な状態を脱している。自力歩行はできないが、会話は可能という。転院前、治療に携わった医療スタッフに対して「人からこんなに優しくしてもらったことは、今までなかった」と感謝の言葉を伝えたという。 青葉容疑者は14日午前9時ごろ、ストレッチャーで救急車に乗せられて大阪府内の病院を出発し、午前10時15分ごろに京都市内の病院に到着。青葉容疑者はタオルで

    京アニ事件容疑者「こんなに優しくされたことなかった」 医療スタッフに感謝、転院前の病院で(京都新聞) - Yahoo!ニュース
    x_musa
    x_musa 2019/11/15
    とはいえ普段から他者に敵意むけて自ら優しさを遮断していたのでは。周囲が優しくしてあげればとか、ていのいい妄想で哀んだとて同情するまでにはならないな。
  • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

    【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基的に起こることです。 ――大量の変数という意味

    人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
    x_musa
    x_musa 2019/11/15
    サムネイル見たときメサイアかと思った