タグ

2019年8月15日のブックマーク (2件)

  • 営業停止の佐野SA泥沼背景「来るべくしてきた」 - 社会 : 日刊スポーツ

    お盆の帰省ラッシュ真っただ中の東北道・佐野サービスエリア(SA)上り線で、14日未明から、フードコート、売店の営業が一斉にストップした。 同SAを運営する、栃木県佐野市のケイセイ・フーズの従業員がストライキを起こしたため。トイレや自動販売機の利用は出来るものの、一部の屋台以外の飲はできず、お土産も買えず、利用者は困惑している。 ◇   ◇   ◇ 今回の騒動の背景には、ケイセイ・フーズの労使問題がある。関係者によると、同社の親会社にあたる建設会社にまつわる信用不安情報が、フードコート、売店に商品を卸す取引先の業者に露見してしまったという。そのため、7月25日前後から商品が納入されなくなり、今月1日には倉庫から在庫がなくなってしまった。 ケイセイ・フーズは取引先に、納入された商品の代金を60~90日後に支払っていたが、商品が納入されない事態に、一部の管理職員が5日に、商品の代金を前倒しで支

    営業停止の佐野SA泥沼背景「来るべくしてきた」 - 社会 : 日刊スポーツ
    Fuggi
    Fuggi 2019/08/15
    勝手に想像すると「管理職員の解雇撤回を訴えるスト」ということかな。
  • グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN 公式サイト(フォーブス ジャパン)

    グーグルは2016年にSNSやウェブサイト上の、ヘイトスピーチを監視するAI人工知能)アルゴリズムを開発した。しかし、このAIが全く逆の結果をもたらし、人種的偏見を助長するものあることが発覚した。 アルゴリズムにヘイト発言を学習させるため、グーグルはPerspectiveと呼ばれるAPIで「有害」のラベルづけをした10万件以上のツイートを用意した。有害な発言の定義は「侮辱的な内容や敬意を欠いた言葉づかい」とされていた。これらの素材をマシンラーニングで学習させることで、アルゴリズムがコンテンツの有害性を評価することが期待されていた。 しかし、ワシントン大学の研究者らの調査でこのAIツールが、黒人のツイートをヘイトスピーチに分類することが分かった。アルゴリズムは黒人のSNSへの投稿を、高い確率で有害コンテンツに分類していたが、実際は無害な発言ばかりだったという。 研究チームのMaarten

    グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
    Fuggi
    Fuggi 2019/08/15
    むしろ人間の側の倫理観が流動的・相対的(場当たり的)であることに気づくべきだと思うけど。/「AIが差別的かどうかを決める」のは極めてディストピア的だけれど、SNSの投稿内容の判断に実装されれば即現実になる。