2019年8月15日のブックマーク (3件)

  • お盆に旅行行ったり実家帰るやつって相当アホだよね

    わざわざ何で激混みで料金もバカ高い時に旅行とか行くのかな? オレすっごい疑問 あっバカだからか。

    お盆に旅行行ったり実家帰るやつって相当アホだよね
    strow0343
    strow0343 2019/08/15
    調整しやすいからだよ。工場勤務者の場合は祝日の休みが連休に移動したりするし
  • "クソコード"は人格攻撃ではないのか|qsona

    これは仮説というか自分がこうだという話なのだが、自分のアイデンティティを侵されると怒りが湧く。たとえば、自分が非常に大事にしている価値観に対して、同僚から「君のその価値観は間違っている」と言われたり、あるいは、作品とか、経歴とか、家族とか、そういう自分自身と非常に密になっていて同一視されるようなものをけなされたら、腹が立つということだ。 プログラマーにとって、ソースコードというのは一つの作品だ。仮に経験が浅い開発者であっても、あるいは経験が浅いからこそ、1行1行に時間をかけて考えながら作りあげる。それに対してこれはクソコードだと言われたらどうだろうか。考えてみる。 よく、クソコードというのはコードがクソだと言っているのであって、お前がクソだと言ってるわけではないから切り離して考えるべきだという言説がある。僕はこれには微妙に賛同できない。その人が生み出したコードは、少なくともその人のいくぶ

    "クソコード"は人格攻撃ではないのか|qsona
    strow0343
    strow0343 2019/08/15
    レビューで指摘する際に「クソコード」はクソ指摘でしょ。ネストが深いとか特定の変数名が分かりにくいとか関数が長いとか具体的に指摘する必要がある。Twitterに愚痴るなら「クソコード」と表現してもいいけど
  • グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN 公式サイト(フォーブス ジャパン)

    グーグルは2016年にSNSやウェブサイト上の、ヘイトスピーチを監視するAI人工知能)アルゴリズムを開発した。しかし、このAIが全く逆の結果をもたらし、人種的偏見を助長するものあることが発覚した。 アルゴリズムにヘイト発言を学習させるため、グーグルはPerspectiveと呼ばれるAPIで「有害」のラベルづけをした10万件以上のツイートを用意した。有害な発言の定義は「侮辱的な内容や敬意を欠いた言葉づかい」とされていた。これらの素材をマシンラーニングで学習させることで、アルゴリズムがコンテンツの有害性を評価することが期待されていた。 しかし、ワシントン大学の研究者らの調査でこのAIツールが、黒人のツイートをヘイトスピーチに分類することが分かった。アルゴリズムは黒人のSNSへの投稿を、高い確率で有害コンテンツに分類していたが、実際は無害な発言ばかりだったという。 研究チームのMaarten

    グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
    strow0343
    strow0343 2019/08/15
    「誰が」という文脈がいかに重要かが分かる