タグ

2019年12月14日のブックマーク (3件)

  • 兄「睡眠用うどんが届くと思うから受け取っといてもらえる?」私「睡眠用…うどん????」

    コウ 9/22東5ネ08b @sbg_kou 兄「今月の中旬に着払いで睡眠用うどんが届くと思うから、もしその時家にいたらここにあるお金で受け取ってもらえる?」 私「睡眠用…うどん????」 兄「そう、睡眠用うどん」 気になりすぎて調べた🙃 pic.twitter.com/pkn5ThJaXj 2019-12-13 11:39:29

    兄「睡眠用うどんが届くと思うから受け取っといてもらえる?」私「睡眠用…うどん????」
  • 古代エジプト人が頭に載せた謎の物体、ついに発掘

    約3300年前の晩さん会。頭に円すい形の物体を載せた女性たちが描かれている。この円すいは古代エジプト美術によく登場するが、単なるシンボルか、実際に使われていたものかという議論を呼んできた。(PHOTOGRAPH BY WERNER FORMAN, UNIVERSAL IMAGES GROUP/GETTY) 古代エジプト美術には、頭に円すい形の「何か」を載せた人々が登場する。パピルスの巻物やひつぎに描かれた王族の晩さん会や神聖な儀式には、頭に円すいを載せた男女が集まっている。特定の神々と結び付くとされた、出産の風景を描いた作品に描かれることもある。 古代エジプトでは1000年以上にわたり、この円すいが広く描かれ続けたが、実在したかどうかは不明で、その意味も解明されていなかった。この謎めいた物体が発掘されたことはなく、一部の学者は単なる象徴にすぎないと考えるようになった。キリスト教美術の聖人や

    古代エジプト人が頭に載せた謎の物体、ついに発掘
    endo_5501
    endo_5501 2019/12/14
    “「これはたぶん円すいよ!」”もっとなんか具体的な名前をつけたりしないものなのだろうか
  • Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita

    subcharacterに関しては,BERTやELMoといった文脈情報を扱える言語モデルでの検証はまだ少ないようで,さっと調べた感じだと見つけられませんでした。 論文間にまたがって分割単位が同じ部分がわかるように,分割ごとに色合いを変えた図を作成しました(見易さを優先し,作成した図の次元サイズ等は簡略化しています)。 論文リンクは下部の参考文献に記載しています。 1.Sub-character Neural language Modeling in Japanese (Nguyen et al.) 漢字の表現方法を部首(shallow)・さらに部首より小さい単位(deep)に分解。 言語モデルは単方向のLSTM 言語モデルのパープレキシティーの良さの順は,shallow > deep > baselineとなった。 論文内で紹介されている漢字の4つのデータセットを見ると,同じ漢字でもそれぞ

    Deep Learning において,漢字はどの単位で分割・エンコードされるべきなのだろう? - Qiita