2020年6月23日のブックマーク (3件)

  • 政治家使う難解そうな言葉 言い換えてみたら中身が薄かった

    新型コロナの感染拡大や東京オリンピック・パラリンピックの延期により、首相や知事の会見を目にする機会が増えた。そこで感じるのが政治家の発言のわかりづらさ、伝わりづらさだ。普段の生活ではまったく使わないような、難しい熟語が次々と登場することも多い。 しかし、そんな言葉も言い換えてみれば、意外とたいしたことを言っていないということも多い。そこで、“難解そうだけど、言い換えたら中身が薄い!”という実例を挙げてみる。(文面は昨今の政治家の発言をもとに作成) * 過日お伝えした内容は世の中の流れと乖離したものでした。ほかにも齟齬が生じているのではと懸念しています。みなさま、忌憚のないご意見をお聞かせください。 ↓ 先日伝えた内容は世の中の流れとかけ離れていました。ほかにもズレがないか心配しています。みなさん、自由な意見を言ってください。 * このたびの政策に疑義があるかもしれませんが、地域振興に寄与す

    政治家使う難解そうな言葉 言い換えてみたら中身が薄かった
    gengohouse
    gengohouse 2020/06/23
    いつかこんな換言器を作りたい。
  • [自然言語処理/NLP] Okapi BM25についてざっくりまとめ (理論編) | DevelopersIO

    こんにちは、Mr.Moです。 文書中に含まれる単語の重要度を評価する手法でよく使うものにTF-IDFがありますが、別の手法でOkapi BM25というのもあります。ケースによってはTF-IDFよりも精度が出る場合がありそうですので記事でOkapi BM25をざっくり理解していこうと思います。 ちなみに、TF-IDFについては下記の記事を参考にしていただければと思います。 tf-idfについてざっくりまとめ_理論編 Okapi BM25とは Okapi BM25は、情報検索における順位付けの手法である。検索エンジンがクエリとの関連性に応じて、文書を順位付けするのに用いられる。1970年代から1980年代にかけて、スティーブン・ロバートソンやカレン・スパーク・ジョーンズらが確率適合モデル(英語版)に基づいて開発した。BM25の "BM" は、 "Best Matching" の略である。 h

    [自然言語処理/NLP] Okapi BM25についてざっくりまとめ (理論編) | DevelopersIO
  • 自然言語処理BERTの概要と実装ポイント、今後について

    こんにちは。sinyです。 記事では、Googleが2018年10月に発表した自然言語処理の手法であるBERTに関する情報を中心に2019年12月時点の状況についてまとめてみました。 記事の内容は個人的に情報収集した情報のため、認識違い等ありましたらご指摘いただけると幸いです。 そもそもBERTとは? BERTとは「Bidirectional Encoder Representations from Transformers」の略称です。 BERT自体は、BERTという特別なモデルが存在するのではなく、以下の2つの手法を組み合わせることによって実現したものをBERTと呼んでいます。 Attention Attentionについて非常に簡素に言うと、複数の入力のうち「どの入力を重要視するか」を決定するニューラルネットワークの手法で、これまでのすべての入力を重み付きで直接参照して関連性の強

    自然言語処理BERTの概要と実装ポイント、今後について