タグ

*機械学習に関するmazarimonoのブックマーク (2)

  • LSTMをよりわかりやすく&より詳細に!(前処理・世界観の説明編) - AI学習者・実務家の「疑問」を解消したい

    モチベーション(この記事は、どんな【疑問】の解消を目指すのか?) LSTMのモデル作りたいんだけど、 どうやってデータ準備すればいいの? って混乱してませんか? その混乱の原因って、ずばり、これに尽きると思う。 ・準備するべきデータの形 / 世界観 を理解してない もうホント、これに尽きる。 逆に言うと、”世界観”さえ掴めば!理解できる。 なので、その混乱を解消するぞぉ!!という思いで、この記事書きます。 かなり、気合入れて作ったので、是非参考にしてください:) この記事は、ディープラーニングの実務で、ご活躍されている、巣籠先生のを参考にしています。 編 結論から言うと、理解するべきステップ(世界観)は、大きく3つです。 いくつ前(何秒/分/時間)までを、予測に使いたいのか?を決める。 (何か、コードを書く必要はない。ただ決めるだけで良い。) 同じ変数同士で、ベクトルをつくる。 (イン

    LSTMをよりわかりやすく&より詳細に!(前処理・世界観の説明編) - AI学習者・実務家の「疑問」を解消したい
  • 自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad

    記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 今回のブログでは、発展を続ける「自然言語処理」技術の中から、さまざまな自然言語処理の課題を非常に高い精度で解決する「Transformer」モデルをテーマに、なぜ分析精度が高いのかを解説します! はじめに こんにちは、アナリティクス部アナリティクスサービス部の董です。 2017年に Google が発表した「attention is all you need」という論文で提案された「Transformer」は、機械翻訳や文章カテゴリの分類、文章生成等、さまざまな自然言語処理の課題を非常に高い精度で解決し、革命的な進歩で発展しています。当社でもTransformerモデルを業務に生かすことで、これまでは不可能だった分析が可能となっています。 ブログでは、「なぜTransformerモデル

    自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad
  • 1