こんにちは、チナパです! 先日、Word2vecを利用して、単語から数字のための辞書を作成してみました。その続きで、Googleが最近リリースした「bert」(Bidirectional Encoder Representations from Transformers)を利用してみましょう。 人間よりできる! bertとは? まずはそもそもこれは何なのか、なんですごいのかを説明します。 現在までの自然言語処理の技術が文章を読みながら、今までの言葉からコンテキストを理解して、順番での次の言葉の意味を今までの言葉によってのコンテキストで影響されるような技術が代表的でした。 それはRNNの構築を利用して行ってました。 去年、ELMoとbertでは「Attention」を利用し、より精度の高い結果を出せるようになってる。 例えば、チャットボットを作成する時に、Attentionの構築では前のメッ