サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
猫
nlpillustration.tech
はじめに すえつぐ こんにちは!自然言語処理(NLP)・大規模言語モデル(LLM)の解説記事を書いている、すえつぐです! 今回は、大規模言語モデル(LLM)の技術について解説していきます。 具体的には、「大規模言語モデルは、どんなステップで、どうやって作られているのか?」に沿って技術を解説します。LLMのアーキテクチャの解説から、LLMの学習方法など、ディープな内容をわかりやすく解説していきます。 なぜ大規模言語モデル(LLM)の技術を知る必要があるのか ここまで読んで「私はLLMを使うだけ。だからLLMの技術を知る必要なくない?」と思った方も少なからずいるでしょう。確かに、今はLLMを使用するだけという人が多いかもしれません。 しかし、「LLMを使うだけの人」もLLMの技術を学ぶ価値はあります。 なぜなら、LLMの技術の知識は、あなたがLLMを選ぶ際にも役立つからです。 例えば、あなたが
はじめに すえつぐ こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです! 今回は、月間ユーザー数1億人を突破し、もはや社会現象を起こしたと言っても良いChatGPTについて解説していきます。 多くのサイトやYoutubeで「ChatGPTの凄さや使い方」が紹介されていますが、今回はその技術、「凄さの本質」や「ChatGPTの仕組み」について解説していきます。 つまり、今回の記事は「ChatGPTの凄さはわかった。じゃあChatGPTはなぜこんなに凄いことができるのか?」という人向けです。(もしまだChatGPTを使ったことがないという人は使ってみてください) また記事終盤では「ChatGPTの問題点と社会に与える影響」についても解説・考察します。 それでは、誰にでもわかるように、わかりやすく図解しながら解説していきます! 図解シリーズについて本サ
自然言語処理ライブラリの解説などで度々見かける「Attention」。(Attention機構とも呼ばれます) Attentionは自然言語界のブレイクスルーと言われ、BERTやGPT-3といった最先端技術を理解する上で必須の仕組みです。 このページでは「Attention」についてわかりやすく、そして深く解説していきます。
始めに こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです! 突然ですが、BERT、GPT-3、PaLMを使ったことはありますか?Transformerはこれらの最先端のモデルに使用されている、現代のNLPモデルには欠かせないモデルです。おそらくBERTやGPT-3でTransformerを知った、このページに来たという人も多いのではないでしょうか。機械学習、特にNLPの勉強をしている方々は、Transformerの概要は知っておいた方が良いと思います。 ただ多くのサイトは、いきなり細かい仕組みの解説をする中級者以上向けの記事が多いですよね。 そこで、このページでは、Transformerの入門〜中級までの解説をしていきます!まず入門として、「Transformerの使い道」「Transformerの何が凄いのか?」を先に解説します。その上で「T
RNNを自然言語処理に適応したモデル、「RNNLM」。 RNNLMは従来モデルより「軽量かつ高精度」を実現した革新的なモデルで、それ以降に誕生するモデルにも広く応用されました。 またRNNLMは、仕組みが非常にシンプルで理解しやすいのが特徴です。そしてRNNLMを理解できれば、RNNLMベースのモデルであるAttentionやGRUなども理解しやすくなるでしょう。 このページではそんなRNNLMについて「図解でわかりやすく」、そして「数式を使って深く」解説していきます。 ざっくりと概要を理解したい人は「第1章 RNNLMをわかりやすく図解」まで、数式まで詳細に理解したい人は「第2章 原論文を元に、数式でRNNLMを深く解説」まで読むことをお勧めします。 RNNLMをわかりやすく図解ここではRNNLMについてイラストを使って仕組みと時代背景をわかりやすく解説していきます! 従来モデル、n-g
このページを最初にブックマークしてみませんか?
『nlpillustration.tech』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く