![](https://cdn-ak-scissors.b.st-hatena.com/image/square/641daab985a44b2ac01dcec50621355313255915/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fqiita-user-contents.imgix.net%252Fhttps%25253A%25252F%25252Fcdn.qiita.com%25252Fassets%25252Fpublic%25252Farticle-ogp-background-afbab5eb44e0b055cce1258705637a91.png%253Fixlib%253Drb-4.0.0%2526w%253D1200%2526blend64%253DaHR0cHM6Ly9xaWl0YS11c2VyLXByb2ZpbGUtaW1hZ2VzLmltZ2l4Lm5ldC9odHRwcyUzQSUyRiUyRnFpaXRhLWltYWdlLXN0b3JlLnMzLmFwLW5vcnRoZWFzdC0xLmFtYXpvbmF3cy5jb20lMkYwJTJGMzkzODUzJTJGcHJvZmlsZS1pbWFnZXMlMkYxNjgzOTgxMDY4P2l4bGliPXJiLTQuMC4wJmFyPTElM0ExJmZpdD1jcm9wJm1hc2s9ZWxsaXBzZSZmbT1wbmczMiZzPWI1OTgzZGFmZGMyYmQ4M2UxYmFhZmJjMjllODE4YjIw%2526blend-x%253D120%2526blend-y%253D467%2526blend-w%253D82%2526blend-h%253D82%2526blend-mode%253Dnormal%2526s%253D49e4010737f5ffd3c114ef560689d2e3%3Fixlib%3Drb-4.0.0%26w%3D1200%26fm%3Djpg%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk2MCZoPTMyNCZ0eHQ9JUU1JUJFJUI5JUU1JUJBJTk1JUU4JUE3JUEzJUU4JUFBJUFDJUVGJUJDJTgxJUU1JTg4JTlEJUU0JUJCJUEzR1BUJUU4JUFCJTk2JUU2JTk2JTg3JUUzJTgwJThDSW1wcm92aW5nJTIwTGFuZ3VhZ2UlMjBVbmRlcnN0YW5kaW5nJTIwYnklMjBHZW5lcmF0aXZlJTIwUHJlLVRyYWluaW5nJUUzJTgwJThEJnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMxRTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LXBhZD0wJnM9YmQ1MjhhMTNkMmQxMzA2MWM4MDkzN2JhMDhkMjJiNjc%26mark-x%3D120%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTgzOCZoPTU4JnR4dD0lNDBUb3lhbWFub2tpbnNhbiZ0eHQtY29sb3I9JTIzMUUyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTM2JnR4dC1wYWQ9MCZzPTM4ZDhhOTVjMWIxNjQ5NTZhNjBkNjgzMjY5OTQzMWNl%26blend-x%3D242%26blend-y%3D480%26blend-w%3D838%26blend-h%3D46%26blend-fit%3Dcrop%26blend-crop%3Dleft%252Cbottom%26blend-mode%3Dnormal%26s%3Dbd0e828b7e1692200a8fad6008bf6620)
エントリーの編集
![loading...](https://b.st-hatena.com/0c3a38c41aeb08c713c990efb1b369be703ea86c/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
徹底解説!初代GPT論文「Improving Language Understanding by Generative Pre-Training」 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/0c3a38c41aeb08c713c990efb1b369be703ea86c/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
徹底解説!初代GPT論文「Improving Language Understanding by Generative Pre-Training」 - Qiita
1.導入 「ChatGPTすごく話題だけど,技術的にはどうなっているの?」 と思っているそこのあなた! 私と... 1.導入 「ChatGPTすごく話題だけど,技術的にはどうなっているの?」 と思っているそこのあなた! 私と同じですね。 今回はそのようなきっかけで,Chat-GPTに繋がる初代GPTの論文「Improving Language Understanding by Generative Pre-Training(2018)」について調べましたので解説します. OpenAIの言語モデルは,GPT → GPT-2 → GPT-3 → InstructGPT → ChatGPTと至るわけですが,基本的なモデルはGPTのものから変わらないので,GPTのモデルを理解することがChatGPT理解の第一歩と言えると思います. こんな方の役に立つと嬉しい ・GPTの技術的な面も知りたい方 ・論文をダウンロードしてみたけどなかなか読む時間がない方 ・論文を読んでみたけど,論文の中で触れられている周辺技術のこと