2023年4月13日のブックマーク (1件)

  • Encoder-Decoder/Attention/Transformerの調査

    この記事は先日自分がGPTの背景にあるEncoder-DecoderやらTransformerやらについて雑に調べていたこのメモを元に不足する情報を補完してもらいながらChatGPT(GPT-4)に記事としてまとめてもらったものです。 雑なメモのままで埋もれさせておくよりもある程度体裁の整った文章として残しておいた方が後から見返した際に自分にとっても役に立つだろうという思惑と、単純にChatGPTでどれくらい記事が書けるのか?という実験をする目的で書いています。実験的な意味合いが強いので内容の正確性に問題がある部分もあるかもしれないのでその辺はご容赦ください。また、ChatGPTで中身のない薄っぺらな技術記事を量産しようなどという意図はないのであらかじめご了承ください。 自然言語処理の変遷とEncoder-Decoderモデルの登場 自然言語処理(NLP)は、コンピュータが人間の言語を理解

    Encoder-Decoder/Attention/Transformerの調査
    HAZI
    HAZI 2023/04/13