エコーニュースさんが配偶者に実子誘拐され、その代理人弁護士から内容証明が届いたとのこと。 これに関して、エコーニュースさんのツイート、エコーニュースさんへのリプライ、私の思うところを雑多にまとめたものである。
(数式を使わない) Transformer の直感的な説明 RNN の欠点 Transformer はこれをどう解決したか Transformer の動作原理 複数の要素間の関係を考慮する (Self-Attention、自己注意) 要素の順序を考慮する (Positional Encoding、位置エンコーディング) まとめ 概要: ChatGPT などで使われている Transformer モデルは、 ニューラルネットワークの世界にいくつかの革新的なアイデアをもたらした。 本記事では、プログラマに理解しやすい形でそれらのアイデアを解説する。 実際に使われている数学の詳細には触れない。 (技術的解説については元論文 Attention is All You Need か、 その注釈版である The Annotated Transformer を参照のこと。 日本語では この解説 がわかり
零 @zero_hisui ゴッホ美術館の 「ゴッホは精神を病んだ『から』名画を描けたのではない。精神を病んだ『にも関わらず』名画を描けたのだ」 というメッセージ、大変よかったな。普通に考えればそうに決まっているのに、芸術家というだけで謎の誤解を受けがち問題
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く