タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

NeuralNetworkに関するytokuのブックマーク (7)

  • 【AI動画生成】Sora 要素技術解説

    もう全部OpenAIでいいんじゃないかな はじめに 月間技術革新です。 ということで、昨日OpenAIから発表された新しい動画生成AI「Sora」が非常に話題となっていますね。 圧倒的な一貫性の保持と1分間に及ぶ長時間動画が生成可能という事で、現状の動画生成技術を圧倒的に凌駕する性能を持っているようです。 在野エンジニアの小手先テクニックなど一笑に付すような圧倒的性能を Soraの凄さは色んなエンジニアやインフルエンサーがたくさん語っているのでそちらを見てもらうとして、この記事ではSoraを構成する各技術について簡単に解説していければと思います。 Soraの技術構成 論文が公開されているわけではないですが、OpenAIが要素技術の解説ページを公開してくれているため、そのページを参考にしていきます。 原文を見たい方はこちらからどうぞ 全体構成 Soraは以下の技術要素で構成されているとのこと

    【AI動画生成】Sora 要素技術解説
  • Building High-level Features Using Large Scale Unsupervised Learning

    Building High-level Features Using Large Scale Unsupervised Learning

    Building High-level Features Using Large Scale Unsupervised Learning
  • What are Diffusion Models?

    What are Diffusion Models? 記事はWhat are diffusion Models?を許可を得て翻訳したものです。Diffusion Modelの日語の記事がまったくなかったので勉強がてら、翻訳してみました。誤訳や誤植などありましたらお知らせください。 Diffusion modelはとても新しいタイプの生成モデルで、どのような複雑なデータ分布でも学習することができ、なおかつその分布を解析的に評価することができます。 近年ではDiffusion modelは高精度な画像を生成でき、GANでSOTAなモデルより高い精度を達成しています。 これまでGAN、VAE、Flowといった生成モデルについての記事を書いてきました。どれも高いクオリティの画像を生成できますが、一方でそれぞれ個々の問題を抱えていました。GANは敵対的学習の構造そのものに、学習の不安定さと多様性

    What are Diffusion Models?
  • Batch Normalizationを理解する

    Batch Normalization 解決したい問題 - Internal Covariate Shift まず、Batch Normalizationで解決したい問題から説明したいと思います。 例えば、以下の図のように学習データとテストデータで特徴量の分布が違うということがしばしばあります。 この場合、学習データで多くみられた特徴量の値の領域ではテストデータの評価もうまくできる可能性が高いですが、学習データではあまり取らなかった値の領域を取るテストデータが多くなっていると、テストデータをうまく評価することができません。 これをCovariate Shiftと呼び(少し粗い説明にはなっています)、このCovariate Shiftを解決することをDomain Adaption(ドメイン適応)と呼んでいます。 さらに、ディープ・ラーニングではレイヤを何層も積み重ねます。 例えば2番目のレイ

    Batch Normalizationを理解する
  • ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS

    s0sem0y.hatenablog.com ディープラーニングは2006年にトロント大学のHinton氏が考案したDeep Belief Networkから始まりました。このとき考案されたのが事前学習という手法で、一層ずつ層を学習させてから繋げていくことで、一気に深い構造を学習させる際に生じていた勾配消失問題を回避することに成功しました。 その後深い構造を使った機械学習が全てディープラーニングと呼ばれるようになり、今やその種類は非常に多岐に渡ります。今回はディープラーニングって言っても色々出てくるけど、どれがどれだか分からないという人のために(そして自分の中で整理するために)、ディープラーニング手法をまとめてみたいと思います。 ディープラーニングの種類のまとめ Deep Belief Network(DBN) 最初に登場したディープラーニングの手法 特徴抽出を人手でやらなくても良くなった

    ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS
  • 真面目なプログラマのためのディープラーニング入門

    はじめに: 講座は「機械学習ってなんか面倒くさそう」と感じている プログラマのためのものである。講座では 「そもそも機械が『学習する』とはどういうことか?」 「なぜニューラルネットワークで学習できるのか?」といった 根的な疑問に答えることから始める。 そのうえで「ニューラルネットワークでどのようなことが学習できるのか?」 という疑問に対する具体例として、物体認識や奥行き認識などの問題を扱う。 最終的には、機械学習のブラックボックス性を解消し、所詮は ニューラルネットワークもただのソフトウェアであり、 固有の長所と短所をもっていることを学ぶことが目的である。 なお、この講座では機械学習のソフトウェア的な原理を中心に説明しており、 理論的・数学的な基礎はそれほど厳密には説明しない。 使用環境は Python + PyTorch を使っているが、一度原理を理解してしまえば 環境や使用言語が

    真面目なプログラマのためのディープラーニング入門
  • バックプロパゲーション(誤差逆伝搬法)

    Deep Learningを勉強すると、とにかく分からないバックプロパゲーション。 やっていることは、入力の値に重みやバイアスを掛けて構築されるニューラルネットワークの出力値が目標値に近づくように重みやバイアスを調整するいわゆる学習の工程ですが、行列の計算式や∑がつらつら出てくるので、ぜんぜん理解できない。。 しかし、下図のよく出てくるニューラルネットワークの図を見ていると、yの値は入力値xの値と未知数のw、bの値からなっており、出力値と目標値の差の二乗の合計の値が最小になるようにw,bの値を求めてやればいい。 この出力値と目標値の差の二乗の合計の値が最小になるにっていう響き、何か聞いたことがあるぞ!  そう最小二乗法!!! 最小二乗法では二乗誤差の合計が最小となるように、二乗誤差の合計の式に関して 未知数の偏微分 = 0 として、未知数を求めますが、同じようなノリで、二乗誤差の合計の式に

    バックプロパゲーション(誤差逆伝搬法)
  • 1