サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
体力トレーニング
qiita.com/festa78
目的 webfeedというツールを使って、複数のRSSフィードからコンテンツを取得、時系列順に並べて表示させるUIをFlutterとFirebaseを使って実装します。 準備 FirebaseのFireStore上で上記のようにRSS feedのURL、時刻、feed type (RSS, Atom. 後述)等を登録しておきます。UIから登録する機能を作ることができますが、今回は割愛します。 Feed data classの実装 Dart code内にて、Feed情報を格納するclass等を定義します。 import 'package:webfeed/webfeed.dart'; class FeedItemAndTime<T> { final DateTime dateTime; final T item; FeedItemAndTime(this.dateTime, this.item
Asynchronous Methods for Deep Reinforcement Learning asynchronous gradient descentを用いたreinforcement learningの学習手法を提案する。 experience replayは過去の観測を定期的に再利用して学習する事で時間依存性を回避し学習性能を向上可能で、よく使われてきた。 本論では代わりにマルチエージェントをマルチCPU上でそれぞれ走らせ、異なった環境の観測を同時に与える事で時間依存性を回避した学習を可能にする。 これによりさらなる性能向上が可能で、かつGPUに頼らずCPUのみで計算時間を減らす事が可能である。 Learning and Inference via Maximum Inner Product Search, ICML2016 log-linear modelの学習を行う際
Metadata Dependent Mondrian Processes, ICML2015 関係データ分析問題を扱う。 この問題は基本的には、データをadjacency matrix(誰と誰がSNSで友達なったか等)で表現し、行と列を部分的に集めブロック構造を抽出する。 ここでは、確率的なパーテション生成モデルを考える。 従来手法では、ブロック数をchinese restaurant processで可変にしたinfinite relational modelとその拡張であるMondrian Processがある。 特にMondrian Processは柔軟性が高いモデルだが、その分スパースなデータなどに対しては過剰適合が起きやすく、収束しにくい問題がある。 本論では、メタ情報、例えば同じ大学に属しているもの同士は友達になりやすい、を活用する事でこれを克服する。 このメタ情報が分散する
The Kendall and Mallows Kernels for Permutations, ICML2015 置換に関する正定値カーネルについて考える。 このカーネルは2つの順位間の相関性を扱う。 置換は順位予測問題において活躍する。 しかし単純には要素数の階乗個パターンを考慮するため計算量が問題になる。 置換に関するカーネルを利用する事でこの問題に取り組む。 カーネルトリックの利用で、計算オーダーを下げる事ができ、大きな順位データを扱う上で有用である。 MRA-based Statistical Learning from Incomplete Rankings, ICML2015 変数が多い場合において、一部の順位データが得られる時の解析を扱う。 この時の順位モデルとして、multi resolution analysis(MRA)に基づくモデルをこの一部だけ得られているデータ
Online Learning of Eigenvectors, ICML2015 主要な固有値をオンライン学習において求める問題を考える。 この問題では、毎ステップにおいて行列が観測される毎にある単位ベクトルを予測し、それが今まで観測された行列累積値に対する固有値に近づくようにする事を目的とする。 これはオンラインPCAに似ている。 この設定はRegretの枠組みで損失を設定でき、最適値は固有値になる。 従来のRegretバウンドは、毎ステップ固有値問題を解く必要がある、または次元に大きく依存する、の問題があった。 本論では、これら2つの問題を回避出来る手法を提案する。 提案手法はFollow the perturbed leaderアルゴリズムを元にしている。 このアルゴリズムの利用により、従来手法より次元への依存性が低減される。 またデータのスパース性の利用も可能にした。 Faste
The Power of Depth for Feedforward Neural Networks, arXiv NNの層数を増やす事は、層の幅を増やす事に比べて指数的により表現力が増大する事を示した。 この事は基本的にすべての活性化関数に対して言う事が出来る。 この事の証明は、従来のブール関数に基づく手法に比べて過程が少なく、異なった手法を用いている。 NEURAL PROGRAMMER-INTERPRETERS, ICLR 2016 プログラムを学習し表現および理解できる組み合わせ可能なモデル構造を開発した。 コアモジュールはプログラムを表現するLSTMベースの学習可能なモジュールであり、入力として前回実行されたプログラム情報と環境情報の特徴表現を使う。 これにより次に実行するプログラム、プログラム終了判定フラグを出力する。 またプログラムの表現モデルに関するkey valueを記憶
このページを最初にブックマークしてみませんか?
『@festa78のマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く