Search across a half million git repos. Search by regular expression.
割り箸、ストロー、タオル…… 身近なグッズで身体感覚を意識SNSやメールでひっきりなしにやりとりする現代。人間の脳は常時複数のタスクをこなしている状態で、慢性的な疲労状態に陥りがちだといわれる。働き方改革が叫ばれ、短時間で成果を出すことを求められているなか、いかに効率的にリフレッシュできるかが重要なビジネススキルになりつつある。その切り札として注目されているのが、「マインドフルネス」と呼ばれ
本記事はThe Illustrated Transformerを和訳した内容になります。引用元はJay Alammarさん(@JayAlammar)が執筆されたブログ記事で,MITの授業でも実際に利用されています。 所々に管理人の注釈が入ります。その場合は,このような鉛筆印のボックス内に記述するようにしています。もし翻訳間違いなどがございましたら,ご指摘いいただけますと幸いです。なお,本記事の作成に関しては,Jay Alammarさんに許可をいただいております。 はじめに 前回の記事では,注意機構についてお伝えしました。注意機構とは,現代の深層学習において至る所で利用されている手法で,ニューラル機械翻訳の精度向上に大きく貢献した概念です。本記事では,注意機構を利用してモデルの学習速度を向上させるTransformerについて見ていきましょう。Transformerは特定のタスクにおいて,G
概要 最終更新:2020/01/23 このページではA*(エースター)アルゴリズムの説明をします。 A*アルゴリズムとはダイクストラ法のやり方をベースにしてより効率的に 最短経路を見つけることができる経路探索アルゴリズムです。 ダイクストラ法は現在のノードの距離と隣接しているノードまでのコストの合計を使用して 最短経路を見つけますが、この場合だとゴールから離れてしまう可能性があります。 上の図をダイクストラ法で探索するとStartの「V0」と隣接しているノード 「V1」「V2」「V3」はコストが低い順に実行されます。 そうすると「V1」「V3」「V2」の順番で探索が進みますが、 最もコストがかからない経路は「V2」からの経路です。 A*はこの問題を解決するために別の情報を追加して計算を行います。 その結果、より最適化された経路探索を実現しています。 サンプル サンプルはここからダウンロード
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く