本プログラムの最大の特徴の一つは、全てのトピックについて、演習を中心に構成されている点です。実際に手を動かしながら理解を進めることで、効率よく学習することができます。 実際にモデルを学習させながら技術を習得する本格的な演習内容となっています。Deep Learningは、モデルが実際に学習する様子を観測し、パラメータを調整することでアプリケーションに応じたパフォーマンス最大化を行うことが非常に重要な技術ですが、この一連の流れを全ての演習で経験しながら重要な要素を身につけることが可能です。
概要 BERTの本家には文章の尤度を測るサンプルがなかった。 尤度を測れるまでの作業メモ 本家 GitHub google-research/bert 言語モデル拡張 GitHub xu-song/bert-as-language-model 日本語モデル BERT with SentencePiece を日本語 Wikipedia で学習してモデルを公開しました 日本語モデルコード GitHub yoheikikuta/bert-japanese 謝辞 google-researchチーム、xu-songさん、yoheikikutaさんに感謝いたします。 フォークしたソース GitHub KTaskn/bert-as-language-model 手順 言語モデル拡張をgit cloneする 日本語モデルコードからtokenization_sentencepiece.pyをダウンロードす
はじめに TensorFlow はなかなかとっつきにくい部分があるかと思います。書き方が独特なので、慣れるまでに時間がかかるかと思います。公式の MNIST は一通りやったけど、自分で考えたディープニューラルネットワーク (DNN) をどう書いたらいいかわからない……なんてこともあるのではないでしょうか。 この記事では、シンプルな問題を題材にして、 TensorFlow をコピペに頼らず、自分の書きたい DNN を 低レベル API を使ってどのように書くかを最小構成で説明していきます(今さら感はありますが。。)。ベースは公式ドキュメントの Low Level APIs のあたり です。 内容としては: TensorFlow の最小構成要素 TensorFlow で線形関数のフィッティング TensorFlow で DNN を実装 のようになっています。また、以下のような方を対象としており
Googleが研究の一環で提供しているColaboratoryを試してみました。 Jupyterと同じようなGUIでPythonのプログラムを実行可能で、GPUも使えます。 Jupyterと同様に、先頭に「!」を書くことで、Linuxのコマンドを実行可能であり、「!pip」「!conda」「!apt-get」などで機能を追加できます。 実行結果をファイルシステム上に保管でき、共有リンクを使って取り出せます。 ただし、12時間経過すると強制終了されて、ファイルは失われます。 しかし、Notebookが動いている仮想マシンにGoogleドライブをマウント可能であり、これにより、実行結果をGoogleドライブ上のファイルとして保管できます。 Deep Learningでは、途中の状態をファイルに保管して、そこからResumeできるようにプログラムを書くことが多いので、12時間で一度強制終了しても
はじめに タイトルの通り、Pythonの機械学習プロジェクトにおけるプログラミング設計について、 最近私が意識していることを書いてみたいと思います。 この内容が役に立つかもしれない人は、機械学習のプログラミングをする人で、 あまりPythonを書いたことが無い 仕事でプログラミングしたことがあまりない いつもプログラムの構成で悩んで、スッキリ書けないことが多い という人です。 設計方針 設計は「何に備えるか」を考える事に近いと思います。 通常私が機械学習プロジェクトで意識しているのは以下のような点です。 設定により振る舞いを簡単に変えることができる 例えば、「前処理の方法」「Modelのレイヤー数」「学習するEpoch数」のような局所的な振る舞いから、 開発環境 or Staging環境 or Production環境毎に異なる「データソースの場所」や「認証情報などの機密データ」の指定、
Doc2Vecで類似文章を検索してみたので、実装を紹介します。 Doc2Vecとは コンピュータが自然言語を処理するためには、まず人間の言葉をコンピュータで扱える値にする必要があります。 単語の意味をベクトル化する手法としてWord2Vecが存在します。 詳しくはリンク先がとてもわかりやすいのですが、ざっくり言うと前後n単語のリストでその単語を表現します。 こうすることで、例えば「犬」と「猫」は同じような文脈で使われるため、似た「意味」であると考えることができます。 Doc2VecはWord2Vecを応用し、文章をベクトル化するものです。 実装サンプル 今回Doc2Vecを用いて実現するのは、以下の2つの機能です。 単語で文章を検索 類似文章の検索 サンプルとして、青空文庫の文章を使用しました。 なお、この記事で使用するコードはGitHubで公開しています。 (学習に使用した文章もzipに
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く