Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
前回の記事では、開発者が意図しないメッセージをどう扱うかという課題に対し、例外処理やグローバルコマンドの利用法紹介しました。 ただしユーザーが送ってくるメッセージに対してハードコードされた文字列でしか対応できないため、今回は自然言語処理を使います。 LUIS (Language Understanding Intelligent Service) LUIS は Microsoft の自然言語解析サービスで、入力された自然言語から「意図(インテント)」と「キーワード(エンティティ)」を取得します。まずは LUIS アプリケーションを作ります。ここでは以下のインテントとエンティティを追加します。 Cancel : キャンセルに対応 Help : ヘルプに対応 Weather : 天気確認用 Profile : プロファイル変更用 1. https://www.luis.ai にアクセスし Lo
以下のshell sessionでは (base) root@f19e2f06eabb:/#は入力促進記号(comman prompt)です。実際には数字の部分が違うかもしれません。この行の#の右側を入力してください。 それ以外の行は出力です。出力にエラー、違いがあれば、コメント欄などでご連絡くださると幸いです。 それぞれの章のフォルダに移動します。 dockerの中と、dockerを起動したOSのシェルとが表示が似ている場合には、どちらで捜査しているか間違えることがあります。dockerの入力促進記号(comman prompt)に気をつけてください。 ファイル共有または複写 dockerとdockerを起動したOSでは、ファイル共有をするか、ファイル複写するかして、生成したファイルをブラウザ等表示させてください。参考文献欄にやり方のURLを記載しています。 dockerを起動したOSの
以下のshell sessionでは (base) root@f19e2f06eabb:/#は入力促進記号(comman prompt)です。実際には数字の部分が違うかもしれません。この行の#の右側を入力してください。 それ以外の行は出力です。出力にエラー、違いがあれば、コメント欄などでご連絡くださると幸いです。 それぞれの章のフォルダに移動します。 dockerの中と、dockerを起動したOSのシェルとが表示が似ている場合には、どちらで捜査しているか間違えることがあります。dockerの入力促進記号(comman prompt)に気をつけてください。 ファイル共有または複写 dockerとdockerを起動したOSでは、ファイル共有をするか、ファイル複写するかして、生成したファイルをブラウザ等表示させてください。参考文献欄にやり方のURLを記載しています。 dockerを起動したOSの
1. Layout Optimizer ソースコード:tensorflow/core/grappler/optimizers/layout_optimizer.cc TensorFlowがデフォルトで採用するデータフォーマットはNHWC形式ですが、GPUに最適なデータフォーマットはNCHW形式です。 このため、GPUで実行するノードについてはNCHW形式のデータフォーマットで実行するように計算グラフを変形することで、GPUで最適な演算が行えるようにします。 なお、計算グラフを変形するときに、必要に応じてNCHW→NHWCまたはNHWC→NCHWのデータフォーマット変換を行うためのTransposeノードを挿入し、計算グラフ内でデータフォーマットの一貫性が取れていることを保証します。 2. Model Pruner ソースコード:tensorflow/core/grappler/optimi
環境 windows10 64bit cpu: Ryzen7 1700X gpu: GTX1080Ti CUDA9.0 cuDNN7.3.1 for cuda9.0 python3.6 tensorflow-gpu 1.11.0 keras 2.2.4 やったこと jupyter notebookで実行後にgc.collect() jupyter notebookで実行後にdel model 1つのclassにまとめてjupyter notebookで実行後インスタンスをdelする pyファイルにまとめてjupyter notebookから%runで呼ぶ terminalでpyファイルを実行 pycharmでpyファイルを実行 何故やったか GPU使った画像認識をjupyter notebookでやろうとしたんですが、2回目以降学習が止まってしまって困りました。nvidia-smiでメモリ
自作のPCにUbuntu18.04とTensorFlowをインストールした内容を紹介します。 ■PCの構成とセットアップ 構成は以下の通りです。 MB:Asrock Fatal1ty Z270 Gaming-ITX/ac グラフィック出力:HDMI,DisplayPort(2台の4Kのモニターに対応) Tunderbolt 3 ( (USB Type-C)、Ultra M.2(PCIe Gen3 x 4) CPU:Intel Corei7-7700、メモリ:DDR4 8GBx2 SSD:M.2 2280 512GB HDD:STA3 2TB VGA: GTX1050Ti 4GB(CUDA用GPU) BIOS更新・設定 モニターはMB(マザーボード)のグラフィック出力に接続します。 PC起動後、表示がなければGPUのVGAカードの端子にディスプレイを接続しBios設定画面で、Priority
概要 日本語の形態素解析(MeCab)のようなことを英語でもやりたいのでApache OpenNLPを使用する 環境 OS: Windows7 64bit 言語: Java8 IDE: Eclipse4.6.1 目的 MeCabをコマンドラインで使用すると 今日はいい天気ですね。 ↓ ↓ 今日 「名詞,副詞可能,*,*,*,*,今日,キョウ,キョー」 は 「助詞,係助詞,*,*,*,*,は,ハ,ワ」 いい 「形容詞,自立,*,*,形容詞・イイ,基本形,いい,イイ,イイ」 天気 「名詞,一般,*,*,*,*,天気,テンキ,テンキ」 です 「助動詞,*,*,*,特殊・デス,基本形,です,デス,デス」 ね 「助詞,終助詞,*,*,*,*,ね,ネ,ネ」 。 「記号,句点,*,*,*,*,。,。,。」 と形態素に分け、形態素の情報が表示される ※ipadic辞書を使用した場合、 「品詞、品詞細分類1
2018.10.25 プログラムを母数推定部(計算のみ)と作図部の2部に書き換え はじめに 2018年10月10日に海外での業務完了につき帰国した.現在は休暇中であり,のんびりしているが,全く何もやらないのもちょっと気が引けたので,仕事の練習として,Pythonを使った非線形回帰のプログラムを作ってみた.昔は同じことをFortranプログラムでやっていたが,scipyの統計関数や,非線形回帰機能を使うことにより,非常にシンプルにやりたいことを実現できることを確認した. やっていることは,観測値を,仮定した確率分布関数に回帰し,母数(確率分布関数における係数)を推定するというものである.母数推定の方法は,これまでに積率法(モーメント法)などが研究されてきたが,ここでは Python:scipy の optimize.leastsq を用いる方法をとっている. 例として用いる観測値は,筆者の自
(base) root@a221771835f7:/scikit-learn/sklearn# python setup.py non-existing path in '__check_build': '_check_build.c' Appending sklearn.__check_build configuration to sklearn Ignoring attempt to set 'name' (from 'sklearn' to 'sklearn.__check_build') Appending sklearn._build_utils configuration to sklearn Ignoring attempt to set 'name' (from 'sklearn' to 'sklearn._build_utils') Appending sklearn.s
import numpy as np import chainer from time import time import matplotlib.pyplot as plt %matplotlib inline loops = 10 # for taking average verc_size = 10 ** np.arange(1, 7) # i n_samples = 10 ** np.arange(1, 7) # j t_choice = np.zeros((len(verc_size), len(n_samples))) t_alias = np.zeros((len(verc_size), len(n_samples))) t_aliasv = np.zeros((len(verc_size), len(n_samples))) for i in range(len(verc_
以下のshell sessionでは (base) root@f19e2f06eabb:/#は入力促進記号(comman prompt)です。実際には数字の部分が違うかもしれません。この行の#の右側を入力してください。 それ以外の行は出力です。出力にエラー、違いがあれば、コメント欄などでご連絡くださると幸いです。 それぞれの章のフォルダに移動します。 dockerの中と、dockerを起動したOSのシェルとが表示が似ている場合には、どちらで捜査しているか間違えることがあります。dockerの入力促進記号(comman prompt)に気をつけてください。 ファイル共有または複写 dockerとdockerを起動したOSでは、ファイル共有をするか、ファイル複写するかして、生成したファイルをブラウザ等表示させてください。参考文献欄にやり方のURLを記載しています。 複写の場合は、dockerを
以下のshell sessionでは (base) root@f19e2f06eabb:/#は入力促進記号(comman prompt)です。実際には数字の部分が違うかもしれません。この行の#の右側を入力してください。 それ以外の行は出力です。出力にエラー、違いがあれば、コメント欄などでご連絡くださると幸いです。 それぞれの章のフォルダに移動します。 dockerの中と、dockerを起動したOSのシェルとが表示が似ている場合には、どちらで捜査しているか間違えることがあります。dockerの入力促進記号(comman prompt)に気をつけてください。 ファイル共有または複写 dockerとdockerを起動したOSでは、ファイル共有をするか、ファイル複写するかして、生成したファイルをブラウザ等表示させてください。参考文献欄にやり方のURLを記載しています。 複写の場合は、dockerを
概要 AWS LambdaでMeCabを動かそうと思ったら、思いのほか大変だったので今後の自分のために手順をまとめた。 (MeCabとは日本語の自然言語処理によく使われるオープンソースの形態素解析エンジン。詳しくは上記の作者のサイトへ。) 参考にさせてもらったサイト https://shogo82148.github.io/blog/2017/12/06/mecab-in-lambda/ http://marmarossa.hatenablog.com/entry/2017/02/03/223423 他にもたくさん「mecab lambda」で片っ端から検索かけて読み漁ったのだけど、もはやどこを読んだのかも覚えていない。上記二つの記事はとにかく作業スタートから完了するまでの間、ブラウザで開かれていた。 結論から述べると一番上の記事の通りにやればいいだけだったのだが、正直自分が次回この作業を
ここまでの記事では、開発者の意図通りにユーザーがボットを利用する前提でしたが、この記事ではそれ以外の処理について考えていきます。 中断処理とグローバルコマンド 中断処理 ユーザーがダイアログの途中で、処理を中断したいというメッセージを送ってくることがあります。これを中断処理と言います。中断処理は開発者があらかじめ予期できるもので、中断用のメニューを用意します。 グローバルコマンド ユーザーが任意のタイミングで、特定のダイアログではなく、全体に関わるようなメッセージを送ってくることがあります。これをグローバルコマンドと呼びます。 中断処理の実装 まず中断処理から実装していきます。中断処理の実装をするには、ダイアログの流れ自体が中断に対応しやすい設計になっていることが重要です。今回は ProfileDialog を拡張して、最後の確認で名前や年齢を入れなおせるようにします。 1. Profil
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く