arXivで論文と共に実装コードを投稿できるようになりました。Paper With Codeとのコラボレーションとなります。実験の再現性が問題となる中で、一つ多きなステップだと思います(とはいえ、コードだけあっても計算資源の問題で再現が無理ということも結構ありますが。。。)。Sudachiの辞書/事前学習済み単語ベクトルがAmazonのOpen Dataとして公開されました。特殊な分割単位ゆえに健全にメンテナンスされているにもかかわらず使いにくいところがありましたが、こうした取り組みでシステムにも組み込みやすくなっていると思います。 ICLR 2021のOpen Reviewがスタートしました。観測範囲ではやはりAttentionをいじる系が多いです(中には眉唾なものもありますが)。画像パッチxTransformerの論文は衝撃的です。position-embeddingはまだ改善の余地が
アクセンチュアは、AI領域においてアクセンチュアが持つ最新かつ最先端の知見、技術や人材を組み入れ、顧客のAI活用をさらに強力に支援する拠点「AIセンター」の開設を発表した。また、筑波大学人工知能科学センターとともに、AI活用における人材育成や研究開発、エコシステム構築分野での産学連携の推進も発表。 アクセンチュアは、「Digital is Everywhere(デジタルはもはや当たり前)」という考えのもと、すべてのサービスの根幹にデジタルの力を据えることでお客様のイノベーションを支援。中でも、あらゆる側面でAIを活用し、顧客に提供するサービスをさらに高度化、効率化させるべく、今回、関連する専門家、知見や機能をAIセンターに集約させたのだという。これによって、日々顧客と接するコンサルタントは、アクセンチュアが提供する最新かつ顧客に最適なAI関連サービスを圧倒的なスピードと効率をもって提供する
ビデオ会議の顔がクッキリ! 顔ごとカメラにぐるっ!NVidiaのAI動画圧縮が未来2020.10.09 11:3012,761 Andrew Liszewski - Gizmodo US [原文] ( satomi ) 背景音のノイキャンもすごかったけど、こ、これは…! 圧縮しすぎで幽霊のように乱れたテレカン顔にさよならできる夢のAI動画圧縮がNvidiaから出ました! YouTubeもNetflixも、ストリーミングでは圧縮アルゴリズムで帯域負荷を減らしてISPの帯域幅に合わせていますよね。圧縮方法はさまざまですが、色を犠牲にしたりコマ数を減らしたり、あと、解像度をギリギリ落とすこともあるので、像が荒くなって90年代の電話回線のビデオチャットみたいになることもしばしば…。アルゴリズムが進化すればもっと低容量で高画質になってくんだろうなーとは思いますが、NvidiaがWeb会議の新プラット
Tips and Tricks, especially in the programming world, can be very useful. Sometimes a little hack can be both time and life-saving. A minor shortcut or add-on can sometimes prove to be a Godsend and can be a real productivity booster. So, here are some of my favorite tips and tricks that I have used and compiled together in the form of this article. Some may be fairly known and some may be…
今回は、前回に引き続き、小型ボードコンピュータの「Raspberry Pi(ラズベリーパイ、略してラズパイ)」と、機械学習などのAI(人工知能)技術を活用したOCR(光学的文字認識)である「AI-OCR」を組み合わせた事例として「生産日報の電子化」をどのように実現するかについて具体的に解説します。 ⇒連載「ラズパイで製造業のお手軽IoT活用」バックナンバー 生産日報の電子化は、以下の手順で進めます。 手書きで日報を記入する 手書き日報をラズパイで読み取り、テキストデータに変換する テキストデータに変換した日報データを現場画面に表示して内容の確認をする。誤認識している部分は手で修正する 修正した箇所を機械学習して認識率を向上させる 前回は1.と2.について説明しました。今回は3.と4.について解説します。 3.テキストデータに変換した日報データを現場画面に表示して内容の確認をする OCRは1
機械学習では、普通、多くの変数や係数を同時に取り扱う。そのような場合にそれぞれの変数や係数を別々に取り扱うと数式が煩雑になってしまう。ベクトルや行列を利用すれば、複数の値をひとまとめにして取り扱えるので、数式が極めて簡潔になる。今回はベクトルについて、基本的な計算方法を紹介する。 連載目次 第4回~第8回までは微分について説明しました。機械学習の数学において微分は特に重要です。もう一つ重要なのが線形代数です。今回からは線形代数について学んでいきます。まずはベクトルの基本を学びましょう。 ベクトルについては、「大きさと向きを持った矢印のようなもの」というイメージを持っている人も多いと思います。高校の数学でもそういった例から話が始まっているはずです。もちろん、それは間違いではありませんが「位置」と「角度」を表す方法としてベクトルを使う、と言った方が応用の幅が広がります。また、ベクトルというもの
今回は、機械学習モデルの解釈可能性を向上させる手法のひとつである LIME (Local Interpretable Model Explanations) を LightGBM と共に使ってみる。 LIME は、大局的には非線形なモデルを、局所的に線形なモデルを使って近似することで、予測の解釈を試みる手法となっている。 今回使った環境は次のとおり。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.15.7 BuildVersion: 19H2 $ python -V Python 3.8.5 もくじ もくじ 下準備 Boston データセットを LightGBM で学習させる LIME を使って局所的な解釈を得る 参考 下準備 まずは、下準備として使うパッケージをインストールしておく。 $ pip install lime sciki
CUS-84:いかにしてスタートアップは水産養殖の現実の課題を解決するか-ウミトロンにおけるIoTと機械学習の取り組み- AWS IoT×機械学習で“海”の課題を解決 急成長を遂げる水産養殖スタートアップの挑戦 2020年9月8日(火)から9月30日(水)にかけて、AWSの活用事例を共有するクラウドカンファレンス「AWS Summit Online」が開催されました。「いかにしてスタートアップは水産養殖の現実の課題を解決するか-ウミトロンにおけるIoTと機械学習の取り組み-」というテーマで登壇したのは、ウミトロン株式会社CTOの岡本拓磨氏。世界で急速に成長している水産養殖の課題をIoTデバイスで解決するためにAWSを活用している同社の事例を共有しました。 水産養殖に特化したテクノロジーカンパニー 岡本拓磨氏:それでは「いかにしてスタートアップは水産養殖の現実の課題を解決するか―ウミトロンに
R&D チームの徳田(@dakuton)です。 今年の8月に開催されたECCV 2020のacceptされた論文のなかに、使い古された2値化画像処理をもとにした論文(+実装)があり気になったので、今回はそちらを少し調べて動かしてみた結果をご紹介します。 対象論文 A Generalization of Otsu’s Method and Minimum Error Thresholding 要点 簡単にいうと「既存手法をまとめて、ちょっとだけ融通の効く2値化画像処理にしたもの」の提案です。 ヒストグラムベースでの2値化しきい値を自動決定する手法 下記の既存手法を特殊ケースとして内包できるよう、一般化した式にまとめた Kittlerの2値化(MET: Minimum Error Thresholding): 2クラスの正規分布が存在すると仮定し、分布の重なる範囲にて別クラスに該当する画素が最
11月新刊情報『scikit-learn、Keras、TensorFlowによる実践機械学習 第2版』 Aurelien Geron 著、下田 倫大 監訳、長尾 高弘 訳 2020年11月4日発売予定 832ページ ISBN978-4-87311-928-1 定価5,280円(税込) 本書はコードを動かしながら学び、機械学習が使えるようになることを目的とした書籍です。現実的な問題を出し、サンプルデータを示しながら、機械学習で問題を解決に導くまでの一連の手法を体系立てて解説します。 深層学習以外の機械学習にはscikit-learnを使い、機械学習プロジェクトの流れ、データからモデルを学習する方法、データの処理・クリーニングなどの基礎から、特徴量の選択や過学習、データの次元削減など応用までを学びます。深層学習にはTensorFlowとKerasを使い、ニューラルネットワークの構築と訓練、ニュ
何の話かと言うと Tensorflow Probability の公式ページを見ると、 「TensorFlow Probability は確率的推論と統計的分析のためのライブラリです。」 という言葉が目に飛び込んできますが、機械学習モデルを扱うライブラリーとしての Tensorflow とどういう関係にあるのかがよくわかりません。 ここでは、「確率分布をファーストクラスオブジェクトとして扱う」というプログラミング言語的な観点から、Tensorflow Probability を説明してみます。 「確率分布」というオブジェクト 数学で言うところの「変数 x」には、通常、実数や複素数などのスカラー値が入ります。一方、プログラミング言語の「変数」には、もっと多様なものを代入することができます。次の例では、変数 f に対して、「関数 is_even()」を代入しています。 def is_even(
清水亮氏が設立したAI企業、UEIが突然の解散 株式会社UEIは10月1日、人工知能(AI)企業の同社が9月30日付けで解散したと発表した。 UEIは、実業家で、東京大学工学部先端科学技術研究センター客員研究員かつ、『教育としてのプログラミング講座』(中央公論新社)や『よくわかる人工知能』(KADOKAWA)などの著書などでも知られる清水亮氏が2003年8月8日に創業した企業だ。 JR東日本、AIで突風による事故を防止 運転休止に活用 東日本旅客鉄道株式会社(JR東日本)は10月6日、人工知能(AI)を活用した突風探知手法を導入し、列車運転の規制に活用すると発表。開始日は11月1日を予定している。列車運転規制の実施区間は羽越本線 今川〜羽後本荘間、陸羽西線 余目〜清川間。 JR東日本では、2005年12月25日に発生した羽越本線砂越〜北余目間における列車事故の対策として、2017年12月1
Japanese Language Analysis by GPU Ready Open Source NLP Frameworks Hiroshi Matsuda GPU Technology Conference 2020 1 This document is published under CC BY 4.0 license from Megagon Labs, Recruit Co., Ltd. Contents 自然言語処理技術の進歩とGPUが与えた影響 ルールベースからTransformersまで NLP Frameworkを用いた日本語の解析 世界の全言語を統一的に扱うUniversal Dependenciesとその日本語化 GiNZAの文節API GPU Ready OSS NLP Frameworks spaCy v2.3 → v3.0 Stanza
Amazon Web Services ブログ 日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました 多くの機械学習デベロッパーの方々が、AWS 上でさまざまなアルゴリズムの開発やモデルの構築を行なっています。中でも自然言語処理を行う際には、対象言語の特性に即した形で前処理を行う必要があります。日本語の自然言語処理を実施する際には、形態素解析と呼ばれる文章の分解処理を前位処理として一般的に行います。日本語形態素解析を行うためには、日本語の語彙データが必要となりますが、このデータは通常 GB 以上のサイズに及ぶ大きなサイズとなります。またこれらを用いた計算の際にも大量の GPU および CPU を必要とするため、従来こうしたモデルを構築する際には常にストレージおよびコンピューティングのリソースの
Amazon Web Services ブログ 日本語形態素解析器 Sudachi の語彙データ(SudachiDict)および単語ベクトル(chiVe)が AWS 上で Open Data として公開されました 多くの機械学習デベロッパーの方々が、AWS 上でさまざまなアルゴリズムの開発やモデルの構築を行なっています。中でも自然言語処理を行う際には、対象言語の言語ごとの辞書データや単語ベクトルデータを用いることが一般的です。これらのデータは GB 以上のサイズにおよび、また計算の際にも大量の GPU および CPU を必要とするため、従来こうしたモデルを構築する際には常にストレージおよびコンピューティングのリソースの調達が問題となってきました。AWS 上で自然言語処理モデルの開発を行う際には、Amazon SageMaker を用いて学習に必要なリソースを確保することで、ALBERT の
アマゾンウェブサービスジャパンは、日本語自然言語処理で定番の形態素解析器である「MeCab」を、ラッパーライブラリである「fugashi」経由でPythonにて使用する際の語彙データ「UniDic」が、「Open Dataset」に追加されたことを、10月9日に発表した。 「MeCab」は、オープンソースの形態素解析器で、日本語の形態素解析において幅広く用いられており、言語、辞書、コーパスに依存しない汎用的な設計を基本とし、高速に動作する。 「fugashi」は、「MeCab」をPythonから使用する際のラッパーライブラリで、unidic-pyとの連携によって「UniDic」を簡単に読み込んで使用できる。 「UniDic」は、国立国語研究所によって構築された、日本語テキストを単語に分割し、形態論情報を付与するための電子化辞書。 データはAmazon S3上でホストされているので、AWSで
0. 忙しい方へ 完全に畳み込みとさようならしてSoTA達成したよ Vision Transformerの重要なことは次の3つだよ 画像パッチを単語のように扱うよ アーキテクチャはTransformerのエンコーダー部分だよ 巨大なデータセットJFT-300Mで事前学習するよ SoTAを上回る性能を約$\frac{1}{15}$の計算コストで得られたよ 事前学習データセットとモデルをさらに大きくすることでまだまだ性能向上する余地があるよ 1. Vision Transformerの解説 Vision Transformer(=ViT)の重要な部分は次の3つです。 入力画像 アーキテクチャ 事前学習とファインチューニング それぞれについて見ていきましょう。 1.1 入力画像 まず入力画像についてです。ViTはTransformerをベースとしたモデル(というより一部を丸々使っている)ですが、
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く