Hirokatsu KATAOKA, Ph.D. Chief Senior Researcher, AIST, Japan. Hirokatsu Kataoka received his Ph.D. in engineering from Keio University in 2014. His research experience includes visiting scientist at Technical University of Munich (TUM) and JSPS Fellow (PD) at the University of Tokyo. Currently, he is a Chief Senior Researcher at National Institute of Advanced Industrial Science and Technology (AI
実世界理解,コンテンツ生成や知識発見を目指した 高度な知能システムの実現 実世界知能の 理論的基礎として、 確率統計的手法や 多変量解析手法 などを 用いた 情報数理的な 立場から、 パターン情報処理、 及び 知能情報処理の 原理や 仕組みを 明らかにし、 具体的な 手法や 応用について 研究を 行っています 2024-07-05 弊研究室では現在本学修士及び博士課程学生を対象に卓越RAを募集しています.詳しくはこちらをご覧ください. 2024-07-04 国際会議ECCV'24に論文6本が採択されました 2024-05-09 国際会議ICML'24に論文1本が採択されました 2024-01-30 国際会議ICRA'24に論文2本が採択されました 2024-01-16 国際会議ICLR'24に論文1本が採択されました 2023-12-10 国際会議AAAI'24に論文2本が採択されました
This is the demo of our Fluid Annotation paper: "Fluid Annotation: A Human-Machine Collaboration Interface for Full Image Annotation" Mykhaylo Andriluka, Jasper R. R. Uijlings, Vittorio Ferrari Google Research, Zurich, Switzerland More information on the Google blog post. Instructions The goal of this annotation interface is to label each object with its approximate outline and its class label. mo
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 今話題のAIをweb上で誰でも気軽に作れる「AIメーカー」を開発しました! ①AIに覚えさせたいタグを入力 ②タグから自動で画像データを収集 ③AIがデータから学習 の3ステップで誰でも簡単にAIを作れます! 動画では手相占いのAIに挑戦! みんなもAIを作って遊んでみてね!https://t.co/66DFU7GRZ2 pic.twitter.com/ie1LmioyA1 — 2z@AIメーカー (@2zn01) 2018年7月19日 こんにちは、2z(Twitter: @2zn01 )です。 はじめてのQiita記事です。 今話題の
ABEJAでリサーチャーをしている白川です。 皆さん、アノテーションしていますか? 私はしています。アノテーション、自分でやるのは大変ですよね。 AIというとモデルの学習に注目されがちですが、もしかしたら、アノテーションはAI開発においてモデル開発以上に重要で注意の必要なプロセスかもしれません。今回はなぜアノテーションがそれほど重要なのか、良いアノテーションとはどのようなアノテーションなのかについて、機械学習的にアプローチしてみたいと思います。 アノテーションを機械学習で解析するの、楽しいですよ。 なお、本記事に関連して、2018年7月1日に開催されるccse2018というカンファレンスでもお話させていただく予定です。記事内では触れられなかった内容についてもお話させていただくかもしれないので、ご興味ある方はチェックしてみてください。 この記事を読むとわかること アノテーションはAIの開発・
日本シノプシスは6月13日、都内で開催した大規模ユーザー会「Synopsys Users Group(SNUG) Japan 2018」を開催。同イベントにて、バーチャル・プロトタイピングを使ったAIアクセラレータ設計とSoCへのインテグレーションについての説明を行った。 近年、ディープラーニングの活用に注目が集まり、GPUやFPGAを活用するアクセラレータのみならず、IT企業をはじめとしたさまざまな企業が、ニューラルネットワークのアルゴリズムを高速に実行するための専用プロセッサの開発など行うようになってきた。 こうした中、AI(人工知能)をとりまく状況としては、何を認識するのか(画像、音声、その他)、その対象に対して、どのようなニューラルネットワークが適切なのか(DNN、CNN、RNNなど)、またそうしたニューラルネットワークに対する柔軟性をどこまで持たせるのか、といったことを性能を発揮
畳み込みニューラルネットワーク(CNN)が画像判別でよく使われるというのは知っていても、従来の機械学習アルゴリズムと比較してどれぐらいすごいものなのかというのがいまいちピンとこなかったので確認してみました。だいぶ長いよ! 概要 機械学習のアルゴリズムとして、ディープラーニングが出る前は例えばロジスティック回帰、サポートベクトルマシン、ランダムフォレストなどがありました。従来の手法というと漠然としますが、Scikit-learnでできるアルゴリズムと考えてよいです。これらの手法は現在でも有効で、これらのどれを使っても、手書き数字(MNIST)に対して最低でも8割、ちゃんと実装すれば9割の精度は出ます。Scikit-learnはとても使いやすいライブラリで、学習効率・実装効率ともによく、計算が比較的簡単なので高速です。逆にその段階で9割近く出ちゃうと、「学習が大変で処理も遅いディープラーニング
ディープラーニングの大流行の中、様々なフレームワークが登場し、気軽にプログラミングができるようになりました。しかし、そんな中どのフレームワークを選べば良いかわからないという人も多いと思います。そんな人に少しでも参考になればと思い記事を書きます。 はじめに Chainer 特徴 柔軟な計算グラフの構築が可能 Pythonによる実装 直感的な計算グラフの構築が可能 メリット・デメリット メリット デメリット まとめ Keras 特徴 とんでもなく簡単に計算グラフを記述可能 高速計算ライブラリのディープラーニング用ラッパー もはやプログラミングの経験すら不要 メリット・デメリット メリット デメリット まとめ TensorFlow 特徴 圧倒的な利用者数 テンソル計算を行うライブラリ Define and Run 追加のライブラリが豊富 メリット・デメリット メリット デメリット まとめ PyT
はじめまして。ABEJAでリサーチャーをやっている藤本です。 今年もCVPRの季節がやってきました。CVPRとはコンピュータビジョンに関するトップカンファレンスです。毎年規模が大きくなってきており、今年は3300の論文投稿があり、979件がacceptされました。また、21のチュートリアル、48のワークショップ、115以上の企業展示と様々なイベントが行われています。今年度のCVPR2018の開催は6月なのですが、プログラム自体は4月に公開済みですので、今回のブログの記事では、オーラル発表予定の論文のうちarxivで公開されている内容について一気に紹介します。 論文の動向 Deep learningについて Deep Learningに関連する論文は毎年増え続けており、今年度についてはacceptされた論文979件のうちarxivで459件が公開されており、なんと424件(頑張って数えました
目次 (背景)自分の声を結月ゆかりにしたい。前回はあまりクオリティが良くなかったので、手法を変えて質を上げたい。 (手法)声質変換を、低音質変換と高音質化の二段階に分けてそれぞれ学習させた。画像分野で有名なモデルを使った。 (結果)性能が飛躍的に向上し、かなり聞き取れるものになった。 (考察)精度はまだ改善の余地があり、多対多声質変換にすることで精度が向上すると考えられる。今回の結果を論文化したい。 デモ動画 背景多くの人が可愛い女の子になりたいと思っている。 CG技術やモーションキャプチャ技術の向上により、姿は女の子に仮想化できるようになってきた。 しかし、声に関してはまだまだ課題が多い。 声質変換は「遅延」「音質」「複数話者」などの難しい課題がある。 今回は、自分の声を結月ゆかりにするための、低遅延で実現可能な高音質声質変換を目指した。 手法大きく分けて3つの工夫をした。 画像ディープ
Several recent papers have explored self-supervised learning methods for vision transformers (ViT). Key approaches include: 1. Masked prediction tasks that predict masked patches of the input image. 2. Contrastive learning using techniques like MoCo to learn representations by contrasting augmented views of the same image. 3. Self-distillation methods like DINO that distill a teacher ViT into a st
ATRと京都大学、fMRIで測定した人間の脳活動のみから、その人が見ている画像を機械学習を用いて再構成する提案を発表。心の中でイメージした内容の画像化にも成功 2018-01-14 ATR(国際電気通信基礎技術研究所)と京都大学の研究者らは、fMRI(機能的磁気共鳴画像法)によって測定された人間の脳活動のみから機械学習を用いて視覚像を再構成する提案を論文にて発表しました。 Deep image reconstruction from human brain activity 著者:Guohua Shen, Tomoyasu Horikawa, Kei Majima, Yukiyasu Kamitani (左が見ている画像、右が再構成された画像) 本稿は、人間が見ている画像を、fMRIで測定した脳活動パターンのみで知覚内容を視覚化する機械学習を用いた手法を提案します。 提案手法では、画像を見
*2017/8/14 最終課題のサンプルコード(Jupyter Notebook形式)を掲載しました。 *2017/6/2 バックプロパゲーションのレクチャーを追加しました。 *2017/5/17 多層ニューラルネットワークでの出力計算を掲載しました。 ニューラルネットワークを多層化したディープラーニングは、画期的な精度向上を実現し、大変注目を集めています。そして、TensorFlow, Chainer, Caffe 2などさまざまなライブラリが登場して、以前より手軽にディープラーニングを実装できるようになりました。 しかし、こうしたライブラリを使いこなすためにも、ブラックボックス化されている最適化の手法を理解しておくと、学習の精度を向上させるためのパラメーター最適化などに役立ちます。 この講座では、上記のような各種ライブラリを使用せず、NumPyやPandasなど行列計算やデータ入出力ラ
■ はじめに 深層学習(DL)によりAIを生成する際には、大量の生データを用いて学習用データセットを生成し、当該学習用データセットを用いてDLを行って学習済みモデルを生成します。 学習済みモデル生成のためには質の良いデータセットと強力な計算資源が必要であるため、AIの中核的価値は学習済みモデルにあると言っていいでしょう。 したがって自ら、あるいは外注して生成した学習済みモデルをどのように保護するかはビジネスにおいて非常に重要な課題となります。 私どもはAIに関する相談を多数受けていますが、その中で非常に良く聞かれるのがこの「どのように学習済みモデルを保護するか」という点です。 たとえば以下のような相談を受けることがあります。 【設例】 工場用ロボット操業用の学習済モデルを生成したうえでロボットに組み込んでメーカーX社に納品したが、X社の担当役員によりモデルごとロボットが持ち出されてZ社に持
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 機械学習を実務で使う場合、「ではお客様、ラベルデータを・・・」と申し出て色よい返事が返ってくることはあまりありません。また、例えば自動運転車を作るときに、データが足りないからその辺流してくるか、お前ボンネットに立ってデータとってな、とするのは大変です。 NICO Touches the Walls 『まっすぐなうた』 より そこで必要になってくるのが転移学習です。 転移学習とは、端的に言えばある領域で学習させたモデルを、別の領域に適応させる技術です。具体的には、広くデータが手に入る領域で学習させたモデルを少ないデータしかない領域に適応さ
Residual Network(ResNet)とは ResNetのアイデア Shortcut Connectionの導入 Bottleneckアーキテクチャ ResNetの最適化ベストプラクティス Optimizerの選定 Batch Normalizationの位置 Post Activation vs Pre Activation Wide Residual Network まとめ 参考 2015年のImageNetコンペティションとCOCOセグメンテーションの最良モデルとしてDeep Residual NetworksがMicrosoft Researchから提案され、最大1000層以上の深いニューラルネットワークを構築することが可能となった。 本記事では、 Residual Networkとは何か Residual Networkのチューニング方法 Residual Networ
はじめに 目標の設定と指標の決定 目標の設定 指標の決定 評価指標に対する最低限の知識 機械学習における知識(補足) ニューラルネットワークの学習 最初に使うニューラルネットワーク 時間的にも空間的にも独立である複数の特徴量を持つデータ 空間の局所的な構造に意味のある多次元配列データ(例えば画像) 時間的な変動に意味のあるデータ(例えば音声、自然言語) ニューラルネットワークの細かい設定 ユニットの数と層の数 正則化 活性化関数 ドロップアウト バッチ正規化 学習の早期終了 性能が出ない場合 データの追加収集 ニューラルネットの設定をいじる 用いるニューラルネット自体を変更する 新たなニューラルネットワークの考案 コードを書くにあたって データ成形 結果を記録するコード フレームワークの利用 フレームワークの選択 ChainerとPyTorch TensorFlow Keras 最後に は
##短評 想像の3倍くらい時間をかけてしまいましたが、色々なことが目からウロコで大いに面白かったです。TensorFlowエンジニアの見習い小僧レベルにはなれた気がします。とはいえ、奥が深くて本当に表面的な部分を学習しただけとも感じています。内部的な処理はわからないことだらけですし、応用どころか基本もままならない状態。あとどのくらい時間をかければ、プロと胸を張って言えるレベルになれるかは、正直見当がつかないです・・・一方でそんな状態でもオリジナルのテーマでDeep Learningが実装できるのは、本当にTensorFlowの凄さだと思います。あと、地味にAnacondaも便利で助けられました。 ##学習目的 現在および直近の仕事でDeep LearningやAIはおろか、機械学習すら使わないですが、「今後を踏まえて何かしなきゃ」という強い想いのもと学習しました。また、純粋に「面白そう」と
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く