ガートナーの米国本社発のオフィシャルサイト「Smarter with Gartner」と、ガートナー アナリストらのブログサイト「Gartner Blog Network」から、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。 人工知能(AI)を導入する企業が増えている。「Gartner 2019 CIO Agenda Survey」によると、既に世界のCIO(最高情報責任者)の14%がAIを導入済みであり、48%が2019年または2020年に導入すると回答していた。 「AIの導入が進んでいるが、AIのビジネス効果やメリットにまだ懐疑的な企業もある。われわれは現在、AIの導入における3つの大きな障壁を目の当たりにしている」と、Gartnerのアナリストでシニアディレクターを務め
はじめに Deep Learningを使った距離学習(Metric Learning)では、Contrastive LossやTriplet Lossなどを用いて、画像間の類似性(や非類似性)を直接学習していく方法が広く利用されていますが、学習データの組み合わせや選び方が難しく、学習自体が難航するケースが多い事も知られています。それだけに、これまで様々な改良と工夫が提案されています。 しかし、最近はこのような学習データ選びに難航することなく、一般的なクラス分類タスクの感覚で、Softmax関数をベースに学習できるMetric Learningが注目を浴びています。ArcFaceなどはその代表的手法でこちらで詳しく説明されています。 Softmax関数をベースにしたMetric Learningがうまくいく理由、またさらなる改良の余地はあるのか?これらに関して少し紹介しようと思います。 Ce
はじめに 先日,Preferred Networks(PFN)社が提供している深層学習ライブラリ「Chainer」の開発が終了しましたね. 私の研究室ではTensorflow派とChainer派に分かれており,互いにマウントを取り合っていたのですが,開発終了と同時にChainer派が淘汰されてしまいました(キレそう). 私自身はChainerを愛用しておりましたのでとても残念に思うのと同時に,今まで使いやすいフレームワークを提供して頂いたことによる感謝の気持ちでいっぱいでございます(信者). さてそのPFN社なのですが,PyTorchの開発へ移行するらしいです. しかもPyTorch自体がChainerの記述に似ている面が多いと聞きます. また私の研究では主に使用したのがCNNやらGANなのですが,RNN関連に手を付けていませんでした.... 「これはPyTrochの使い方とRNNの仕組み
Platform Adapter for React Native This package provides a TensorFlow.js platform adapter for react native. It provides GPU accelerated execution of TensorFlow.js supporting all major modes of tfjs usage, include: Support for both model inference and training GPU support with WebGL via expo-gl. Support for loading models pretrained models (tfjs-models) from the web. IOHandlers to support loading mo
Posted by Yannick Assogba, Software Engineer, Google Research, Brain team We are pleased to announce that TensorFlow.js for React Native is now available for general use. We would like to thank everyone who gave us feedback, bug reports, and contributions during the alpha release and invite the broader community of React Native developers to try it out! What is React Native?JavaScript runs on a wi
PyTorchの勉強はシンプルなニューラルネットワーク(NN)を実装することから始めてみよう。まずはニューロンのモデル定義から始め、フォワードプロパゲーションとバックプロパゲーション、PyTorchテンソルの基礎、データローダー、最適化、評価まで一通りを解説。さらにCNNやRNNの実装例を通して、PyTorchに習熟する連載。 PyTorchだって難しくない 本連載の目的と方針 PyTorchとは? 本連載の第3回までで説明する大まかな流れ (1)ニューロンのモデル定義 ・PyTorch 1.4のインストール ・ニューロンのモデル設計と活性化関数 ・パラメーター(重みとバイアス)の初期値設定 (2)フォワードプロパゲーション(順伝播) ・フォワードプロパゲーションの実行と結果確認 ・動的な計算グラフの可視化 (3)バックプロパゲーション(逆伝播)と自動微分(Autograd) ・簡単な式で
KubeflowとJupyter Enterprise GatewayでJupyter Notebook環境をさらに便利に AI事業本部のインフラ組織SIAでエンジニアをしている牧垣です。 はじめに Jupyter Notebookは機械学習・データ解析の分野ではすっかり空気のようなインフラになりました。仮説・実験・考察のサイクルを回しやすいので、科学分野では昔から人気があります。コードと結果が可視化できるという基本機能そのものに、作業ログや手順書・使い方ドキュメントなど、他分野での需要もあります。 夢を膨らませると用途はまだまだ思いつきそうですが、つまり「複数人で同じものを見て、同じ認識をすることができる」というのがJupyter Notebookの良いところです。「あの件、どうだった?」「あ、たぶん大丈夫だと思います」といったあやしげな状態になりにくくなります。また、可視化が容易な点も
本日は Julia は Python に比べるとまだ人口が少ないので「こういうのをJuliaで作ったよ!」とSNSで宣伝するとみんな(Julia界隈)が喜びます.作ったらそれがSOTA(state of the art) なんです.ただし,動かす側からだとそのスクリプト,ノートブックを動かすのにそれをダウンロードして必要に応じてJupyter Notebookを立ち上げるという一手間が肉に塩を振る以上に手間がかかってしまうことです.環境を構築している間にSNSで動いてる!しゅごいいぃと感じた熱意が指数関数的に現象してしまいます.パッケージが入ってなくて途中でエラーを吐いて動かなくなったら尚更です.また,閲覧しているデバイスがパソコンとは限らないので可能ならスマホ,タブレットでみたユーザーがパソコンにログインして動かすというのも手間っちゃ手間です. さて,グラフ描画ライブラリの Julia
AWS DeepComposer は、開発者が事前トレーニング済みのモデルまたは独自のモデルで Generative AI を使用できるように設計された 32 キー、2 オクターブのキーボードです。AWS DeepComposer を使えば、開発者はクリエイティブな方法で機械学習を始めることができます。メロディがほんの数秒で完全にオリジナルな楽曲に変身します。チュートリアル、サンプルコード、トレーニングデータが含まれ、1 行もコードを書くことなく、生成 AI モデルの構築を開始できます。 詳しくは以下の記事を参照してください。 https://aws.amazon.com/jp/deepcomposer/ https://aws.amazon.com/jp/blogs/news/aws-deepcomposer-compose-music-with-generative-machine-l
自動運転など様々な分野で機械学習を組み合わせた新しいロボティクスのアプリケーションが生み出されてきています。自律型のロボットは今後ますます増え、それらの機能を実現するために機械学習の活用がさらに活発になることはほぼ間違いないでしょう。 この記事では全 3 回連載で「強化学習」と呼ばれる機械学習の手法をロボティクスに応用した例を AWS RoboMaker を使って体験します。 AWS RoboMaker はロボティクスのアプリケーションを開発、運用するための各種機能を提供する AWS のサービスです。 AWS RoboMaker はロボットアプリケーションを開発するための開発環境と、開発されたアプリケーションの動作確認をするためのシミュレーション環境をクラウドに提供し、またクラウドで開発されたロボットアプリケーションを実際のロボットにインターネット経由でインストールするためのデプロイの機能
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く