サービス終了のお知らせ SankeiBizは、2022年12月26日をもちましてサービスを終了させていただきました。長らくのご愛読、誠にありがとうございました。 産経デジタルがお送りする経済ニュースは「iza! 経済ニュース」でお楽しみください。 このページは5秒後に「iza!経済ニュース」(https://www.iza.ne.jp/economy/)に転送されます。 ページが切り替わらない場合は以下のボタンから「iza! 経済ニュース」へ移動をお願いします。 iza! 経済ニュースへ

サービス終了のお知らせ SankeiBizは、2022年12月26日をもちましてサービスを終了させていただきました。長らくのご愛読、誠にありがとうございました。 産経デジタルがお送りする経済ニュースは「iza! 経済ニュース」でお楽しみください。 このページは5秒後に「iza!経済ニュース」(https://www.iza.ne.jp/economy/)に転送されます。 ページが切り替わらない場合は以下のボタンから「iza! 経済ニュース」へ移動をお願いします。 iza! 経済ニュースへ
ソニーがAIの進化を加速する。ディープラーニングのコアライブラリをオープンソース化2017.06.27 10:0111,677 ソニーだって、ずっと前からやってたから。 本日発表されたのが、ソニーの「Neural Network Libraries」。ディープラーニング(深層学習)のコアライブラリ(プログラムを生成する際のフレームワークとなるソフトウェア)です。オープンソースとして提供されるため、エンジニアやデザイナーは無償で活用して、人工知能(AI)を実現できるディープラーニングのプログラムを開発し、プロダクトやサービスに搭載できるようになります。 あらためてかいつまむと、ディープラーニングとは人間の脳を模倣したニューラルネットワークを用いた機械学習の一手法。最近では、最強棋士を破り引退したGoogle DeepMindを使ったコンピュータ囲碁プログラム「AlphaGo」もその成果のひと
報道資料 ここに掲載されている情報は、発表日現在の情報です。 検索日と情報が異なる可能性がございますので、 あらかじめご了承ください。 2017年6月27日 人工知能(AI)を実現するディープラーニング(深層学習)の プログラムを生成できる「コアライブラリ」をオープンソース化 ソニー株式会社は、ディープラーニング(深層学習)のプログラムを生成する際のフレームワークとなるソフトウェア「コアライブラリ:Neural Network Libraries」を本日オープンソース化しました。 これによりプログラムエンジニアやデザイナーは無償で公開されるこのコアライブラリを使用して、人工知能(AI)を実現できるディープラーニングのプログラムを開発し、各種製品やサービスに搭載できるようになります。 また、オープンソース化を通じて、開発者コミュニティーによるプログラムの進化も期待されます。 ディープラーニン
ソニーは6月27日、ディープラーニングのプログラム生成に利用するフレームワーク「コアライブラリ:Neural Network Libraries」をオープンソース化したと発表した。 ディープラーニングは、人間の脳を模倣した「ニューラルネットワーク」を用いた機械学習手法のひとつ。従来の機械学習と比べて性能向上しやすく、画像認識や音声認識、機械翻訳、信号処理のほか、ロボット制御など広範囲で利用できる汎用性の高さも特徴となる。 ディープラーニングを使ったプログラム開発には、ニューラルネットワークの設計が重要。画像認識や音声認識などに応じて最適なニューラルネットワークを構築し、試行錯誤を繰り返してニューラルネットワークを最適化することで製品・サービスに搭載できる。 今回、オープンソース化したコアライブラリは、一連の開発工程を効率化するソフトウェアであり、「汎用的な実行環境」「高効率な開発環境」「多
In this episode, Audrow Nash interviews Sergey Levine, assistant professor at UC Berkeley, about deep learning on robotics. Levine explains what deep learning is and he discusses the challenges of using deep learning in robotics. Lastly, Levine speaks about his collaboration with Google and some of the surprising behavior that emerged from his deep learning approach (how the system grasps soft obj
HOME 人工知能とは? ディープラーニング Microsoft×Preferred Networks【DEEP LEARNING LAB】キックオフに行ってきた。 ディープラーニング 2010.06.27 2017.06.27 AINOW Microsoft×Preferred Networks【DEEP LEARNING LAB】キックオフに行ってきた。 みなさんこんにちは!おざけんです。DEEP LEARNING LABのキックオフの様子をお伝えします。 2017年5月23日、@de:codeにて株式会社Preferred Networksとマイクロソフト コーポレーションがアライアンスを組むことを発表し、大きな話題となりました。 プレスリリース 株式会社Preferred Networks(本社:東京都千代田区、代表取締役社長 最高経営責任者:西川徹、以下、PFN)とマイクロソフト
by Sony An open source software to make research, development and implementation of neural network more efficient. Get Started Features Write less do more Neural Network Libraries allows you to define a computation graph (neural network) intuitively with less amount of code. Dynamic computation graph support Dynamic computation graph used enables flexible runtime network construction. The Library
Neural Network Libraries is a deep learning framework that is intended to be used for research, development and production. We aim to have it running everywhere: desktop PCs, HPC clusters, embedded devices and production servers. Neural Network Libraries - CUDA extension: An extension library of Neural Network Libraries that allows users to speed-up the computation on CUDA-capable GPUs. Neural Net
Neural Network Libraries by Sony ニューラルネットワークの研究・開発・実装を 効率化するオープンソースソフトウェア Get Started 特長 必要最小限の労力 Pythonを用いて、より少ないコード量で直観的に計算グラフ(ニューラルネットワーク)を定義することができます。 動的計算グラフのサポート 実行時に柔軟にニューラルネットワークを構築することができます。ニューラルネットワークの構築方法としては、静的計算グラフと動的計算グラフの両方が利用可能です。 どこでも実行 移植性を考慮した設計を採用しており、LinuxとWindowsの両方で動作します。 デバイスを選ばない コードのほとんどがC++14で実装されているため、組み込み機器にもほぼそのままの形で導入することができます。 機能の追加が簡単 適度に抽象化された関数とコードテンプレート生成機能を備えてお
DisneyやPixarら、3Dレンダリング(モンテカルロ法)された画像のノイズ除去にDeep learningアプローチを導入し良結果を示した論文を公開 2017-06-26 Disney Research、Pixar Animation Studios、カリフォルニア大学の研究者らは、3DCGアニメーションにおいてモンテカルロ(MC)レンダリングされた画像のノイズ除去にDeep learningアプローチを導入し、高品質な結果を示した論文を発表しました(PDF)。 モンテカルロ法を用いたレンダリングの場合、とりわけ高次元モデルを使用する場合ノイズがのってきます。この問題に対処するため深層畳み込みニューラルネットワーク(CNN)を利用する事でノイズ処理を行います。 本論文は、モンテカルロレンダリングをデノイズするためのDeep learningを用いた機械学習ソリューションを提案したもの
Overview In this post, we will go over the work I did for project 3 of Udacity’s self-driving car project, behavior cloning for driving. The main task is to drive a car around in a simulator on a race track, and then use deep learning to mimic the behavior of human. This is a very interesting problem because it is not possible to drive under all possible scenarios on the track, so the deep learnin
At present, the vast majority of building blocks, techniques, and architectures for deep learning are based on real-valued operations and representations. However, recent work on recurrent neural networks and older fundamental theoretical analysis suggests that complex numbers could have a richer representational capacity and could also facilitate noise-robust memory retrieval mechanisms. Despite
Notice You are accessing a machine-readable page. In order to be human-readable, please install an RSS reader. All articles published by MDPI are made immediately available worldwide under an open access license. No special permission is required to reuse all or part of the article published by MDPI, including figures and tables. For articles published under an open access Creative Common CC BY li
Deep Learning していると、学習にとても時間がかかるのがネックになる。 時間だけでなく、メモリもいっぱい必要になる。 今はGPUなるものがあり、これを使うと計算処理が一気に早くなると言われている。 GPUの計算性能は、CPUの50倍以上とか言われているのだが、実際にはそこまで高速にDeep Learningできるようにはならない。 GPUを使う場合には、GPUにデータを送ったり、GPUからデータを受け取ったりなど、CPUとGPUの間でのデータのやり取りが発生し、この量が半端ではない。このため、実際の速度向上は10倍程度にしかならない。 でも、もっと高速にしたいと思ったらどうすればよいだろうか。 多数のGPUを同時に使えば、どんどん高速になるのではないだろうか。 分散して学習する場合に問題になるのは、別々のGPUで学習した結果をまとめて、それをまた全GPUに分配し直すという作業が
こんにちわ、株式会社NAMの中野哲平です。 医師が最も関心があるのは「この疾患を治すにはどの治療法がベストか」という問です。患者にとっては、「この薬を飲めば、病気が治るのか」は最大の関心事です。 いわゆる「医療と人工知能」の研究で、「この眼の画像はなんの病気か?」という問題は殆ど研究分野としては落ち着いてきています。一方で今日考える「この患者にこの薬を投与するとどうなるか?」という因果推論が最もホットトピックです。 今回は機械学習でこの問にどのようにアプローチするのかを考えてみます。 物事をもう少し一般的に考えてみると、この課題は「機械学習を用いてデータ間の因果関係を把握できるか」という問に言い換えられます。先程の場合だと、疾患というデータに対して、ある治療を行った結果、疾患が治るのか治らないのかを機械学習を使って予測したいということです。 因果関係と相関関係 機械学習で因果関係を予測する
README.md foundations for deep learning: I emphasize mathematical/conceptual foundations because implementations of ideas(ex. Torch, Tensorflow) will keep evolving but the underlying theory must be sound. Anybody with an interest in deep learning can and should try to understand why things work. I include neuroscience as a useful conceptual foundation for two reasons. First, it may provide inspira
Deep learning yields great results across many fields, from speech recognition, image classification, to translation. But for each problem, getting a deep model to work well involves research into the architecture and a long period of tuning. We present a single model that yields good results on a number of problems spanning multiple domains. In particular, this single model is trained concurrentl
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く