The Extraordinary Link Between Deep Neural Networks and the Nature of the Universe Nobody understands why deep neural networks are so good at solving complex problems. Now physicists say the secret is buried in the laws of physics. In the last couple of years, deep learning techniques have transformed the world of artificial intelligence. One by one, the abilities and techniques that humans once i
ディープラーニングの本格的な入門書。外部のライブラリに頼らずに、Python 3によってゼロからディープラーニングを作ることで、ディープラーニングの原理を楽しく学びます。ディープラーニングやニューラルネットワークの基礎だけでなく、誤差逆伝播法や畳み込みニューラルネットワークなども実装レベルで理解できます。ハイパーパラメータの決め方や重みの初期値といった実践的なテクニック、Batch NormalizationやDropout、Adamといった最近のトレンド、自動運転や画像生成、強化学習などの応用例、さらには、なぜディープラーニングは優れているのか? なぜ層を深くすると認識精度がよくなるのか? といった“Why”に関する問題も取り上げます。 関連ファイル サンプルコード 正誤表 書籍発行後に気づいた誤植や更新された情報を掲載しています。お手持ちの書籍では、すでに修正が施されている場合がありま
Recurrent neural networks are one of the staples of deep learning, allowing neural networks to work with sequences of data like text, audio and video. They can be used to boil a sequence down into a high-level understanding, to annotate sequences, and even to generate new sequences from scratch! x0 y0 x1 y1 x2 y2 x3 y3 One cell... can be used over... and over... and over... x4 y4 again. The basic
Neural Network-based Sketch Simplification全層畳込みニューラルネットワークによるラフスケッチの自動線画化 Edgar Simo-Serraシモセラ エドガー*, Satoshi Iizuka飯塚里志*, Kazuma Sasaki佐々木一真, Hiroshi Ishikawa石川博 (*equal contribution筆頭著者に相当) Project Siteプロジェクトサイト Regarding this service本サービスについて We provide a service to use AI to clean rough sketches based on "Learning to Simplify: Fully Convolutional Networks for Rough Sketch Cleanup" [Simo-Serra
Bayesian network & Causal AI software Use data and/or experts to perform advanced AI: Automate decisions, perform diagnostics, reasoning, discover insight and perform causal analysis. Predictive maintenance Bayes Server is used in aerospace, automotive, utilities and many other sectors that have sensors on critical assets to provide early warning of failure. Using anomaly detection, diagnostics, r
Paper at http://arxiv.org/abs/1608.04062 Incredible claims: Train only using about 10% of imagenet-12, i.e. around 120k images (i.e. they use 6k images per arm) get to the same or better accuracy as the equivalent VGG net Training is not via backprop but more simpler PCA + Sparsity regime (see section 4.1), shouldn't take more than 10 hours just on CPU probably (I think, from what they described,
NEWS2022.12.26 ヤングライオンズ/スパイクスコンペティション国内選考のデジタル部門とデザイン部門において、当社社員がSILVERを受賞 〜デジタル部門の受賞者はヤングスパイクス本戦に出場 〜 NEWS2022.11.24 無料ウェビナー「コンテンツを制するものがセールスを制す! BtoB営業組織でリードと商談を作り出すコンテンツマーケティング」を12月6日(火) に開催 PRESS RELEASE2022.11.18 学生から応募された年賀はがきのデザインで同世代の子どもを支援 「チャリティー年賀状 全国学生デザインコンテスト 2023」入選発表・販売開始 〜 売上枚数に応じた支援金を(公社)チャンス・フォー・チルドレンへ寄附 〜
はじめに この記事は、私が機械学習、特に「誤差逆伝播法」 (あるいは「バックプロパゲーション (Backpropagation)」) を勉強するうえで辿った道筋を記録しておくものです。 誤差逆伝播法に関する分かりやすい解説は、ここ Qiita にも多数存在しますので、正直 $n$ 番煎じなところがありますが、あくまで記録ですのでここは 1 つ。 「記録」というには長過ぎてイマイチ感溢れてますが、そこは気にしないでください。これでも要点をしぼったつもりなのです… ゆっくりしていってね!!! 途中の数式について 記事の前後から参照されている数式については右側に番号を振っています。 初回記載時は $\text{(1)}$ とかっこ付き数字で、2 回目以降記載時は $\text{[1]}$ と角かっこ付き数字で示します。記載済みの数式を変形したものについては $\text{(1')}$ とプライム
こんちくわ,Gunosyデータ分析部の@hmjです. 最近よく聞く音楽はGOING UNDER GROUND の さえないブルー です. 今回は,先日開催したデータ分析部ロジック共有会という社内向けの勉強会についてご紹介します. 1. データ分析部ロジック共有会とは データ分析部では,Gunosyの記事配信のロジックを改善したり,KPIをみてデータ分析などを主に行っています. 業務内容や組織体制などは,下記をご覧ください. seleck.cc あなただけにそっと教える弊社の分析事情 #data analyst meetup tokyo vol.1 LT from Hiroaki Kudo www.slideshare.net データ分析部ロジック共有会とは,そんな私たちデータ分析部で日々行っているロジック改善で,どういったことをしているかなどを 社内の人たちに知ってもらうための勉強会です.
Hamid Palangi Principal Researcher at Microsoft Research, Affiliate Associate Professor at the University of Washington Two weeks ago I attended the deep learning summer school at Montreal organized by Yoshua Bengio and Aaron Courville. Below is a summary of what I learned. It starts from basic concepts and continues with more advanced topics. 1. Essence of regularization Two popular regularizatio
In the early days, content-based image retrieval (CBIR) was studied with global features. Since 2003, image retrieval based on local descriptors (de facto SIFT) has been extensively studied for over a decade due to the advantage of SIFT in dealing with image transformations. Recently, image representations based on the convolutional neural network (CNN) have attracted increasing interest in the co
一昨日メルカリさんのオフィスで開催された iOSDC Reject Conference days2 で、「iOSとディープラーニング」というタイトルで登壇させていただきました。 大層なタイトルですが、僕はディープラーニングや機械学習について詳しいわけではなく、「これから勉強したい」だけの素人です。iOSDCのCFPではLT枠の場合はトーク概要を書く必要がなかったので、タイトルは大きめにしておいて、内容は勉強の進捗に応じて、という算段でした。 で、先週あたりから夜な夜なこのへんの勉強をしていて、 TensorFlowの学習済みモデルを拾ってきてiOSで利用する - Qiita この次に「自分でモデルをつくる」というステップに進みたかったのですが、次から次へとわからないことがでてきて、結局「誰かがつくったサンプルを動かす」「拾ってきたモデルを使う」止まりの発表になってしまいました。 そこは引
Neural Network-based Sketch Simplification全層畳込みニューラルネットワークによるラフスケッチの自動線画化 Edgar Simo-Serraシモセラ エドガー*, Satoshi Iizuka飯塚里志*, Kazuma Sasaki佐々木一真, Hiroshi Ishikawa石川博 (*equal contribution筆頭著者に相当) Project Siteプロジェクトサイト Regarding this service本サービスについて We provide a service to use AI to clean rough sketches based on "Learning to Simplify: Fully Convolutional Networks for Rough Sketch Cleanup" [Simo-Serra
飞桨致力于让深度学习技术的创新与应用更简单。具有以下特点:同时支持动态图和静态图,兼顾灵活性和效率;精选应用效果最佳算法模型并提供官方支持;真正源于产业实践,提供业界最强的超大规模并行深度学习能力;推理引擎一体化设计,提供训练到多端推理的无缝对接;唯一提供系统化技术服务与支持的深度学习平台
Recent developments in deep learning make it possible to improve time series databases. I will show how these methods work and how to implement them using Apache Mahout. Systems such as the Open Time Series Database (Open TSDB) make good use of the ability of HBase and related databases to store columns sparsely. This allows a single row to store many time samples and allows raw scans to retrieve
Keras is a deep learning library that wraps the efficient numerical libraries Theano and TensorFlow. In this post, you will discover how to develop and evaluate neural network models using Keras for a regression problem. After completing this step-by-step tutorial, you will know: How to load a CSV dataset and make it available to Keras How to create a neural network model with Keras for a regressi
以前の記事ではTensorFlowを使って英語から日本語に翻訳するニューラル翻訳モデルを訓練しましたが、今回は最近のチャットボットブームに乗っかって(?)、ニューラル会話モデルを訓練してみました。 環境 環境は以前の記事と同じですが、今回はAWSのスポットインスタンスを使うことでコスト削減を図りました。 TensorFlow 0.9 AWS g2.2xlarge spot instance Ubuntu Server 14.04 Python 3.5 データ ニューラル会話モデルを訓練するためには、発言とその発言に対する返信のテキストデータが必要になります。ここではTwitterのリプライを収集スクリプトを書き、1.3Mほどのツイートと返信先のペアを収集しました。ツイートからユーザ名、ハッシュタグ、URLは削除され、例えば次のようなペアが得られます。 返信先ツイート ツイート
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く