問題に感じた箇所や改善すべきと思った点など、コメントいただけますと幸いです。どんなに小さな指摘や疑問でも構いませんので、気軽にコメントください。 またレビューに貢献していただいた方には、感謝の印として、本書に名前を記載させていただく予定です(もちろん、同意のある方のみです)。下記のように、レビューアの方の名前をクレジットとして掲載する予定です。 左は『ゼロから作るDeep Learning ❷』、右は中国語に翻訳された『Deep Learning 2』なお、本のタイトルに「❹」とありますが、前作までの知識がなくても読める内容になっています。前提条件としては、Pythonと数学の基本的な知識が必要になります。ちなみに、本書の概要は次のとおりです。 人気シリーズの第4弾。今回のテーマは強化学習です。実際のコードを提示し動かしながら学ぶという本シリーズのスタイルを踏襲し、外部ライブラリに頼らず、
9月16日、Google AI Blogに、学習時間を短縮し、最先端の性能を実現した、画像認識用の2つのモデルを紹介した「Toward Fast and Accurate Neural Networks for Image Recognition」が公開された。 スクリーンショット: Toward Fast and Accurate Neural Networks for Image Recognition この記事では、画像認識モデルの「EfficientNetV2」と「CoAtNet」を紹介している。 EfficientNetV2は、convolutional neural networksで構成されており、ImageNet1k(128万枚の画像)のような比較的小規模なデータセットに対して、高速な学習速度を目指している。 CoAtNetは、convolutionとself-attent
2年ほど前に、自分の声を結月ゆかりにする声質変換技術を作り、動画を投稿しました。この技術には利用者の音声データが大量に必要であるという欠点があり、ゆかりさんになりたいというみなさんの願いを叶えるのが難しい状態でした。そこで、この技術を利用者の音声データが不要になるように改良し、誰でも簡単に使えるようにしました。ここではその技術について解説します。 手法 音声を直接変換しようとすると、利用者の音声データが必要になってしまいます。そこで、音声を直接変換するのをやめて、①音声を構成する要素である音素と音高に分解し、②音素と音高を目標の声(ゆかりさん)に再合成することを考えました。 ①は、音素の抽出に音声認識とOpenJTalkとJuliusを、音高の抽出にWORLDを用いれば簡単に実現できます。そのため、②さえ実現できれば、利用者の声のデータを用意することなく、誰でもゆかりさんの声に変換すること
1.はじめに 以前から人の動画から3Dモデルを推定する手法はありましたが、複雑な動きの場合は細部でゆがみやズレが生じていました。今回は、この問題点を改善したVIBEという技術をご紹介します。 *この論文は、2019.12に提出されました。 2.VIBEとは? VIBEとは、Video Inference for Body Pose and Shape Estimation の略で、ディープラーニング を使って、人の動画から3Dモデルを推定する技術です。 使用しているモデルは、SMPL (Skinned Multi-Person Linear model)と言う人間の自然なポーズにおける多種多様な体型を正確に表現するためのモデルです。 このモデルは、N=6890個の頂点を持っており、頂点の重み付き和からP=23個の関節位置を求めることが出来ます。 下記が、VIBEのアーキテクチャーです。入力
手っ取り早く、やられたシーンを抽出したい人向け OBSと連携するWebアプリを作成しました 詳細はこちらの記事をご参照ください。 スプラトゥーン3で、やられたシーンをOBSのリプレイバッファで自動保存する 以前のWebアプリ スプラトゥーン2 やられたシーン自動頭出しツール「iKut」 Dockerイメージ こちらでDockerイメージを配布しています。 はじめに スプラトゥーン2を発売日からやりこんで3年になります。2年かけて全ルールがウデマエXに到達しましたが、そこからXパワーが上がらずウデマエX最底辺で停滞しています。最近は自分のプレイ動画を見て対策を立てるのですが、すべての動画を見るのは大変です。そこで敵にやられたシーンは特に修正すべき自分の弱点があると考え、そこだけを自動で抽出するシステムを作ってみました。 ↑このシーンを切り出します。 画像の引用 この記事では任天堂株式会社のゲ
こんにちは、斎藤 康毅(さいとう こうき)といいます。ここ1年間はずっと本を書いていました。『ゼロから作る Deep Learning ❸ — フレームワーク編』という本です。最近ようやく、原稿を書き終わろうとしています。 この本は「ディープラーニングのフレームワークを作ろう」という本です(野心的にも、オリジナルの「フレームワーク」をゼロから作ります)。世界中を見回しても、ほとんど類書がないような本になっていると思います。これから先、できるかぎり良い本になるよう、最後の最後までブラッシュアップしていく予定です。 さて、今回も前作同様に「公開レビュー」を行います。興味のある方は、オンラインで原稿を読めるページを用意していますので、チェックしてみてください(無料です!)。問題に感じた箇所や改善すべきと思った点など、コメントいただけますと幸いです。どんなに小さな指摘や疑問でも構いませんので、気軽
AIの需要が劇的に増えている昨今、ディープラーニングで膨大な量の計算処理を必要とするシーンが増えています。そんな中、ディープラーニング用にGPUが注目される理由やGPUの選び方について、GPUの世界的リーディングカンパニーNVIDIA(エヌビディア)社の佐々木 邦暢氏に伺いました。 GPUの成長とNVIDIA社の歴史 カゴヤ・ジャパン株式会社 森: まずは佐々木様が御社で担当されている業務内容をお聞かせ下さい。 佐々木様: わたしはエンタープライズマーケティングという部門に所属しておりまして、その中でもハイパフォーマンスコンピューティングという分野や、AIを支えるディープラーニングの分野のマーケティングを担当しています。またDeep Learning Instituteというハンズオントレーニングのイベントの企画・運営に携わっております。 ―ありがとうございます。 今回お話しいただくディー
最近はブロックチェーンまわりばかりだったが、 前々からやっていた麻雀AIの強化学習について一旦まとめておく。 麻雀好きの人から機械学習興味ある人まで読めるよう書いたみたけど、どうでもいいとこは飛ばしながら、分からないとこあれば気軽にコメントください。 概要 一人麻雀のAIを深層強化学習で作ってみた 自分が持っている牌すら選択できない状況から、ある程度有望そうな牌を選べるところまで学習した 最終的には、18順の一人麻雀でテンパイ率60%弱までになった ただ、他の手法に比べるとかなり弱く、まだまだこれからといった感じ 背景 麻雀AIでは、「どの牌を切るか?」「鳴くべきか?」「リーチすべきか?」など多くの判断が必要だが、 その中で基本となるのは「どの牌を切るか?」といった部分であり、点棒状況や相手の手を考慮しないシンプルなものを一人麻雀という。 ※ここでいう一人麻雀は副露しないものとして以降扱い
誰向け 深層学習をすでに理解して画像の分類から物体検出への仕組みをマスターしたい方へ 数式が多いのでコード確認したい方は下記へGo 具体的な実装例 おまけ Kerasに関する書籍を翻訳しました。画像識別、画像生成、自然言語処理、時系列予測、強化学習まで幅広くカバーしています。 直感 Deep Learning ―Python×Kerasでアイデアを形にするレシピ 目的 物体検出に関しての技術を体系的にまとめてコードベースまで理解したかったので書きました。 良書である画像認識の物体認識の章を参考にこの記事を作成しています。 画像認識 全体像 大きく分けて3つのフェーズに分かれます。 1: 物体領域候補の抽出 画像中から物体の領域候補を抽出する手法になります。精度と速度を左右する部分になります。図のように小ウインドウ(バウンディングボックス)を用意して一定の画素数ずらしながら領域候補を抽出する
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 最近ではDeepLearningを使って識別制度が上がったという話をよく耳にするようになりましたよね。 他の機械学習と組み合わせて最強の囲碁ソフトを作ったとか、自動運転に応用するとか、株取引をやらせるとか、最先端の技術はすごいなあと思います。 なので僕もやることにしました。 そもそもDeepLearningが一体何者であるにせよ、我々の生活を豊かにしてくれなければ、どんな凄いことをしても「へーすごいなー」で終わってしまう話です。自分の手元に届かなければ意味がない。なので僕は噂のDeepLearningに、僕自身の生活を豊かにし
This page is a collection of select recorded lectures on AI given by Lex Fridman and others. Deep Learning (2020) Notice: Undefined index: title in /var/www/lex_fridman/wordpress/wp-content/themes/twentytwelve-child/grid-vid.php on line 68 Notice: Undefined variable: extra1 in /var/www/lex_fridman/wordpress/wp-content/themes/twentytwelve-child/grid-vid.php on line 98 ">
IWR、ビデオ内において、動きは同じに人の外観だけを入れ替え可能なdeep learningを用いた手法を発表 2018-09-16 IWR Heidelberg Universityの研究者らは、ビデオ内の人物において、動きはそのままに人の外観だけを入れ替え可能なdeep learningを用いた手法を発表しました。 論文:Towards Learning a Realistic Rendering of Human Behavior 著者:Patrick Esser, Johannes Haux, Timo Milbich, Björn Ommer 上段が動きの元となるバットスイングの画像で、下段3つが本提案手法の出力結果 本論文は、モーションキャプチャデータとRGBビデオデータから訓練できる人間の行動の現実的な制御とレンダリングのための、データ駆動型機械学習フレームワークを提案します
https://blog.tensorflow.org/2018/05/real-time-human-pose-estimation-in.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhGNfQavEiYMs5I_9uJf03gy79HVgHd-dJUV-C7mgOMs6GF5Ll0s55CTORGS-PfiZ72Sc6WJQhbktAPc5Q8CuqTfRx1x4Fju779bSb_gE1F_2hjvnj61OcWDrvoRfInJsB18-SvxVtvTVY/s320/p1.gif May 07, 2018 — Posted by: Dan Oved, freelance creative technologist at Google Creative Lab, graduate student at
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近Bitcoinの方が流行っている印象を受けますが,ディープラーニングの勢いは依然強く,Google Trendを見ても未だに検索数は上昇傾向にあるように見えます. 実際体験してみるとわかりますが,ディープラーニングはとんでもなく強力な機械学習の手法で,うまく使いこなせれば強力な武器になります.しかし,「ディープラーニングにはPhDが必要だ」「ディープラーニングは素人には学べない」といった幻想もちらほらあり,興味はあってもなかなかこの世界に飛び込めない人も多いのではないでしょうか? この記事の目的 この記事では筆者がディープラーニング
Gorgeous interiors of your Deep Learning ComputerIf you’ve used, or are considering, AWS/Azure/GCloud for Machine Learning, you know how crazy expensive GPU time is. And turning machines on and off is a major disruption to your workflow. There’s a better way. Just build your own Deep Learning Computer. It’s 10x cheaper and also easier to use. Let’s take a closer look below. This is part 1 of 3 in
Last year we held a machine learning seminar in our London office, which was an opportunity to reproduce some classical deep learning results with a nice twist: we used OCaml as a programming language rather than Python. This allowed us to train models defined in a functional way in OCaml on a GPU using TensorFlow. Specifically we looked at a computer vision application, Neural Style Transfer, and
Deep Learning_ Practice and Trends - final.pdf - Google ドライブ 明けましておめでとうございます、本年もよろしくお願いいたします。新年一発目の記事はただの備忘録です。 こちらは、旧知のバクフーCEO柏野さん(@yutakashino)からご紹介いただいたNIPS2017チュートリアル。 (´-`).。oO( 今年は深層学習にいい加減なことを言う人が近くにいた,らせめてNIPS2017のこのチュートリアルくらいは押さえてよ,言うことにします."Deep Learning: Practice and Trends Tutorial " https://t.co/Q23KftmdXp https://t.co/tK7mnwmgtJ たぶんこの辺りが「常識」でしょうか… )— Yuta Kashino (@yutakashino) 2018年
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く