サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
blog.seishin55.com
はじめに 今回はECCV'20に採録された2D Pose Estimationの論文をご紹介します。 Pose Estimationのデータセットとしてよく使われるCOCOデータセットは身体の17点の2次元特徴点の位置を推定することが一般的ですが、今回の論文ではCOCOの画像に対して、顔・両手・両足に詳細なアノテーションを追加することでより詳細な2次元特徴点の推定を可能にしました。 また、そのデータセットで実際にPose Estimationを行い、既存の手法に対して大幅に精度向上したモデルであるZoomNetを提案しました。 [2007.11858] Whole-Body Human Pose Estimation in the Wild 著者はSenseTimeの方々が中心で、ECCV'20 Posterに採録、2020/07/23 on arXivとなっています。 既存の2次元特徴点
はじめに 研究に関わる人であれば、何かしら論文を管理していると思うのですが、どのようにやっているのでしょうか?シンプルに、フォルダ管理とかエクセル管理とかでもできそうですが、論文管理用のツールはいくつもあって、私はそのようなツールを使っています。 これまでは、papers3という論文管理のツールを使っていました。最初は、Mendelyというツールを使っていたのですが、どうも動作が重く、思うように動いてくれなかったので、研究室かどこかからかの評判を聞いて、papers3を使うようになりました。実際、買い切りで$100未満で十分な機能でしたが、MacのOSをCatalinaに変えてから動作しなくなったので、この機会に別のツールでいいのがあれば乗り換えようと思うに至りました。 調べてみると、思ったより記事は少なかったので、簡単にまとめておこうと思いました。多分、研究室の先輩とかに聞いて使うとかそ
はじめに 今回は、近年のDeep Metric Learning (深層距離学習)の発展を再評価して、論文で論じられている程のパフォーマンス向上が実際にはなかったことを実験的に示した論文を紹介しつつ、Deep Metric Learningについて紹介しようと思います。 [2003.08505] A Metric Learning Reality Check この論文は2020/03/18にarXiv上に上がった論文で、この記事執筆段階では採録情報は確認できていません(ただし、フォーマットはECCV的雰囲気)。 実験は、著者のベンチマークツールを使って行っているとのこと。 github.com Deep Metric Learningとは 概要 Deep Metric Learningとは、意味の近い入力画像同士の距離が近く、逆に、意味の遠い入力画像同士の距離が遠くになるような空間に埋め込
はじめに 今回は先日Amazonが公開し、CVPR'20にも採録された最新の仮想試着の論文について説明したいと思います。私自身、同系統の仮想試着の研究を行っていたので、周辺知識や個人的な見解も交えて説明をしたいと思います。背景が長いのですが、読むと仮想試着の研究について雰囲気がつかめると思います。 O-VITON [Neuberger+ CVPR'20] Image Based Virtual Try-on Network from Unpaired Data 注目ポイントは、以下の2点です。 学習に使うデータセットの条件が緩くなり、かつ、精度も既存手法に勝る 既存手法では特定のアイテムだけの着せ替え(例: トップスだけの着せ替え)だったが、複数のアイテムを一度に着せ替えられるようになった (以下、説明では各論文から引用した画像を用います。) 以下が、結果の図です。「Query Image
はじめに 最近では、Deep LearningのライブラリとしてPyTorchが利用される機会が多くなっています。私自身も以前はTensorflow/Kerasを利用していましたが、現状はPyTorchを使うことがほとんどです。 しかし、PyTorchは実装がしやすいものの、モバイルやエッジデバイスへのデプロイを考える上では不安な点が残ります。今回は、PyTorchを様々なプラットフォーム上で利用することを考えたときにどのような方法があるかを整理します。 モバイル 選択肢の整理 現在、モバイル (iOS/Android)へのデプロイを考えるときにメジャーな選択肢が3つあります。 Core ML (Apple) PyTorchをonnxに変換し、onnxをcoreMLに変換する Tensorflow Lite (Google) PyTorchをonnxに変換し、Tensorflow/Kera
はじめに 今回は、自然言語界隈に発展をもたらし、デファクトスタンダードとなったTransformerのモデルを物体認識に取り入れた論文(End-to-End Object Detection with Transformers 2020/05/26 on arXiv)を紹介します。 [2005.12872] End-to-End Object Detection with Transformers (記事中の図は特に言及がなければ論文のもの) こちらの論文はFacebook AIから出ており、blog記事も公開されています。概要がコンパクトにまとまっており、読みやすいです。概要だけ知りたい方にはおすすめです。 ai.facebook.com また、DL輪読会にて発表されたスライドもあるので、技術的内容を一通りさらいたい方におすすめです。 [DL輪読会]End-to-End Object D
はじめに 先月、YOLOv4が公開されました。位置づけとしては、物体認識のポピュラーなモデルの1つであるYOLO系統の最新版となります。結果がすごいのはぱっと見分かりましたし、内容も既存の手法をサーベイ・実験頑張って、精度上げていったんだなあくらいのさら読みはしていましたが、もう少しちゃんと読んでおこうと思い、読んでみたので紹介します。 私自身は物体認識の研究者というわけではないですが、なんだかんだ物体認識周りの記事をいくつか書いているので興味のある方は以下もご参照下さい。 note.com note.com [DL輪読会]Objects as Points from Deep Learning JP www.slideshare.net さて、このYOLOv4ですが、元々のYOLOの作者であるJoseph Redmon氏は著者ではありません。Jeseph Redmon氏は研究の軍事利用や
RNN概要 LSTMについての説明が中心。 RNNのRがrecurrentの頭文字であることからも表されるように、RNNは同じネットワークを繰り返して前のネットワークで学習した結果の一部を後続のネットワークに渡すようなことをしています。それは前のネットワークの情報も現在のネットワークで使えるからいいよねって話なのですが、場合によっては直前の情報だけじゃなくて結構前のネットワークの情報も使いたいわけです。それをいい感じにやってくれるのがLSTMというわけです。以下の記事がこのあたりの説明をもっとちゃんと、詳しくしてくれてる記事です。 最近のアテンションというやつについても機会があればまとめたいところです。 Tensorflow tutorialにgreat articleとして紹介されてた記事。 Understanding LSTM Networks -- colah's blog (日本語
はじめに 普段から記事を書くことは多いのですが、アウトプット先を複数抱えており、投稿先を自分の中で整理したいと思いました。結論として少し冬眠していたこのblogをアクティブにしようとする宣言の意味も大きいのですが、それと同時にアウトプット先について考えたこともまとめておこうというのがこの記事の趣旨です。 エンジニアが記事を書くことについて 最近では、エンジニアは積極的にアウトプットしたほうがいいという論調の文章を見かける機会も増えたような気もしますし、Youtuberをはじめとしたインフルエンサーの波をエンジニアも受けたのか、文章としてのアウトプットにとどまらず、動画の配信やインフルエンサー化する方もいらっしゃいます。私自身、3、4年くらい各所で記事を公開していまして、QiitaのContributionも現段階で7000を超えています。それによって、恩恵を受けるところもあり、アウトプット
大学の課題で群知能(Swarm Intelligence)の実装が課題に出て、PSO(Particle Swarm Intelligence) と ABC(Artificial Bee Colony) のアルゴリズムを実装することになりました。 そこで、コードの紹介(github)と参考になったものを載せておきます。 群知能(ぐんちのう、むれちのう、Swarm Intelligence, SI)は、分権化し自己組織化されたシステムの集合的ふるまいの研究に基づいた人工知能技術である。( 群知能 -Wikipedia- ) 群知能はたくさんのエージェントを用意してそれぞれが各々相互作用を起こしながら最適解を探し出す人工知能技術です。それぞれのエージェントを中央管理するわけではなく、それぞれが自発的に行動し、結果的に全体としての創発をもたらすところが特徴にあります。 群知能のアルゴリズムは自然界
はじめに Tensorflowを使う際にコードによって若干の違いが見られたのでその点を理解しておきたいと思います。 run() と eval() InteractiveSession() と Session() この2点に違いについて説明します。 run() vs eval() 例えば、以下のような簡単なMLPの実装の一部を見て下さい。 cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=t, logits=h_fc)) train_step = tf.train.GradientDescentOptimizer(0.1).minimize(cost) correct_prediction = tf.equal(tf.argmax(h_fc, 1), tf.argmax(t, 1)) accuracy =
これまでpythonをそこまでたくさん使わなかったのでそんな気にしなかったですけど、そろそろちゃんと使うようになったのでちゃんとpythonを使いやすくしとこうと思います。 なかなか良さ気な記事があったのでこれを参考にしました。 qiita.com anacondaは、pythonのパッケージをまるっとまとめてインストールしてくれる便利なやつみたいです。というわけでanacondaをインストールします。 ただ、今後2系と3系を都合によって分けなきゃいけないので2系のanacondaと3系のanacondaどっちも管理したかったのです。 それで、この記事にあるようにpyenvを入れてその中で複数のanacondaを管理すればオーケーでした。 pyenvはRubyでいうrbenvとかRVMですね。そのなかで簡単にバージョンを切り替えられます。 $ brew install pyenv $ ec
ディープラーニングをするときは処理速度を上げるためにGPUを使いたいです。GPUを使わないとなれば、大きなデータセットは扱いたくはないです。この前、CPUでやろうとして3日くらいかかった(途中で諦めた笑)やつもGPUだったらどれだけ楽になったことか。 ところで最近、新しいMacbook Pro(2016 late, 13 inch)を買いました。こいつにはGPUがあるとのことで使う気満々でした。 よし、使ってみよう ひとまず、Tensorflowでやろうと思って調べたら以下のような感じで記事が出てきて、やっぱり出来るんだと嬉しくなりました。 qiita.com qiita.com さて、Tensorflowのドキュメントにもご丁寧にMacのGPUのセットアップ方法が書いてあったので指示通りにやりました。ほんとにちゃんとやりました。 出来ない。なんかエラーが出てうまくいかないのです。 CUD
記事のPV数ランキングを実装したかったので、Redisを利用して実装してみたいと思います。 ちなみに、Redisを使うに至った経緯は、 MySQLにPVテーブルを持たせると負荷上がりそうだから避けたい。 とはいっても簡単にランキング機能を実装したい。 じゃあ、Google AnarithicsのAPIかRedisが良さそう。 Redisで作ったことないしちょっと触ってみるか! といった感じです。 オススメの実装方法等ランキング機能実装の知見がある方はコメントにてご教示頂けますと幸いです。 というわけで、実装します。今回はlocal環境までしかやっていません。AWSのElasticCacheでproductionは用意しようと思っています。 準備 Rails + Redis + AWSでPV数を保存 こちらの記事が今回方針を立てる上で役立ちました。 $ brew install redis
複数のアプリケーションサーバーを用意して負荷分散をやろうと思いました。それで、それぞれに対して別々にdeployしたいなーと思いました。 今回やるのはAWS上のEC2の2台に対してそれぞれ別々にdeployします。 ここでやるのは、productionとstagingをそれぞれdeployするのではなくあくまでどちらもproductionにdeployするということです。 今回利用したのはこちらです。 github.com 普通にcapistranoの設定をした後に gem 'capistrano-multiconfig', require: false をGemfileに加えて、 Capfileの中のcapistrano/setupをcapistrano/multiconfig に変えれば準備オーケーです。 require: false入れないとうまくいかなかったです。 あとは以下のよう
このページを最初にブックマークしてみませんか?
『blog.seishin55.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く