サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
qiita.com/MuAuan
Pythonでインストール出来るというので、遊んでみました。 ほぼ、以下の参考のとおりです。 参考②を真似してpytorch-lightningでグー・チョキ・パーをMLPしてみたのが、特に苦労しました。 つまり、画像とかでなく、普通?の自前データデビュー出来ました。 【参考】 ①ML solutions in MediaPipe ②Pythonパッケージ版のMediaPipeが超お手軽 + 簡易なMLPで指ジェスチャー推定 インストールは以下で非常に簡単に入りました。 なお、Raspi4ではversionが未対応とエラーが出て入りませんでした。 やったこと 全部動かしてみる?? handsの詳細 データ蓄積 データ分析する(散布図、cos類似度) matplotlibでプロットしてみる 自前データのdataset, Dataloader networkと学習 predictionしつつ描
表題のとおりです。 今回は以下の参考のとおりに自前学習したまゆゆとアニメ顔が微笑んでくれるかやってみました。 【参考】 StyleGanで福沢諭吉を混ぜてみる 結論からいうと以下のような笑顔画像が得られ成功しました♬ 癒されますね♬ やったこと ・自前の画像を学習する ・笑顔画像を生成し、動画を作成する ・アニメ顔画像もやってみる ・自前の画像を学習する まゆゆは、前回と同じというか前回のnpyデータを利用しました。 一方、アニメ顔画像は同じようにalignしようとしましたが、顔の作りが違いすぎてalignできませんでした。 しかし、アニメ顔画像についても同様に学習しました。 その結果、学習は出来たようで、以下の画像が出力できるnpyが取得できました。 1 2 当然のように、これらの画像を利用してMixingもやってみました。 しかし、。。。結果は以下のとおり、 Mixing in pro
はっきり言ってExampleを利用するだけで、よく流れている動画(男性⇒女性とかの変換)はすぐ再現出来、やってみるとほんとに凄い。 今回は、その一番の入り口だけやってみての紹介記事です。 参考は以下のとおりです。 【参考】 ①StyleGANを使ってみた ②StyleGanで福沢諭吉を混ぜてみる ③Puzer/stylegan-encoder ④NVlabs/stylegan 現在、styleGAN2も出ているようですが、まずはStyleGANの最初の一歩をやってみて、実感を持ちたいと思います。 その結果、ほぼ1日で以下の動画が作成できたので、気になったところを記事にしておきます。 ※老人~幼児~老人に変化するものも作成しましたが、$512^2$でも10MB超えてしまいました やったこと ・環境 ・pretrained_example.pyを動かす ・潜在空間を動かす ・Gifアニメーショ
今回は精度向上に挑戦してみた。 結果からいうと、どうも使えないかなって感じがする。 以下の二つを参考にした。 【参考】 ①Pythonで日本語OCRを行うときのメモ ②甲骨文字で書かれた文章をOCRで読み取れるようにしてみる やったこと ・読込・解釈するモードを変更してみる ・精度を上げるために、 ①学習済データを変える ②学習してみる ・読込・解釈するモードを変更してみる 参考①から以下の読み込みパラメータを変更できることを知ったので、これをやってみた。 結果は、やはり6が一番よさそうである。 ※詳細は省略します pagesegmode values are: 0 = Orientation and script detection (OSD) only. 1 = Automatic page segmentation with OSD. 2 = Automatic page segme
今回は、だましのテクニックの話、その根本のところで「説明責任」の話があり、以下の紹介記事①にあるようなことはどうすればできるのか興味がわいたのでやってみました。 (以下は、参考記事①からの引用です) 「写真のように"犬"と"猫"を判別する分類器にGrad-CAMを適用した場合、"犬"、"猫"のそれぞれについて特徴部位がヒートマップで強調されます。"犬"の特徴部位を可視化した場合には、犬の顔がヒートマップで強調され、"猫"の特徴部位を可視化した場合には、猫の胴体の部分がヒートマップで強調されています。...そこで拡張手法であるGuided Grad-CAMを適用して高解像度の画像を出力した結果が、ヒートマップ図の右隣の画像です。犬の画像では犬の顔の特徴として垂れた耳、目、頬などが可視化されているのが見て取れます。同様に猫の特徴部位として胴体の縞模様に着目していることがわかります。」 元画像
前回の記事でグラフは相関が見えていることを示したが、今回は全てのデータを使って、本格的にクラスタ分類し、どの騎手がという分析をする。 ただし、重要な知見として、以下の事項は教訓として意識する必要がありそうです。 「最も重要な点は,クラスタリングは探索的 (exploratory) なデータ解析手法であって,分割は必ず何らかの主観や視点に基づいているということです.よって,クラスタリングした結果は,データの要約などの知見を得るために用い,客観的な証拠として用いてはなりません.」参考②から引用 また、今回の記事は、ほぼ参考①のコードと技術を使っています。 【参考】 ・①k-meansの最適なクラスター数を調べる方法 ・②クラスタリング (クラスター分析) ・③クラスタ数を自動推定するX-means法を調べてみた やったこと ・データの事前処理をする ・競馬騎手データの全データを使う⇒相関が見え
新たなSSDモデルを作成して検出精度(val_lossとval_acc)と性能(fps)について知見を得たいと思います。 今回は、そもそもVGG16とかVGG19ってどんな性能なのか調査・検証しました。 VGGの名前の由来が気になって、ちょっとググってみました。 ※今回これが一番価値ある知識かも ・SONY Neural Network Console でミニ VGGnet を作るによれば、 「名前の由来は、VGGチームが作った、畳み込み13層+全結合層3層=16層のニューラルネットワークということで、VGG-16となっているそうです。」 だそうです(笑) そして、オリジナルは以下のようです。 ・Visual Geometry Group Department of Engineering Science, University of Oxford 因みに、VGG16は、Caffe-zoo
RasPiで物体検出しようかなと思い立ち。。。 とりあえず、USBカメラを入手して使ってみた。 もちろんRasPiCameraもついているが、ここにUSBカメラをつなげて、どうにかなるか。。 とりあえず、DL使った物体検出は環境も性能も難しいので、以下の二つをやってみたので、記録しておこうと思う。 1.MJPG-streamerを使って、Wifi内動画配信 2.OpenCVを使って、動画処理と保存 どちらもほぼまんま動いたので苦労はしなかった! 今回は、1のMJPG-streamerで遊んでみたを記載する。 MJPG-streamerを使って、Wifi内動画配信 参考サイトのとおり、インストールすると動く。 【参考】 ・第8回: MJPG-streamerのインストール ・Raspberry Pi でWebカメラ (4) M-JPEG streamerをつかったストリーミング配信 ・Ras
このページを最初にブックマークしてみませんか?
『MuAuan - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く