まえがき pytorchでの学習では画像をnp.ndarrayなどの形式で読み込んだあとに,並進・回転・ガウスノイズ付加など,様々な変換をデータ拡張で行います. その一つにJPEGで圧縮してブロックノイズを付加するというものがあります.データ拡張用のライブラリであるimgaugやalbumentationsでも実装されています. これが,メモリ上でJPEG圧縮をやってくれているとばかり思っていたのに,一旦ディスクに保存するというコードになっていた(だから遅い),ということが発覚. これはその顛末と対策です. imgaugのJpegCompression コードを見に行くと,PILでJPEGファイルとして一旦ディスクに書き込んだあと,imageioでそのファイルを読み込む,ということをしていました.
#実行 pyinstaller --onefile GUI-mediapipe-app.py #エラー Traceback (most recent call last): File "GUI-mediapipe-app.py", line 26, in <module> File "mediapipe/python/solutions/selfie_segmentation.py", line 54, in __init__ File "mediapipe/python/solution_base.py", line 229, in __init__ FileNotFoundError: The path does not exist. [36342] Failed to execute script pose_edge #エラーの原因 Mediapipeライブラリーは、プログラムが実行
機械学習のC++ Pythonのライブラリの1つdlibに気づいた。 PythonにはScikit-learnという強力なライブラリがあるが、 選択肢の1つとして考えておこう。 機械学習のライブラリ dlibのアルゴリズムの選択ガイド 機械学習のライブラリ dlibのアルゴリズムの選択ガイドが 図にしてありました。 こちらはscikit-learnのガイド ![Choosing the right estimator] (http://scikit-learn.org/stable/_static/ml_map.png) dlibの記事 SlideShare 20160417dlibによる顔器官検出 YouTube [dlib vs OpenCV face detection] (https://www.youtube.com/watch?v=LsK0hzcEyHI) YouTube Fa
OpenCVのインストールは上記の工程で完了し、以下のような事を出来るようになります。 画像の色空間変換 エッジ検出 顔認識 しかし、基本的な画像処理を最低限理解しておく必要があるので、次は「画像処理」について簡単に解説していきます。 以下は画像を読み込み表示させ、カメラからビデオをキャプチャする基本的なサンプルコードです。 # 画像を読み込む import cv2 image = cv2.imread('example.jpg') # 画像をウィンドウで表示 cv2.imshow('Image', image) # キーボード入力を待つ cv2.waitKey(0) # ウィンドウを閉じる cv2.destroyAllWindows() 上記のコードでは、cv2.imread()で画像を読み込み、cv2.imshow()で表示しています。 # カメラからビデオをキャプチャ cap = c
モチベーション とあるイベントで、ドライバーの眠気をアラートする仕組みを画像処理と温度センサーで実現する、そんな展示を見つけました。画像処理には知見があったので、よし俺もやってみようと思い立ったのが始まりでした。それと、眠くないのに「よく眠そうな顔をしている」と、大きく開く目ではないことから誤解を招くことがあり、本当は眠くないことを証明してやるぞ。という気持ちも重なりました。 完成イメージ 眠そうになったら「Sleepy eyes. Wake Up!」とやさしい心の声で起こしてくれる。 さぁやろう 流れは、こうです。 まず、顔を検出し、その顔の枠から目を検出する。 目の大きさを図って、開いている時と閉じている時の何らかの差を見つける。 その差を見つけたら、アラートを画面に表示させる。 差ってなんだろう。と思いながら。。。 OpenCVのHaar-like特徴分類器で実装してみるが、まばたき
会議の最中であるにもかかわらず、政治家が集中せずに手遊びしていたり居眠りしていたりする様子が中継に映り込むことがあります。これを、中継映像から機械学習と画像認識を用いて自動的に検出し、TwitterとInstagramのアカウントで映像付きで報告する仕組みが運用されています。 The Flemish Scrollers, 2021-2022 – Dries Depoorter https://driesdepoorter.be/theflemishscrollers/ Machine Learning Detects Distracted Politicians | Hackaday https://hackaday.com/2022/01/17/machine-learning-detects-distracted-politicians/ ベルギー人アーティストのドリス・ディポーター氏
製造現場で活躍広がる「画像×AI」、どういう場で生きるのか:スマートファクトリー(1/2 ページ) グルーヴノーツは、「製造×画像AI」をテーマに2020年4月14日、オンラインセミナーを開催。グルーヴノーツ アカウントエグゼクティブ 岩野敦氏が製造業向けのインフラ設備・機械の保全・安全管理業務における画像AIの活用事例などを紹介した。 グルーヴノーツは、「製造×画像AI」をテーマに2020年4月14日、オンラインセミナーを開催。グルーヴノーツ アカウントエグゼクティブ 岩野敦氏が製造業向けのインフラ設備・機械の保全・安全管理業務における画像AI(人工知能)の活用事例などを紹介した。 AIと量子コンピューティング技術を活用した「マゼランブロックス」 グルーヴノーツは福岡市に本社を置くソフトウェア会社で、社員数は約50人。AIや量子コンピュータを利用した組み合わせ最適化ソリューションなどを提
顔が別人に差し替えられた映像を初めて見たときはとても驚いて、気持ち悪いけれど、わくわくもしました。ディープフェイクっていうんだなあ、AIってやっぱり凄いなあと思いました。 ディープフェイクでしびれまくった動画がありまして、シャイニングのジャック・ニコルソンをジム・キャリーにしちゃったこちらの作品です。ジム・キャリーのシャイニングもめちゃくちゃ怖いです。 ディープフェイクの映像は顔のパーツの位置や輪郭に違和感を感じやすいですが、この映像はほぼ違和感がなくて感動します。 もとはGIGAZINEさんで知りました。シャイニングの他のシーンも紹介されています。
■緊急告知■ 杜野凛世フィギュア 100時間連続配信をYoutubeで実施します!! GW中、回転台の上に乗せた凛世のフィギュアを100時間放送し続けるだけの配信です。 開始時間は明日2日(土)の11時!#シャニマス #凛世100時間配信 ⬇️待機所⬇️https://www.youtube.com/watch?v=kZZt3OCrbDU&feature=youtu.be pic.twitter.com/khhkrddmTc — amiami_product (@amiami_products) May 1, 2020 【シャニマス】杜野凛世フィギュア 100時間耐久配信!! 〈amiami〉 体験版: 【シャニマス】杜野凛世フィギュア 30分間ミニ耐久配信!! 〈amiami〉 いえ、プロデューサーさまに、お喜びいただく…… それだけが、凛世の幸せなのです いや、なんていうか…… ちょっ
自動運転車向けLiDARの開発が過熱、新方式の提案が続々と:オートモーティブワールド2020(1/2 ページ) レベル4以上の自動運転システムにおいて重要だとされるLiDAR。本稿では「オートモーティブワールド2020」に出展したLiDARメーカーの最新技術を紹介する。 自動運転車に欠かせないセンシング技術。悪天候や夜間でも確実に周辺環境を認識するには、さまざまな検知方式のセンサーを組み合わせることが定石だ。その中で、ドライバーが関与しないレベル4以上の自動運転システムにおいて重要だとされるのがLiDAR(Light Detection and Ranging、ライダー)だ。可動部品をなくして信頼性を高め、小型化を図るのが各社のLiDAR開発に共通するトレンドだが、併せて求められる物体の検出精度向上に向けてはさまざまなアプローチがある。 そこで、本稿では「オートモーティブワールド2020」
ダーツが狙ったところに刺さるかどうか、投げた直後、つまり刺さる直前にお知らせすることで、0.2秒待てば分かることを0.2秒前に知って一喜一憂するためのアプリを作りました。 何を作ったか まず、的に向かってダーツを投げましょう。その様子をカメラで撮影し、その映像をもとにPCで姿勢推定を行います。推定された姿勢をもとに、ルールベースでダーツを投げたことをPCで検知します。 投てきを検知したら、1秒分のデータをさかのぼって機械学習モデルに入力し、ダーツがブル(中心)に刺さるのかどうか予測します。その際、Edge TPUという高速で機械学習の予測を行うデバイスを利用します。 機械学習の判定の結果、ブルに刺さると思ったら「ピンポーン」外れると予測されたら「ブブー」と音がなって知らせてくれます。この時点でまだダーツは刺さっていません。 もし、外れると予測されたら悲しいですよね。まだダーツは刺さっていま
Inkscape とは何ですか? Inkscape はベクター画像をプロフェッショナル品質で作成・編集できるソフトウェアです。動作OSは Windows, Mac OS X および GNU/Linux で作動できます。このソフトは世界規模のユーザーに、デザインのプロフェッショナルからホビー家にまで、様々な用途のグラフィック(イラスト、アイコン、ロゴ、ダイアグラム、マップ、ウェブ画像)の創作のために活用されています。 Inkscape は、 W3C オープン規格の SVG (Scalable Vector Graphics) を、ネイティブのフォーマットとして採用している、フリーでオープンソースなソフトウェアです。 Inkscape は洗練された描画ソフトであり、その機能の匹敵するのは Adobe Illustrator, CorelDRAW および Xara Xtreme 並みです。 様々
皆さんはAdobe税、納めてますか? 私はAdobeが大好きなので納めてます! 年間数万円しますが、納めないと仕事になりませんからね。 そんなAdobe税に衝撃の展開が訪れたのは今年の4月のこと。なんと、毎度セールで安く買えていたAmazonから、Adobe Creative Cloudの取扱い終了のお知らせが来たのです。 AmazonではAdobe Creative Cloudの取扱が終わっていた契約していたのはAdobe CCのコンプリートプラン(セール中)で、そのお値段はなんと月2700円。 Adobe公式だと月4980円かかるのでかなりの格安です。 昨年はAmazonでセールをやってくれていたので助かりました。 ……なんて言ってたら、こんなお知らせがメールボックスに埋まっていました。 Adobe Creative Cloud 定期購入版をご利用中のお客様へのご案内です。 まことに勝
(2096) The top choice of thousands of illustrators, designers, game developers and other pros, this vector graphics software can be used to create digital illustrations, concept art, unique graphics, logos, brand designs, web mock-ups and so much more. More info - about Affinity Designer (3199) As the only fully-loaded photo editor integrated across macOS, Windows and iPad, Affinity Photo 2 is fas
はじめに とある目的で、ディープラーニングで手を検出したいなと思いやってみました。最初は1から学習して全然性能が出なくて、絶望していたのですが学習済みモデルを使うことで簡単に高性能な検出器を手に入れることができました。頼るべきはネットの集合知ですね。特に@KzhtTkhsさんの以下ツイートに助けられました。 意外と無い不思議🐤 EgoHand Datasetを利用した以下の実装とかならあります🐤🐤https://t.co/h6U7ZENZI2 ハンドサインまでいれるとまず無いので、いつも自作しています……🐤🐤🐤 — 高橋かずひと@リベロ拝命🐤 (@KzhtTkhs) August 15, 2019 ネットに助けられたので、簡単に作りかたを記事にまとめてネットの海に放流いたします。 写真では1つの手ですが、原理的には、複数の手でも検出可能です(両手の検出までは自分でも確認してい
「ビッグデータEXPO東京 2015春」に展示しました「Deep Learningを利用したハンドサイン画像認識のデモ」について、全三回に分けて解説します。 今回は第三回、最終回です。デモアプリケーションの核となっている、ハンドサイン画像の学習について解説します。 by NagasawaKazuki 2015/05/11 Deep Learningによるハンドサイン画像認識デモ 解説 (第一回)Deep Learningによるハンドサイン画像認識デモ 解説 (第二回)Deep Learningによるハンドサイン画像認識デモ 解説 (第三回) はじめに ISPは、2015年3月12日(木)、13日(金)にザ・プリンスパークタワー東京で開催された「ビッグデータEXPO 東京」に出展しました。 ブースでは「Deep Learningを利用したハンドサイン画像認識のデモ」と「Deep Learni
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? (2020/12/3訂正:論文中の単語ConfidenceとConfidence score(信頼度スコア)について本項での表現が紛らわしかったのでその修正と合わせて大幅に追記させていただきました。) 本稿は,YOLO【You Only Look Once: Unified, Real-Time Object Detection】,を簡潔に紹介したものです. 本項では,YOLOの理解をする上で物体検出の歴史を辿りながら,わかりやすく記述することを心がけました. また,YOLOの論文の内容を忠実にお読みになりたい方は「YOLOv3 論文訳
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く