皆さんこんにちは。 SHARPNELSOUNDという音楽レーベルで、DJ・トラッカー・コンポーザー・開発者として活動しているDJ SHARPNELと申します。 この記事は、memexさん主催のアドベントカレンダー「VR音楽活動のススメ Advent Calendar 2020」20日目の記事として書かせていただきました。 VR空間で(自分が)DJするところをカッコいい映像に残したい!VRのクラブで自分がDJしているところをカッコいい映像に残したいと思ったこと、ありますよね。 映像配信イベントに出演する際に、リアル側の人たちと同じくらいイケてるカメラワークで自分のプレイを撮影したい。Dommuneみたいなバッチバチなカメラワークで自分を撮ってほしい。でもワンオペ! みたいなこと、よくあると思います。 この記事では、VRDJクラブでDJする際のカメラワークについて、これさえやっておけばとりあえ
全体像 全体としてはこんな感じです。レンズを通して顔の像を作るところは光学の世界、センサ面に結像された像を読み取る電子の世界。そして、センサと PC の橋渡しを USB で行う通信の世界、受け取ったフレームを処理するソフトウエアの世界、という流れで説明していきます。 物理(光学)の世界~一眼とWebカメラ(とスマホ)の違い~ 一番大きな違いは設計思想そのものです。レンズとセンサの大きさ、撮影設定などの柔軟性などに現れています。 一眼レフ:でっかいレンズ × でっかいセンサ = つよい Web カメラ:写ってればいいでしょレベル~産業用レベル スマホ:目的ごとに複数のカメラモジュールを用意したりソフトで後処理したり。ともかく小さく薄く。 光学の世界で大事なことを一つだけ(機種選択の基準として) ピント合わせ の方式はどうなっているか? マニュアルフォーカス → 自分でリング回す:ピント合わせ
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米スタンフォード大学と米Adobe Researchの研究チームが開発した「Contact and Human Dynamics from Monocular Video」は、1台のカメラで1方向から撮影された映像を用い、人物の動きを正確に3次元で再現する、深層学習ベースのフレームワークだ。 これまでも単眼カメラ撮影からの姿勢推定は行われてきたが、足が浮く、ジリジリとした振動が発生、足が地面を貫通する、体が極端に傾くといった、物理的制約に反したエラーが起きていた。特に、側面から確認するとそれらが顕著に表れた。 これらのエラーを改善するため、学習した姿勢推定と軌道の最適化による物理的推定を組
Abstract Existing deep models predict 2D and 3D kinematic poses from video that are approximately accurate, but contain visible errors that violate physical constraints, such as feet penetrating the ground and bodies leaning at extreme angles. In this paper, we present a physics-based method for inferring 3D human motion from video sequences that takes initial 2D and 3D pose estimates as input. We
株式会社アトラックラボは国立大学法人 佐賀大学、銀座農園株式会社と共同で、機械学習を活用した人認識による人追従型収穫物搬送ロボット車を開発したことを発表した。 カメラと人との距離を算出し、距離に応じて自律追従 人追従型収穫物搬送ロボット車は搬送ロボット車に装着したカメラ映像をもとに、機械学習により人の大きさを検知し、カメラと人との距離を算出、距離に応じて搬送ロボット車は人追従走行と停止を判断して自律追従する。 搬送ロボット車を追従させたい人は簡単なビブスを着用するだけで、特殊なマーカーなどを身につける必要はない。また葉などが茂り、カメラが人の足元まで映らない場合も、適切に人の大きさが認識できるように機械学習を行っているという。 カメラ映像をもとに機械学習により人の大きさを検知し、距離算出と人追従走行と停止を行う制御アルゴリズムは、佐賀大学教育研究院自然科学域理工学系の佐藤和也教授が開発、移
映像編集をメインとしたMacintoshとカメラ、ワタシの興味関心の向く モノ関係の欲望とレビューのモノローグ SINCE 2006 このblogはアフィリエイト広告等の収益を得ています。収益はすべてモノローグに役立つ無駄遣いに使わせていただきます。 打合せや会議がZoomやGoogle Meetベースになってきて、GW明けからうちの大学でもオンライン授業が始まります。だけど、ワタシの書斎に鎮座する超弩級MacintoshであるMac Pro 2019にはカメラが付いていません。リーズナブルなWEBカメラは売り切れて手に入らず、先日書いたiPhoneをビデオ専用参加者にするのもありだけど、いまひとつスマートじゃない。 SIGMA fp を Web カメラとして使うのが流行っているよう(以下、UVCな話は丸投げで)ですが、そんな予算はない、HDMI to USBなキャプチャーツールを入れる
IoT はデバイスからデータを取る存在から、様々な解析をしたりエッジ側でよりインテリジェントな処理が求められる存在へと変化してきています。この記事では、 Edge TPU で複雑でインテリジェントな処理をエッジ側で実行し、GCP でその結果をリアルタイムに可視化、解析する方法を紹介します。 TL;DR — 以下のリポジトリの手順に従うと、Edge TPU と GCP上の IoT データ分析基盤を構築できます。 https://github.com/google-coral/project-cloud-monitor Edge TPU とはEdge TPU は、Google が開発した TensorFlow Lite 形式の機械学習モデルを高速に演算(推論)するための ASIC のことです。2018年に発表されるまで、 TPU (Tensor Processing Unit) というとクラウ
皆様こんにちは。 ご無沙汰しております、ますくです。 新しい仕事もなかなかにハードで、家に帰れなかったり、職場に泊まったり、帰宅できてもバタンQでなかなか記事が更新できなかったりと…関係各所にご迷惑をおかけしておりますorz だいぶ前から企画していた『誰にでも安価に作れる本格マテリアルスキャナー』企画ですが、昨年末の告知から大変長らくおまたせしてしまいました。ようやく念願叶ってその全容を紹介をして参りたいと思います。 from Substance Designer これは、100均の素材で作成した装置と、普通のミラーレス(Sony α7rm2)と普通のマクロレンズ(SEL90M28G)で身近な布を撮影し、普通のLightroomで写真を切り出し、普通のSubstanceDesignerで質感再現をしたものです。 自分たちでも驚くほど良くスキャンできたと思います。 もちろん、必要な道具さえあ
スタンフォード大学など、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表。行動予測に活用など 2019-02-21 スタンフォード大学やUberATGなどによる研究チームは、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表しました。 論文:Learning a Generative Model for Multi-Step Human-Object Interactions from Videos 著者:He Wang, Sören Pirk, Ersin Yumer, Vladimir G. Kim, Ozan Sener, Srinath Sridhar, Leonidas J. Guibas 所属:Stanford University, Uber ATG, Adobe Research, Intel La
近く面白そうなイベントがあってサクッとカメラマン枠で参加することにした。 connpass.com このイベントに先立って、こういう記事もあってふむふむなるほど〜という感じで読んでいた。 qiita.com 実際のところ、カンファレンスカメラマンとしての小技はいくつかあって、この記事だと多分カンファレンス運営をする方々、参加されている方々の意見だったりすると思う。記事がちょっと一方的な感じもしたので、それじゃあ我々カンファレンスカメラマンはどういう風に立ち回ればよいのか?みたいなところを書いていくことにした。 撮るときにシャッター音がうるさいカメラマンは嫌だ 静音撮影モード(ミラーダウンのタイミングをずらしてシャッター音を小さくする)が付いているカメラであればそれを使うといいでしょう。また、発表中であれば開始直後の拍手のタイミングでブラケットモードで露出を変えつつ6枚ぐらいとるチャンスはあ
2019年12月12日追記:家電会議を終了しました。ご利用いただいた皆様、ありがとうございました。 2016年9月8日にサービスを開始して以来、ユーザーの皆さまにご利用、ご愛用いただいてきた「家電会議」ですが、2019年12月12日をもちまして終了させていただきます。また、これに伴い、ソニーホームエンタテインメント&サウンドプロダクツ株式会社が運営するVideo & TV SideViewに、家電会議の一部ページを利用し提供していた「話題のTVニュース」枠も終了します。ご利用いただいているユーザーの皆さま、大変申し訳ございません。深くお詫びいたします。 家電会議は、はてなブックマークの機能や膨大なブックマークデータを活用し、機械学習などを用いながら家電やエンターテイメント情報に特化した実験的なサイトでした。これらのページについては、2019年12月12日以降はご利用いただけなくなります。た
はじめに Azureのサービスを利用してWebカメラの前に現れた人を記録する環境を構築したため、一例として記載します。 構築イメージ カメラの画像は、Webカメラ + Raspberry Pi + Windows 10 IoT Core + UWP で定期的にAzure Storageにアップロードするようにしました。 Azure Functionsを トリガー: Azure Storageへの格納 アクション: Logic Appsをキックするように設定しました。Azure Functionsの設定 Logic AppsはFace APIのDetect facesを使用して画像に人がいるか否かを判断しています。存在した場合はDocumentDBにjsonと画像を格納します。 Azure Storageの設定 Webカメラの設定 Azure Functionsの設定 参考 https://
はじめに 以下の3点を読んでから記事を読んでください。 この記事は,私の経験からなる勘違いで構成されております 私の考えたRTL記述のためバグが含まれている可能性がありuse case以外では動作しない場合があります ZYBOを使用した実装例を記載していますがI/Oが死んだとしても責任を負いかねます OV7670は大学でCyclone Vに実装したことがありましたが、その中身はCQ出版の本を参考に実装しただけなので実際は良く分からず設計していました。社会人になってRTL設計の方法を勉強し、雰囲気を掴み始めたので資料作成の練習も兼ねてOV7670をやり直しました。 準備 環境 Vivado 2016.2 VGA対応ディスプレイ Windows 10(関係ない) 使用物 ZYBO aitendo OV7670カメラモジュール PMODとOV7670との接続出来る何か SCCB IF設計 SCC
さまざまなテクノロジーが集結するDIYの祭典「Maker Faire Tokyo 2016」で出展されていた「virtualGimbal」は、カードスロットに挿すだけでリアルタイムで撮影時の手ブレを補正するというSDカード型のデジタルカメラ用手ブレ補正装置。「趣味で作った」という域を超えた驚異の技術となっており、実際に手ブレ補正処理がどのように行われるのかがわかるテストムービーなども公開されています。 Yoshiaki Sato | Maker Faire Tokyo 2016 | Make: Japan http://makezine.jp/event/makers2016/yoshiaki_sato/ 以下は実際にMaker Faire Tokyo 2016でvirtualGimbalの出展ブースを訪れた人のツイート。SDカードの中にジャイロセンサを内蔵しており、撮影時の手ブレをリアル
やりたいこと 最近娘が生まれて二ヶ月経過し、そろそろ笑ったりするようになりました。今回のテーマは娘が笑った瞬間を逃さずにカメラで撮影する事です。ちなみにこういう子どもをネタにして行うハック、僕はこれを『親バカハック』と呼んでます。 TL; DR Intel Edison でカメラをセット、一定のタイミングで撮影しつつ OpenCV で粗く笑顔認識させてから Google Cloud Vision API で表情解析 笑顔だと判定された画像を Slack で飛ばして画像をいつでも見れるようにする。 かわいい笑顔が撮れたので最高でした。 ハードウェアセットアップ Intel Edisonを手に入れたのでそれを使って作ります。Edison は Arduino 拡張ボードなら普通のUSB web camera 対応しているので、それをただぶっさして使います。 Intel Edison はSDカード
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く