はじめに 最近、3D業界で大きな衝撃を与えた「3D Gaussian Splatting」1について、ご存知でしょうか?数少ない写真から、目を奪われるほど美しい三次元シーンを再構成できるデモを見て私も大感動しました。なぜこんなに美しいのか、どんな技術で実現したのか、興味が湧いています! "普通の3D物体ではなく、カメラの移動に合わせて、水面に映る景色も正確に表現しています。これはなかなか凄い..." 私も時間をかけて論文や公開されたコード2を勉強しました。本家の実装はCUDA化されており、難解な部分が多く、論文に書かれていないこともあります。そのため、「3D Gaussian Splatting」を勉強したい人にむけ、わかりやすい解説記事を書こうと思いました。単に概念や考え方だけでなく、ゼロから再実装できるように、すべてのロジックを数式として整理し、徹底的に解説しようと思います。 「3D
iPhone 15 Proで撮影してると「もうコレで良いのでは?」となる。それが、悔しい2023.12.14 20:0092,917 ヤマダユウス型 年間でシャッターを切る回数が増えそうです。 僕はスマホカメラでの撮影はほとんどしないタイプで、美味しそうな料理やキレイな風景と出会っても「これをスマホのカメラで残してもな〜」と思っていました。iPhone 15 Proで撮影するまでは。 常備カメラとして普段からリコーのGR3を持ち歩いているのですが、iPhone 15 Proを私物として購入してからはめっきり出番が減ってしまいました。理由はもちろん、iPhone 15 Proの画質に満足しているからです。これ僕的にはかなり、かなーり悔しい事案なんですよ…。 もっと厳密に言うなら「GR3などのAPS-C以上のデジカメを常備するカロリーに対して、iPhone 15 Proでカバーできる画質が自分
はじめに Blender。めっちゃ楽しいです。 仕事が終わって帰ってきてから、ほぼ朝の時間までBlenderにひたすら打ち込んで 休日の大半もBlenderに捧げるような生活をここ3週間くらい続けてきました。 ここまでの学びの整理と、Blender布教のために この記事に概要をまとめたいと思います。 Blenderの世界観 Blenderを始めるにあたって、まず第一にぶち当たる壁として 「3Dソフト特有の概念」があると思います。 他の、3Dソフトを触ったことがある人はすんなり扱えるかもしれませんが、 僕はなかったので、概念理解にちょっと苦戦しました。 Blenderの世界を構成する主な要素として シーン オブジェクト ライト カメラ これらが挙げられます。 シーンとは、 一つのBlenderファイル内に格納されている要素全てを包含する3Dワールドのようなものです。 オブジェクトとは、 一次
画像・映像を立体に変換する技術「Neural Radiance Fields(NeRF)」で「カメラが移動しながら撮影した長めの映像」を扱うのは難しく、どうしても品質に難がありましたが、韓国科学技術院や国立台湾大学、Meta、メリーランド大学カレッジパーク校の研究者らが、長めの映像からでも品質の高い3Dデータをレンダリングできるようになる手法を編み出しました。 [2303.13791] Progressively Optimized Local Radiance Fields for Robust View Synthesis https://doi.org/10.48550/arXiv.2303.13791 Progressively Optimized Local Radiance Fields for Robust View Synthesis https://localrf.git
GW なんも予定がなくてブログ書くかソシャゲやるか昼から酒飲むしかやることがないです。だから予定があったら使っていたであろうお金でソシャゲに課金したらめちゃくちゃ強くなりました。やったー。友達にはドン引きされましたが、GW に予定がある人よりかは節約できていると思います。そんなソシャゲもやることなくなって暇なので酒飲みながらブログを書きます。今日は WebRTC です。 免責 筆者は RFC を読んでいません。これは「そもそも WebRTC それ自体 の RFC なんてものは存在しないもんね〜」という意味でなく、ICE や SDP の RFC すら読んでいないという意味です。そのため WebRTC そのものの解説として読むと良くない表現が含まれるかもしれません。ただし自分が WebRTC でカメラ映像を送る実装を動作させ、そのコードの解説という点では間違ったことは書いていないはずです。動作
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 英オックスフォード大学の研究チームが発表した論文「Signal Injection Attacks against CCD Image Sensors」は、電波を使い、画像認識システムをだまして存在しないものを見せる手法を提案した研究報告だ。任意の文字や画像などを離れた場所からカメラシステムに電波を送信することで、例えば真っ黒であるカメラフレームに文字を浮かび上がらせることもできる。 現在は、CMOS(Complementary Metal-Oxide-Semiconductor)とCCD(Charge-Coupled Device)イメージセンサーという2つの主要なイメージセンサー・アー
HTMLだけでスマホやタブレットのカメラにアクセスできる、HTMLのcapture属性を紹介します。 私はこの属性を知らなかったのですが、実際にiPhoneとiPadで試してみたところ、前面カメラにも背面カメラにもアクセスできました。JavaScriptなどは必要なく、簡単なHTMLでできます。 You Can Access A User’s Camera with Just HTML by Austin Gil (@heyAustinGil) 下記は各ポイントを意訳したものです。 ※当ブログでの翻訳記事は、元サイト様にライセンスを得て翻訳しています。 はじめに HTMLのcapture属性とは capture属性のサポート状況 終わりに はじめに 私は先日、今までに見たことがないHTMLの属性、captureに出会いました。capture属性は非常にクールなので、動画と記事を書くことにし
スマホのカメラを使って空気の流れを見られるアプリが興味深いと国内外から注目が集まっています。開発者に仕組みについて聞きました。 スマホカメラで空気の流れを可視化 アプリを開発したkambara(@kambara)さんが、スマホカメラを使って空気の流れを映し出す映像を公開。背景に砂嵐のディスプレイを設置し、ドライヤーから出る風を画面に映します。 ドライヤーのスイッチを入れると、スマホの画面上では黒の背景に先端から勢いよく白い影が噴き出します。蛇口から水が流れるように、吹き出し口から、風が流れ出していることが分かります。肉眼では見えないものが写る様子に、これはすごいと驚いてしまいます……! ドライヤーだけ見えている スイッチオンにすると風が発生 空気の流れが視認できる また、ドライヤーのように激しい空気の流れだけでなく、保冷剤から出る冷たい空気がゆっくりと下降する様子も確認できます。どうして目
こんにちはiPhone3Dスキャンを日本中に普及させる男ことiwamaです。 2020年の10月にiPnone12Proシリーズに初めてLiDARセンサーが搭載され、現在では様々な業界でiPhoneの3Dスキャンが活躍し始めています。 そこで今回はiPhone3Dスキャンって何?でどういうアプリがあるの?などの初心者向けの解説を行っていこうと思います。 ※この記事は2024年5月11日に更新作業を行なっています。 3Dスキャンについて学ぼうそもそも3Dスキャンって何?現実にある物体や空間をデジタル3Dデータ化する技術の事を(このnote内では)3Dスキャンといいます。 3Dスキャン技術には様々なモノが存在していますが今回はその中でもiPhoneで行える3Dスキャン技術である2種をざっくり解説していきたいと思います。 フォトグラメトリをざっくり解説フォトグラメトリを簡単に説明してしまうと、様
黒い毛のペットやオブジェなどをiPhone標準のカメラアプリで撮った際、画像を拡大するとノイズが強くかかってもやもやした経験のある人は多いだろう。iPhone側で「黒い部分は暗い!」と判断し、ISO感度を高く設定してしまうのが原因だ。ISO感度が高いと暗い部分を明るく写せる反面、仕上がった画像にノイズが生まれる。 これを解決してくれるのが、App Storeで配信されている外部のカメラアプリだ。今回紹介する「Mカメラ」は基本無料で、超広角カメラやHEIC/HEIV形式の使用、広告の消去などを含む「フル機能版」へのアップグレードが490円(税込み)となっている。無料でも十分使いやすいため、取りあえずインストールしておくのもおすすめだ。 今回は基本的に、iPhoneの下部を右側にして横持ちした状態でUIなどを紹介する。 簡素で分かりやすいUI、シャッター音なしもありがたい 基本UI(ユーザーイ
2022年5月以降に当社より販売するものに関してはメーカーの意向によりカメラケースが付属しなくなり、別売となりました。 高解像度16メガピクセル(Raspberry Pi公式カメラのV2は8メガピクセル、HQは12メガピクセル)の Sony IMX519 カメラセンサを用いた、Raspberry Pi用高解像度オートフォーカスカメラモジュールです。プラスチックケースが付属します。 別売となりました。 V1/V2カメラと同一フォームファクター、全PIモデル互換、財団の最新ソフトが動作可能なので、公式カメラモジュールで使用されている同じチューニングアルゴリズムが活用できます。 解像度の向上だけでなく、シャープネス、彩度、露出などのあらゆる点で、HQカメラより優れています。 Raspberry Piと組み込み機械学習/マシンビジョンを推進するため、カメラに関するすべてのことはオープンソースになる
ブラウザから3Dモデルをトラッキングできるツール「Kalidoface 3D」が登場 無料で利用可能 7月13日(火)PCやスマートフォンのブラウザから3Dキャラクターのモデルをトラッキングして動かせるツール「Kalidoface 3D」が登場しました。開発者はバーチャルデザイナーのRichさん。現在、無料で利用可能です。 「Kalidoface 3D」は顔の表情や全身の動きをWebカメラ(スマホの場合は内蔵カメラ)でトラッキング可能なツールで、まばたきや手の振りなども現実の身体と同期できます。(Safariなどの一部ブラウザでは全身トラッキング非対応の場合もあり) またカメラを正面だけでなく、背面や横に動かしての撮影もできるようになっています。 3Dモデルは複数のデフォルトアバターを利用可能で、手持ちのVRM対応のモデルもアップロードできます。デジタルコードを利用したほかユーザーとのボイ
どうも、まさとらん(@0310lan)です! 今回は、親指サイズの超小型ボディにLinuxを搭載し、さらにAI開発エディタやカメラなども詰め込んだ強力なカメラモジュールをご紹介します。 手持ちのパソコンにあるUSBに挿すだけですぐに起動し、専用の開発エディタを使ってAIカメラを試したりトレーニングをしたりなどが簡単にできるのが特徴です。 さらに顔認識、オブジェクト分類、トラッキング、カラー検出…など10種類以上の機能がすぐに利用できるうえ、Jupyter Notebookでモジュールを制御できるので便利です。 AIを活用したい人やIoT開発に興味がある人も含めて、ぜひ参考にしてみてください! ■「M5Stack UnitV2 AI カメラ」とは モニターやセンサー類などが全部入りの小型マイコンモジュール「M5Stack」シリーズで知られる中国のスタートアップ企業をご存知でしょうか。 同社が
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く