オークションで衣類を販売する際の上手な写真の撮影方法、それからお薦めの照明など必要設備を教えて頂けますか? クローゼットの中が着ない服で一杯になって来たので整理目的でヤフーオークションへの出品を考えています。数も100点以上の出品を考えています。凝り性な性格なので、どうせなら照明などをちゃんと整えて撮影をしたいと考えています。今後もずっと使い続ける事が出来ると考えて予算は~5万円程度を考えています。ただ、安くあがるならそれにこした事はありません。よろしくお願いいたします。
本日Chromeのバージョン21がリリースされ、getUserMediaが実装されたようです。 getUserMediaを使うと、javascriptを使ってカメラにアクセスできるようなので、やってみました。 参考にしたページは以下 getUserMedia API <body> <video autoplay width="640" height="480"></video> <img src="" width="640" height="480" > <canvas style="display:none;" width="640" height="480"></canvas> <div id="wrapper"> <button id="capture">capture</button> <button id="stop">stop</button> </div> </body> <
iPhoneアプリを作ってみよう:第8回 カメラアプリの3回目です。 さて、今回は前回までの内容に対して、ちょっとしたカスタマイズを行ってみます。その内容が以下です。写真に日付を入れてみる。横向き撮影に対応する。 昔のアルバムなどを見てると、写真の右下に日付が入ってたりしますが、あれって実は結構便利で、プリントアウトする派の人にはなくてはならない要素なのでは?と思うことがあります。というわけで、今回の「カメラアプリ」チュートリアルを思いついたわけです。横向き撮影は、もはや対応してないとまずいくらいだと思うので、やってみました。 写真に日付を入れる といっても全然難しいことは不要です。前回までの内容をベースとして、mycameraViewController.hを以下のように編集するだけです。 上記のソースが以下です。 // 現在日付をオレンジ色で追加 NSDateFormatter *dt
500本の輪ゴムを使うとスイカは割れるのか検証…木端微塵に爆発した(動画) スイカ割りの季節がやってきました。 ある外国人のふたりが、「輪ゴムを使ってスイカを割ることはできないだろうか?」と500本の輪ゴムを用意して検証してみたそうです。 ハイスピードカメラに映された、豪快な映像をご覧ください。 Rubber bands vs Water Melon - YouTube すさまじい……、割れるというよりもはや爆発ですね。 本数による限界というよりも、ある程度の圧力がかかると時間差で割れてしまうのも興味深いです。 「ガブとダンのふたりはピクニックにナイフを忘れてしまったけれど、幸いにも500本の輪ゴムを持ってきていた」との説明がありましたが、秒間1600コマを撮影できるカメラを設置している時点で、怪しいことこの上ない設定ですよね…。 結論:スイカは普通に割ろう。 かんたん電動氷かき器 ブルー
はじめに 画像処理の応用の一つに、車や人物といった物体の検出があります。まだ、十分完成した技術とはいえませんが、車の場合は、車輪のような丸いものが一定の間隔で並んでいると車らしいと判断し、人物の場合は、丸みを帯びた白いものの真中付近に二つ並んで黒いものがあり、さらにその下の中央部に、横に長いものがあれば人物らしいと判断します。 特に、人物の検出は、防犯やセキュリティ管理の上で重要視され、研究が盛んです。最近、カメラの被写体の中から人物を探し、そこに自動的に焦点をあわせるカメラも出現しました。 画像の中から、上記のような特定のパターンを探し出すには、「テンプレートマッチング法」が良く用いられます。テンプレートとは型紙のことで、それを画像上で移動させながら比較して行くやり方です。ただし、単純な方法では、テンプレートに対して傾斜を持っている画像や、相似形であるが大きさが異なる画像は検出できません
NTTドコモが4月10日、次世代モバイル通信技術である「スーパー3G」の実験環境を公開した(参照記事)。これは報道関係者向けとしては初となるデモンストレーションであり、その模様は別記事に詳しく書いたとおりである。 このスーパー3Gの公開実験に合わせて、ドコモが取り組む先端研究の一部も見ることができた。なかでもUI(ユーザーインタフェース)に関する研究は、今後、ケータイを始めとする様々な機器の操作に応用されていきそうだ。 そこで今日の時事日想は特別編として、ドコモの国内最大の研究開発拠点「NTTドコモ R&Dセンタ」で公開された最新のUI研究についてレポートしていく。 目の動きで操作する。視線インタフェース “目は口ほどにものを言う”とよく言うが、実際のところ目は我々が考えている以上に大きく的確に動くものだ。この視線の動きをデジタル機器の操作に活用しようというのが、視線インタフェースという分
みなさん、こんにちわ。 GWに突入し、リアル徒然なにゃんたこすです。 私は一年ほど前から「アイディアノート」なるものを書いています。(※1) 簡単に言うと、ふと思いついたことを備忘録的に記録していくものです。 手帳の余白ページなどを利用して記録しています。 GWに入ったら日頃書き溜めているアイディアノートのいくつかを実行してみようと考えていました。 その中の一つがこんなものでした。 眼球の動きをトラッキングしてマウスポインタを動かせないか? 手でマウス操作しなくても、画面を見つめる視線の先にマウスポインタが自動的に移動してくれる、そんな機能が実現できればパソコンの使い勝手が劇的に向上するのではないかと思います。(※2) この機能の実現できるかどうかはともかく、まず画像処理を行う環境を整える必要があります。今回の記事はその準備段階をターゲットとした内容となります。 ■キーワード Java、J
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く