Hands-on with the new iPad Pro M4: Absurdly thin and light, but the screen steals the show
イヴの時間 act01:AKIKO [アニメ] 未来、たぶん日本。”ロボット”が実用化されて久しく、”人間型ロボット”が実用化されて間もない時代...
先日、視覚障害を持つ友人と一緒に「視覚障害とWeb」やアクセシビリティに関して色々話をしていました。 最初は私のサイトが音声読み上げソフトで読み難くないかなどの質問をしたり、今後のWeb界の進化とアクセシビリティなどについて話していました。 ニコニコ動画によるアクセシビリティ その中で、ニコニコ動画の話が出てきました。 ニコニコ動画のような雰囲気で皆でワイワイと字幕を作ったりすれば、アクセシビリティを実現できるのではないかという話でした。 元々は動画などの扱いや、動画によるオンライン学習をどうするかなどの話題でした。 採算を取りながらオンライン学習環境を整えようと思うと、どうしても収録やコンテンツ作成の費用を圧縮しなければならなくなります。 そのようなときには、例えば聴覚障害者のアクセシビリティ向上のために動画に字幕を入れる予算をつけてもらうのは至難の技です。 社会的にアクセシビリティが必
テレビ広告の指標やフォーマット、ノウハウはインターネットの動画広告にも生かせるか――3月18日から19日まで、米国ニューヨークで開催されたメディア関連の展示会「Media Summit New York」では、Nielsen Online、comScore、Rentrackなどのインターネット広告調査会社の担当者らが出席し、インターネットの動画広告について議論した。 Nielsen OnlineのVice PresidentであるJon Gibs氏は「今、注目しているのはテレビ視聴行動とインターネット動画視聴の関連性だ。テレビでのCM飛ばしという消費者行動は、インターネット上でも現れるのか、など興味深いテーマがたくさんある」と語る。 インターネット動画はテレビ視聴を減らさない 最初のテーマは、インターネットはテレビ視聴時間を減少させるのか、という問いだ。米国では、テレビの視聴時間は増加して
4/9(木)「コミュニケーションデザインの未来」の告知です 2009年4月 7日 明後日の4/9(木)、Wired Vision連続トークセッション「コミュニケーションデザインの未来」が開催されます。 詳細:wiredvision.jp/info/200903/200903251600.html 現在、もくもくと準備中なのですが、告知もかねて、当日使用する図をいくつか先行公開したいと思います。 【お話する内容その1】「アーキテクチャの生態系」その後 ・昨年10月に刊行された、『アーキテクチャの生態系』書籍掲載版からのバージョンアップを加えた、「アーキテクチャの生態系マップ Ver. 1.1」を元にお話します。 ・時間があれば、マップの他国応用編として、韓国・中国といった他国の状況もかいつまんでお話できればと思います。 【お話する内容その2】 「TV・新聞をはじめとするマスコミって、どうなる
どんなアプリなの? † みなさん、「Augmented Reality:拡張現実感(以下、AR)」をご存じでしょうか?ARとは、現実世界の情報に、バーチャルな情報をオーバーレイすることにより、現実世界に新しい可能性を切り開くものです。 本節で作成するアプリでは、カメラで撮った画像を解析して、マーカーを認識し、その上に3Dオブジェクトをオーバーレイ表示することにより、ARの一端を実現します。もちろん、オーバーレイする情報を変えるなど、さまざまな応用が可能です。とくに、Android版ARアプリケーションの大きなアドバンテージは、持ち運べることにあるといえるでしょう。例えば、GPSによるロケーション情報を組み合わせたりすることが可能です。持ち出せるARアプリケーション、面白いと思いませんか? コラム 本アプリは、ライブラリのとしての側面が強いため、改造し独自アプリを作る上で必要な部分とAndr
日経BP社は2009年4月6日,「第19回日経BP技術賞」の表彰式を開催した。大賞および,電子,情報通信,機械システム,建設,医療・バイオ,エコロジーの6分野で計11の部門賞をそれぞれ表彰。情報通信部門賞では,人体を媒体とする通信技術「レッドタクトン(RedTacton)」(開発はNTTとNTTエレクトロニクス)と,拡張現実(AR)のソフトウエア開発キット「ARToolKit」(同奈良先端科学技術大学院大学の加藤博一教授)の2技術が受賞した(写真1,写真2)。 写真1●レッドタクトンを開発したNTT/NTTエレクトロニクスを代表して登壇したNTT マイクロシステムインテグレーション研究所 スマートデバイス研究部の門勇一部長
Welcome to Startups Weekly — Haje‘s weekly recap of everything you can’t miss from the world of startups. Sign up here to get it in your inbox every Friday. Well,…
「Web Trend Map 4」のファイナルベータが公開されていました。 「Web Trend Map」は、デザインや企画の会社であるiAが毎年作っている地図。ネット上のさまざまなコンテンツやサービスを、東京のメトロマップに模した形で可視化しているものです。 各メトロのラインが、それぞれのジャンルを示していて、各駅の位置や大きさが、そのサービスの雰囲気や規模を示しています。たとえばTwitterは渋谷にあり、かなり大きなサイズとなっていますが、これは渋谷駅がクチコミや流行の発信地であることとかけています。 オリジナルサイズの画像はこちら。iAは、今週いっぱいくらいフィードバックの期間を設け、その後正式版として印刷するそうです。印刷は限定1000部。iAのサイトからメールして申し込む形となっています。 ところで…ギズモードがどこにあるのか気になりますよね…ないかもしれないし… 目を皿のよう
March 31 2010: v1.15 released! (Balance Board & MotionPlus support + fixes!)This is going to be the final release of the library for the forseeable future - I'm just too busy to spend more time on it. It includes fixes for the Motion+ detection on Windows stacks, as well as several other fixes and enhancements - see included History.txt for details. Also check the ReadMe & License files, then join
著者プロフィール:中村修治(なかむら・しゅうじ) 有限会社ペーパーカンパニー、株式会社キナックスホールディングスの代表取締役社長。昭和30年代後半、近江商人発祥の地で産まれる。立命館大学経済学部を卒業後、大手プロダクションへ入社。1994年に、企画会社ペーパーカンパニーを設立する。その後、年間150本近い企画書を夜な夜な書く生活を続けるうちに覚醒。たくさんの広告代理店やたくさんの企業の皆様と酔狂な関係を築き、皆様のお陰を持ちまして、現在に至る。そんな「全身企画屋」である。 日本最大級の芸能事務所を2つ答えろと問われれば、みんな「吉本興業とジャニーズ」と答えるだろう。どちらも日本のコンテンツ産業の雄である。しかし、同じコンテンツホルダーでも、大きな違いがある。その違いは、今後、さらに大きな差異になっていく予感がする。 例えば、このページをご覧いただきたい。小学館の『小学五年生』の表紙と目次が
We show that it is possible to estimate depth from two wide baseline images using a dense descriptor. Our local descriptor, called DAISY, is very fast and efficient to compute. It depends on histograms of gradients like SIFT and GLOH but uses a Gaussian weighting and circularly symmetrical kernel. This gives us our speed and efficiency for dense computations. We compute 200-length descriptors for
Making money is a basic and necessary part of application planning, development, and maintenance. Even if you have a newly developed app, you can monetize it. The app monetization model is not a simple concept. There are several ways to generate revenue from an app. We've created this comprehensive app monetization strategy guide to assist you in successfully monetizing your software and increasin
Wiiリモコンで加速度を計測する話題が、新聞に掲載されました。 地方版ですが、扱いは大きく、タイトルにはオリジナルイラスト入りです。 これを機会に、WiiAccの活用が広がればよいのですが・・・。 WiiAccについては何回かに分けて書いていますから、簡単な目次でも作っておきましょうか。 ポチッと応援よろしく。 (1)Wiiリモコンの加速度をパソコンに取得するソフトWiiAcc最新版のダウンロードはこちら。 (2)WiiAccの動作の様子 動画 こちら (3)自由落下と加速度値 (4)モバイル機器の落下衝撃対策 (5)WiiAcc 加速度の校正 (6)Wiiリモコンが高校の物理教育へ そのほか「WiiAcc」か「Wii 加速度」をキーワードにしてこのサイト内を検索すると、関連記事を参照できます。
製品についてのお問い合わせ 画面の製品写真の色や形は実際の商品と異なる場合があります。 製品の価格、仕様は予告なく変更する場合があります。 株式会社 ジャパンロボテック Copyright© JAPAN ROBOTECH LTD. All Rights Reserved.
高機能化が進む携帯電話には、GPSだけでなく、加速度センサーや地磁気センサーなど、さまざまなデバイスが搭載されるようになっている。GPSの方は、KDDIが積極的に搭載を進めていたり、2007年4月以降は原則として位置情報の通知機能が必須になることもあって、すでに多数の搭載例と、それを活用するナビゲーションソフトなどが登場している。しかし、加速度センサーや地磁気センサーは、まだ採用機種が多くないこともあり、一般ユーザーにはそのメリットがあまり知られていない。 ボーダフォンのVGA液晶搭載端末「904SH」は、その液晶の解像度の高さもさることながら、前後/左右/上下の3方向の加速度センサーとヨー/ピッチ/ロールが検出できる3軸の地磁気センサーを持つ「モーションコントロールセンサー」を搭載した点が大きな話題となった。6軸センサーは、端末の移動方向と、向きや回転を検出するセンサーだ。このセンサーを
最終変更者: 怡土順一, 最終変更リビジョン: 490, 最終変更日時: 2009-08-31 16:40:37 +0900 (月, 31 8月 2009) 画像処理(Image Processing) 勾配,エッジ,コーナー,特徴(Gradients, Edges, Corners and Features) サンプリング,補間,幾何変換(Sampling, Interpolation and Geometrical Transforms) モルフォロジー演算(Morphological Operations) フィルタと色変換(Filters and Color Conversion) ピラミッドとその応用(Pyramids and the Applications) 画像分割,領域結合,輪郭検出(Image Segmentation, Connected Components and
うめぇヨーグルトソースでもいかがですか。個人差にもよりますが。もしよろしければ。 お久しぶりです。 最近うんめぇ〜と思ってるヨーグルトソースがあるので、書いていこうと思います。 ヨーグルトとハーブ類をもりもり使うので、そういうのが食べられない方にはうんめぇソースではないです。ごめんなさい…。もしよろしければお茶だけも…旦~ 【用意する…
せっかくOpenCV1.1preに対応したということで、新たに実装されたらしいSURF(Speeded Up Robust Features)の関数をラップしてみました。 cvExtractSURFの定義は以下の通り。(cv.hの1111行目あたり) CVAPI(void) cvExtractSURF( const CvArr* img, const CvArr* mask, CvSeq** keypoints, CvSeq** descriptors, CvMemStorage* storage, CvSURFParams params ); これのラッパー関数はこんな感じ。 public ref class CV abstract sealed { public: static void ExtractSURF( CvArr^ img, CvArr^ mask, [Out] CvSeq
OpenCVのCVS版(2008/10/10)をダウンロードして,いろいろ遊んでみました. 自身の動作環境は以下の通りです. OS: Windows Vista Ultimate IDE: Visual Studio 2005 Pro DirectShow: Windows SDK v6.0 OpenCV: CVS版(20081010) まず,気になる機能としてSURFがあるので,OpenCVで用意されているサンプルプログラム C:\Program Files\OpenCV\samples\c\find_obj.cpp を試してみました. おおー,いろいろ応用できそうな感じですね. *********************************** また,CVS版では,highguiのキャプチャ機能にvideoInput Libraryが 組み込まれているようです.なので,highgu
いつのまにかOpenCVが1.1を公開してたので導入しました。 で、dandelion’s logさんと同じくSURFアルゴリズムを動画でテストしてみました。 参考:dandelion’s log OpenCV 1.1:SURFを動画で試してみた OpenCV 1.1をインストールすると C:Program FilesOpenCVsamplescfind_obj.cpp に静止画用のSURFアルゴリズムがあるのでこれをカメラからの動画に対応させました。 かなりの性能!指で隠れてるのにちゃんと認識してます。 速度もちょっとカクカクしますがまぁまぁリアルタイムです。 SIFTなみの性能でこのスピードはすごい。 以下、ソースコード。 書き換えたのはmain関数のみです。 それ以外の関数はfind_obj.cppのものをそのまま使ってください。 int main(int argc, char**
Overview The goal of this project is to develop and operate an accurate and robust tracking system for use in an augmented reality application. Augmented reality combines computer graphics and virtual-reality displays with images of the real world. The hybrid tracking project combines a commerically available magnetic tracker (Flock of Birds from Ascension Technology with vision-based tracking alg
“Grid-GCN for Fast and Scalable Point Cloud Learning” IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020. “Geometry-Aware Instance Segmentation with Disparity Maps” IEEE Conference on Computer Vision and Pattern Recognition Workshop (CVPRW), 2020. “DISN: Deep Implicit Surface Network for High-quality Single-view 3D Reconstruction” Neural Information Processing Systems (NIPS), 2
(1)今から10~20年後のゲームはこうなる? (2)今の技術は、こんなすごい映画が10万ドル(1000万円)切る低予算で撮れてしまうんだなあ。 という2つの見どころが話題の新作。 映画の名門、南カリフォルニア大(USC)フィルムスクールの院生たちが卒論プロジェクトとしてRED Oneカメラで撮った短編映画『Turbo』です。ジャレット・リー・コナウェイ(JARRETT LEE CONAWAY)監督率いるチームの名前は「Ember Lab」。 ちっちゃくまとまったティーンのメロドラマとはだいぶ違う雰囲気ですよね。特殊効果も他のどんな2D風戦闘映画にも引けを取らない印象。 視覚効果の処理に5ヶ月以上かかったそうですよ。映像は大体のところはアドビのAfter Effectsを使って合成し、あとはIllustrator(2D映像)、Maya(3D映像)、Shake(追加の合成)で処理しました。
未来の世界の~、お魚ロボット~(ドラえもんのメロディに載せて)。 このカラフルなお魚、実はロボット。開発したのは、イギリスはエセックス大学の科学者チーム。主な役目は水中の汚染物質の探索です。 ロボットには小さなケミカルセンサーが搭載されており、船舶や海底パイプラインから流出したものなどをチェックすることができるようです。 港のコントロールセンターにロボットが充電に使うハブが設置されます。そして、ロボットが充電するときにWi-Fi経由で情報を受信。そのデータを利用して港のリアルタイム3Dマップが作成されて、汚染物質濃度が場所ごとに表示される仕組みとなっております。 大きさはというと、約1.5m。最高1m/秒での移動が可能だそうです。1体あたりのお値段は2万9500ドル。日本円でおよそ3000万円というところでしょうか。
これはたぶん結構おもしろいシンポジウムになるのではないかと思います。坂村健さんが中心になって企画されているようです。 日本学術会議からのメール内容を転載します。 ■—————————————————————– シンポジウム「ユビキタス空間情報社会基盤の構築」(ご案内) ——————————————————————■ 実世界と情報世界が一体となるユビキタスコンピューティング環境の実現は、技術的にはすぐそこに見えているといえます。しかし、応用や組織を超えた実世界と情報世界の一体化には、単なる技術面の開発だけでは不十分であり、情報の識別や関連付けの仕組みに関する社会的な合意(標準化と関連制度設計、さらには実際の環境整備)、まさに社会インフラ化、が不可欠であります。 社会イノベーション基盤「ユビキタス時空間情報社会基盤」の構築を目的として、その現状と将来への課題について広く議論を行います。 ◆主
ARはおもしろいと思ってます。こんな感じで実験してみてます。下はハッカーズカフェの皆さんがやってくれた弊社のpyuuunとARの組み合わせ 私はドラゴンボールのスカウターとかエヴァの表示やナデシコの表示攻殻機動隊の表示、電脳コイルなどの表示封神演技の表示などが好きなのです。いわゆる(?)「CG表示萌え」です。 これゲームに使うとおもしろいかな、とマージャンの点数とか囲碁の地数とかカードゲームのヒットポイントとか で、その先ですが囲碁の地数などは取り合っているのでわからない部分も多いこれをコンピュータが予測して表示してデータがたまってくると更新していったらおもしろいのではないか 体温計の仕組みがおもしろいと思ってるんですが私がつかっていたものは最初の1分で予測値を表示して5分目で正しい値を返すというものでした。 こんな感じで地数の予測値とか表せるとおもしろそう。 これはカンニングになるのかな
そんなわけでやってみました。 まずラジコンに Linux サーバーを搭載します。 写真の実験機は配線お化けみたいになってますが、これにはLinux サーバーはもちろん、ラジコンのUSBコントローラ、WiFi、Webカメラ、GPS、そして何故か気温・気圧・地磁気・加速度センサーまで搭載していたりします。 そしてこのラジコンをインターネット経由でアクセスできるようにして iPhone から操作! これ、なんというか遠隔からリアルタイムで操作してる感じがたまりませんw ・・・というプロジェクトを現在進めていて、詳細は where 2.0 で発表する予定です。 そして、そのプロジェクトのページはこちら! http://www.jokerracer.com/ 今は英語ベースですが、開発状況なども適宜更新しています。 かなりぶっ飛んだ企画ですが、これがありえないことに真剣にやっていたりしますw。 とい
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く