パーフェクト株式会社は、資生堂の総合美容サイト「ワタシプラス」内のメイクシミュレーション「VIRTUAL MAKEUP(バーチャルメイク)」に、さまざまなアイシャドウを組み合わせてアイメイクのAR体験を可能にする最新機能を導入したと発表しました。 国内初!ARアイシャドウ体験技術の新機能バーチャルメイクとは、口紅・リップグロス、アイシャドウ、チークなどのアイテムを自由に組み合わせてメイクシミュレーションできるサービス。 高度なARとAI技術により、まるで鏡を見ながら商品を試す感覚で、自分にぴったりのカラーを見つけることができると話題のサービスです。ワタシプラス内では、マキアージュやインテグレートなど、資生堂の人気ブランドのアイテムを試すことができます。 これまで、アイシャドウは1つのアイテムのみ体験可能でしたが、今回のアップデートにより、パレット商品を含む異なるアイシャドウから好みの色味の
curiosity株式会社は、「好きなアバターと一緒に現実世界を冒険する」をテーマとしたARアプリ「AVATAVI」のiOS版を2021年8月31日にリリースしました。 さまざまなアバターを手軽に追加「AVATAVI」では、自分自身のアバターや好きなキャラクターのアバターを部屋や街に出現させることができます。アバターは、ダンスやポーズ、ジャンプや休憩など6種類の初期モーションに対応しているため、ただ出現するのとは違い、一緒に遊んでいるような体験が可能です。 「AVATAVI」にはキャラクター生成機能はありません。しかし、3Dモデル共有プラットフォーム「Sketchfab」で公開されているアバターや、全身3Dスキャナーで実写3Dアバターを制作する青山3Dスキャンスタジオで制作したアバター、「IN3D」アプリで作成した自分の簡易アバター、「Ready Player Me」で写真から生成したアバ
大日本印刷株式会社(DNP)は、「東京アニメセンター in DNP PLAZA SHIBUYA」において、地域の周遊性を向上すべく、リアルの街とアニメ・ゲームなどのコンテンツを連動させ新たなエンターテイメント体験を提供する「地域共創型観光サービス」の開発を開始します。 その取り組みの第1弾として、株式会社スクウェア・エニックスの周遊型イベント事業「FIELD WALK RPG」に参画。2021年9月17日より、スクウェア・エニックスのコンテンツ『新すばらしきこのせかい』を題材とした周遊型イベントを実施します。 リアルとデジタルを連動させた観光サービスDNPは、2021年3月に始動した「XRコミュニケーション事業」の一環として、同事業の拠点のひとつである「東京アニメセンター」がある渋谷の自治体や商業施設と連携した「地域共創型観光サービス」の開発を開始しました。 同サービスは、街や商業施設など
デジタルツインの技術開発を行うSymmetry Dimensions Inc.は、さまざまなデータを連携してデジタルツインの構築・利用を可能にするノードベースのデジタルツイン・プラットフォーム「SYMMETRY Digital Twin Cloud(シンメトリー・デジタルツイン・クラウド)」の提供を開始しました。 3Dのデジタル地球を作成そもそもデジタルツインとは、文字通り「デジタルの双子」を意味します。物理空間の情報をIoTなどを活用して、ほぼリアルタイムでサイバー空間に送り、サイバー空間内にフィジカル空間の環境を再現。このサイバー空間上に物理世界の情報を全て再現することから「双子(ツイン)」と表現されているというわけです。 それでは、Symmetry Dimensionsが提供する「SYMMETRY Digital Twin Cloud」はどのようなプラットフォームなのでしょうか。 同
グローバルウォーカーズ株式会社(以下、グローバルウォーカーズ)は、自社開発した3次元姿勢推定AIモデル「GW-Pose」と、3次元自己位置推定技術「GW-SLAM」を組み合わせた、「GW-Retail」の実証実験を実施。株式会社マルコシ・シーガルの協力の下、食品スーパーマーケット「マルシェ・デ・キッチン」にて、2021年3月22日から4月3日まで行いました。 グローバルウォーカーズ独自ソリューション「GW-Retail」とは?AIインテグレーターであるグローバルウォーカーズ。機械学習・深層学習(ディープラーニング)・画像処理技術の領域で高度な技術と知見を保有している会社です。同社の取り組みについては、過去にTechableでも取り上げてきました。 今回実証実験を行った「GW-Retail」は、店舗内に配置された什器の配置を考慮した人の動きを把握。人物動線や接触箇所を3次元情報として検出し、
香港に本社を構える華和結ホールディングス株式会社が投資・運営するAIプラットフォーム「AiBank.jp」は、AIで和牛を識別する「鼻紋認証技術」を開発し、特許を取得しました。 個体の鼻紋をデジタル管理「鼻紋」とは、人間でいう指紋のようなもので、牛などの動物の鼻にある個体特有の模様のことです。「鼻紋認証技術」は、スマートフォンのカメラで牛の頭をスキャンするだけで牛の鼻を特定し、鼻紋を採取してデジタル識別情報をデータベースに保管します。個体識別の際にも、牛の頭をスキャンするだけでデータベースと照合し、自動認証を行うようです。なお、成長した牛の鼻紋と子牛時に採取した鼻紋を照合することも可能となります。 鼻紋による牛の個体識別は、品種管理の重要な手段なのですが、これまでの鼻紋採取は、インクをつけたローラーを素早く牛の鼻に塗り、和紙を当てて写すという完全手作業。これでは非効率的な上に牛にストレスが
完全自動運転車の走行はセンサーが頼りだ。周囲のオブジェクトを検出するのにはLiDARセンサーが有用だが、大雨の中では性能が低下するとのシミュレーション結果が示された。 ウォーリック大学の研究者は、実際の道路や天気を想定した環境でテストできる3Dシミュレーターを使用。雨天時のLiDARセンサーの性能を評価している。 さまざまな降雨量のモデルでセンサー応答を測定 LiDARセンサーは、円形/楕円形の断面を持つ近赤外光のビームを放射することにより機能する。 オブジェクトからの反射を検出するLiDARセンサーの課題の1つに、雨によるパフォーマンス低下がある。近距離にある雨粒がビームを反射し、センサーは物体として検出してしまう。また雨粒は、光の一部を吸収する可能性があり、センサーの性能低下につながるという。 研究者は3Dシミュレーターにて、さまざまな降雨量のモデルでセンサー応答を測定。誤検出を記録し
モーションキャプチャといえば、マーカー付きスーツを着用して、身体の各部位の位置をトラッキングする姿を想像しがちだ。 ARやCG制作などで用いられる同技術。実は行動科学など研究領域でも使用される。動物の動きを分析するのに、マーカー付きのスーツの利用はむつかしい。この課題を解決するため、スイス連邦工科大学ローザンヌ校(EPFL)の研究者らは、モーションキャプチャとディープラーニングの組み合わせた。 ディープラーニングツール「DeepLabCut-Live!」は、ビデオフレームに基づいて動物の動きをトラッキングできる。動物の姿勢推定を神経メカニズムの研究にDeepLabCut-Live!は、マーカーなしに動物の動きや姿勢をトラッキングし、これを予測するように訓練できる。 DeepLabCutはもともと、動物が環境の変化に応じて姿勢を適応させる方法を分析するために開発されたもの。動物が環境の急速な
Microsoftは、WindowsやMacにダウンロードして無料で使える「Lobe」を公開している。同ツールでは、ネット接続やログインもなしで機械学習トレーニングができて、利用するデータはプライベートに保たれる。 Microsoftは2018年にLobeを買収し、同ツールをブラッシュアップしてきた。今では、誰でも簡単に機械学習モデルがトレーニングできるように…とのコンセプトを体現したものになっている。写真をインポートすれば自動でトレーニングLobeのWebサイトに掲載の紹介動画を観れば、このツールのシンプルな使い勝手が認識できるだろう。ナビゲーターがPCのWebカメラで水を飲む写真を複数通り撮影。同じく水を飲んでいないシーンを撮影すると、トレーニングが自動で行われる。 ラベルを調整して、Webカメラの前で水を飲むと「水を飲む」動作が検出できるように。また、モデルの修正も簡単にできるようだ
東大松尾研発のAI・DXスタートアップ株式会社ACESとJFEエンジニアリング株式会社(JFEE)は、令和元年度に国土交通省が公募した「建設現場の生産性を飛躍的に高める革新的技術の導入・活用プロジェクト(PRISM)」に「データを活用して土木工事における品質管理の高度化等を図る技術」として採択され、共同DX事業開発をスタート。 土木建築現場(橋梁上部)において鉄筋の配置などを検査する「配筋検査AI」を共同開発した。 その結果、導入効果や社会実装の実現性が最も高いとされるプロジェクトに与えられる最高評価「A評価」を獲得。画像認識技術とドローン(UAV)を用いた配筋検査が高く評価されたと発表している。 なお、今年度のPRISMにも選定され、2年連続の採択となった。 配筋検査のDX従来の配筋検査には、目視によって行われ黒板記帳、写真撮影、メジャー設置、立会いなど多くの労力と時間がかかるという課題
Image: Fawkes: Protecting Privacy against Unauthorized Deep Learning Models/ arXiv AIの民主化が進行するにつれて、そのスーパーパワーが悪用されるリスクもかつてないほど高まっている。今年初めにニューヨーク・タイムズによって報じられた顔認識サービス「Clearview AI」の事例から、SNSやWeb上の公開画像を利用して一般市民の顔認識モデルが作成できてしまうことが明るみに出た。 こうしたAI顔認識の脅威からプライバシーを守るための取り組みとして、シカゴ大学のSAND Labは顔認識モデルを無効にするためのツール「Fawkes」を公開している。 最先端の顔認識モデルも騙せるAI画像認識には「アドバーサリアル・エグザンプル」として知られる脆弱性があり、画像をピクセルレベルで微調整することによりAIを欺くことがで
都築電気株式会社と、業務用の計量包装機を製造販売する株式会社イシダは、「画像認識を活用した食肉判別装置」に関するシステムを共同出願した。 人材不足の解決策の一つに現在食肉加工業界では、少子高齢化に伴った人材不足、後継者不足が課題となっている。食肉の加工には高い専門性が求められ、職人の育成には時間がかかるためだ。そんな背景を受け、両社は、食肉加工業界の効率化支援として「AIを用いた部分肉の部位認識」に着目しAIで肉の部位を識別するシステムを開発した。 通常工場のラインでは、スキルを持つ熟練者が、部分肉を確認し、細かい部位差だけでなく、品種や左右差などを見分けているが、この作業に対してAIを適用し、業務効率化を図ることを目的としている。AIを活用することで、単なる業務効率化だけでなく、部位識別の精度を向上でき、食肉出荷ミス削減の効果も期待できるという。 データ分析の知見と部分肉計量機のノウハウ
Image: Penrose: From Mathematical Notation to Beautiful Diagrams/ Penrose.ink 抽象的な数式を見てもなんのことかサッパリわからない人は多いだろう。一方、難解な数式の中に美を見出す人もいる。 カーネギーメロン大学の研究者は、我々が見ることのむつかしかった数学的な美を、数学者の力を借りてをジュアライズしてくれるツールを公開した。 「ペンローズ」の研究内容を示した論文は、7月に開催予定のSIGGRAPH 2020で発表予定だ。 数式を入力すると自動で翻訳 Excited to share our #SIGGRAPH2020 paper! We’ve been building a new tool called Penrose, which takes a big step toward automatically vi
株式会社Psychic VR Lab(以下、「Psychic VR Lab」)は、同社が手掛けるVR/AR/MRクリエイティブプラットフォーム「STYLY」のシステムアップデートを実施。 これにより、スマートフォンやタブレット向けにARコンテンツを制作・配信できるようになった。 幅広い端末でARコンテンツを体験可能に最近はVR(仮想現実)やAR(拡張現実)などの技術発展が著しく、そのような仮想空間技術は「XR」という形で総称されている。 Psychic VR Labは、前述の「XR」コンテンツを構築できるツールとして「STYLY Studio」を提供。Webブラウザ上で構築可能な点を主な特長としていたが、同ツールで制作したコンテンツの閲覧は、限られた端末(VRゴーグルなど)によるものとなっていた。 今回のシステムアップデート後は、「STYLY Studio」でARコンテンツを制作し、スマー
新型コロナウイルスが、世界中の企業や人々の働き方にも大きな影響を及ぼしている。これまで以上にビデオ会議やビデオインタビューの使用頻度は高まる中、顔認識技術を利用した感情認識技術「Emotional Data」がKickstarterに登場。現在資金を募っている。 表情から感情を数値化Emotional Dataは、 人工知能を使用して、人々の顔の表情から感情を読み取り、楽しみ、驚き、怒り、悲しみ、不快、喜び、嫌悪感、など感情の割合をパーセンテージで表示する感情識別技術。 算出されたパーセンテージは、会議の目標を設定する際や、上司、営業担当者、従業員、クライアントを相手に決断を下さなければならないようなシチュエーションなどでの活用が期待できるという。 実績のあるメンバーが開発Emotional Dataの開発チームは、建築と心理学における広範な専門的および科学的経験を持つ人々で構成される学際
株式会社NTTドコモは、スポーツ映像解析AIを活用し、スマートフォンで撮影したゴルフスイングの動画を診断するアプリ「GOLFAI(ゴルファイ)」を無料提供する。 324通りの診断結果を無料で「誰もが手軽にスポーツを上達できるプラットフォームを作りたい」という想いから生まれた同アプリは、スマートフォンで自身のスイング動画を撮影しアップロードするだけで、AIがスイングの弱点やスイングタイプを診断するというものだ。 ポジションごとの姿勢やクラブヘッドの軌道を見える化し、スイングの基準線が自動記入されることで、手本となるスイングと自身のスイングの比較が可能となる。また、一連のスイングの動作で代表的な4つのポジション、アドレス、トップ、インパクト、フィニッシュを自動検知し表示。 これらの姿勢情報、クラブヘッドの軌道情報、ポジション情報を診断の基準とし、最大324通りの診断結果を表示するという。AIに
ディープラーニングでの、データとニューラルネットワークが大規模化していくにしたがって、トレーニングで利用するハードウェアにはスペックの高いものが求められる。 モデルのトレーニングに特化したGPUの利用がベストだとしても、そのコストがボトルネックになることがあるだろう。 こうしたなか、ライス大学の研究者が汎用的なCPUでも高速なトレーニングが可能なことを示した。研究者が開発したアルゴリズム「SLIDE(Sub-LInear Deep learning Engine)」は、従来のフレームワークとは全く別のアプローチでのトレーニングを実行する。 ・GPUによるトレーニングの3.5倍速を実現GPUは、CPUと比べて多くのコアを搭載可能。その演算処理性能の高さから、ディープラーニングにとってなくてはならない存在だ。 AIの進化はGPUの進化とともにあるといっても過言ではなく、なかでもNVIDIA V
蚊の羽音を聞いて眠れなくなった経験を持つ読者は多いだろう。血を吸われるかと思うと落ち着かず、探しても見つからなくてイライラが募る……。 そんなときの強力な助っ人となりそうなデバイス「Bzigo」をイスラエルのスタートアップが開発中だ。カメラや赤外線LED、コンピュータービジョンなどを駆使して、蚊の居場所を特定する。 ・暗いところでも居場所特定Bzigoは蚊をやっつけるものではなく、居場所を特定するためのもの。ワインドアングルのHD赤外線カメラを備え、そしてマイクロプロセッサに仕込まれたコンピュータービジョンアルゴリズムで蚊をとらえる。最大で8メートル離れたところにいる蚊を認識できる。 このアルゴリズムでは蚊の動きに基づいて、蚊とその他のものを見分けることができるという。赤外線を使っているので暗いところでも作動する。 ・蚊にレーザー照射そしてBzigoは蚊を見つけると、ユーザーのスマホアプリ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く