ソシオネクスト(横浜市港北区、岡本吉史社長、045・568・1000)は、電力効率を10倍以上に高めた人工知能(AI)チップを開発した。ディープラーニング(深層学習)を圧縮して実行する技術を開発。リアルタイムの物体認識を5ワット以下の消費電力で実現した。 深層学習を1ビットや2ビット、8ビットの処理に圧縮する。チップの計算能力が限られても、高速に高度な認識が可能になる。効率よくデータを演算部に送る回路も開発し、メモリーの使用量を大幅に削減した。毎秒30フレームの動画の物体認識では消費電力を5ワット以下に抑えられた。汎用的なGPU(画像処理ユニット)に比べ10分の1以下になる。 同時に深層学習を圧縮する学習ツールも開発した。ハードとソフトの開発環境をそろえた。新エネルギー・産業技術総合開発機構(NEDO)事業で実施した。先進運転支援システム(ADAS)や監視カメラなどに提案していく。
.app 1 .dev 1 #11WeeksOfAndroid 13 #11WeeksOfAndroid Android TV 1 #Android11 3 #DevFest16 1 #DevFest17 1 #DevFest18 1 #DevFest19 1 #DevFest20 1 #DevFest21 1 #DevFest22 1 #DevFest23 1 #hack4jp 3 11 weeks of Android 2 A MESSAGE FROM OUR CEO 1 A/B Testing 1 A4A 4 Accelerator 6 Accessibility 1 accuracy 1 Actions on Google 16 Activation Atlas 1 address validation API 1 Addy Osmani 1 ADK 2 AdMob 32 Ads
iPhone Xで撮影できちゃうって。 これまで、人物の顔をスキャンして3Dモデルを作成するには、高価な機材が必要でした。ですがペンシルベニア州のカーネギーメロン大学では、普通のスマートフォンでスローモーション動画を撮るだけで、それができてしまう技術を開発しています。 NEW ATLASいわく、この技術にはAIのアルゴリズムが利用されており、素材となるスローモーションはたった15秒~20秒でOKとのこと。そして3Dモデルは、およそ30分で生成されます。 Video: CMUComputerScience/YouTube2段構えで正確なレンダリングを行う人間の顔を再現するのは非常に難しいらしく、どこかが微妙に違うだけで現実味が損なわれてしまうのだそうです。ですがカーネギーメロン大学によりますと、これには2段階のプロセスを採用することで正確な3Dモデルが作れると説明されています。 まずはSLA
「第4回 スマート工場 EXPO~IoT/AI/FAによる製造革新展~」(2020年2月12~14日、東京ビッグサイト)の特別講演にキユーピー 生産本部 生産技術部 未来技術推進担当 担当部長の荻野武氏が登壇。「Non AI食品製造業キユーピーにおけるAIによるイノベーション ~協調領域で業界に貢献~ 」をテーマに、同社のAI(人工知能)技術を使った原料検査装置の開発や、食品業界の協調領域におけるAI活用力強化に向けての取り組みを紹介した。 AI画像認識技術により原料の検査を キユーピーは、創業以来「良い商品は良い原料からしか生まれない」という考えのもと、安全・安心、おいしさを追求した食品づくりに励んできた。この原料に対するこだわりを大切にしながら、最新の技術との掛け合わせにより、より安全・安心なモノづくりを目指している。荻野氏は「キユーピーでは、AIは現場力と掛け合わせて、イノベーション
さらに、連続する画像でのAIの認識結果をフィードバックし、必要最小限まで圧縮率を高める。これらの技術により、AIが認識できる必要最小限のサイズまで高圧縮を行う。工場で梱包作業を行う複数の作業員の様子を4Kの高精細カメラで撮影した映像に同技術を適用し、認識精度を落とさずにデータサイズを10分の1に削減できることが確認された。 富士通研究所では、同技術の評価およびさらなる研究開発を進めることで、2020年度中の実用化とさまざまな業種への展開を目指す。 関連記事 組み込みAIは必要不可欠な技術へ、推論に加えて学習も視野に 2017年初時点では芽吹きつつあった程度の組み込みAI。今や大きな幹にまで成長しつつあり、2019年からは、組み込み機器を開発する上で組み込みAIは当たり前の存在になっていきそうだ。 AIと機械学習とディープラーニングは何が違うのか 技術開発の進展により加速度的に進化しているA
富士フイルム(株)は,超軽量移動型デジタルX線撮影装置「FUJIFILM DR CALNEO AQRO(カルネオアクロ)」*2の新たなオプションとして,AI技術を用いて開発した「手術用ガーゼの認識機能」を,富士フイルムメディカル(株)を通じて5月1日に発売する。 手術用ガーゼの認識機能は,国内の病院の協力を得て開発した*3。X線画像に映った外科手術に使用する手術用ガーゼを認識してマーキングすることで,術後の患者体内のガーゼ遺残有無の確認をサポートする。 外科手術では,一般的に,使用したガーゼが術後に体内に残っていないかを確認するために,手術前後にガーゼの数を数えて,カウント数が一致しているかを確認する。さらに,術後には手術室内で使用できる移動型のX線撮影装置で撮影したX線画像を目視で確認し,ガーゼ遺残の有無を確認する。手術用ガーゼには造影糸が織り込まれており,X線画像ではそれを目視して確認
その驚くべき開発法は、1つのモデルに画像認識や音声認識など様々なタスクを学習させるというものだ。そうして万能AIのモデルを作り、100万種類を超えるタスクに対応することを目指す。学習していない未知のタスクに対しては、100万種類の学習済みタスクとの類似性からどう対処すればよいかを判断する。 グーグルは2017年6月に発表した論文「One Model to Learn Them All」で、1つのモデルに8種類のタスクを段階的に学習させていったところ、学習したタスクの数が増えるほど一部のタスクの精度が上がり、各タスクの精度に悪影響が出なかったことを検証によって確かめたと記している。グーグルは学習するタスクの種類を増やしていくことで万能AIを目指す。 「AIが人間に頼らずAIを開発する」「万能AIが登場する」と聞くと、AI脅威論を想像するかもしれない。しかし現実はそう単純ではない。AIがAIを
会計サービスをはじめ、バックオフィス向けクラウドソフトを提供するfreee。単純作業を効率化し、ユーザーが本質的な仕事に集中できる環境を提供するために、AI技術を駆使したさまざまな取り組みがなされている。 「ユーザーにとって本質的に価値があること(同社では「マジ価値」と呼ばれる)を届けきる」をコミットメントとして掲げる同社の、AI技術を使ったアプローチ方法を連載形式でお届けする。 第2回のテーマはOCR。紙の領収書や、請求書とにらめっこし、その扱いにうんざりしている経営者は少なくないだろう。 これら紙の文書をよりスムースに扱うため、freeeのサービスに実装されている独自のOCR機能を、同社機械学習エンジニアの田中浩之氏に紹介していただく。 はじめにfreeeでは「スモールビジネスを、世界の主役に。」をミッションに掲げ、「アイデアやパッションやスキルがあればだれでも、ビジネスを強くスマート
Machine learning is getting in more and more parts of our everyday lives. From the personally served ads and movie recommendations to self-driving cars and automated food delivery services. Almost all modern automated machinery ‘sees’ the world, but not like we do. They have to specifically detect and classify each object in order to see and acknowledge it as we humans do. While all modern detecti
モルフォが、千葉大学医学部附属病院、千葉県がんセンターと「内視鏡検査における大腸癌の深達度AI診断」の共同研究成果を発表 【概要】 株式会社モルフォ(所在地:東京都千代田区、代表取締役社長:平賀 督基、以下 モルフォ)は、千葉大学医学部附属病院消化器内科および臨床工学センター(以下 千葉大学附属病院)、千葉県がんセンター内視鏡科とともに取り組んだ研究プロジェクトである「内視鏡検査における大腸癌の深達度AI診断」において、新たに検出支援システム(Computer-assisted detection system: CAD system)を共同で構築し、病変の位置検出および深達度診断でmean average precision (mAP)が0.916という非常に良い結果が得られたことを本日3月12日に発表します。 また、本演題はDDW(Digestive Disease Week)2020
ドローンとAIの眼が、「良い牧草を選び出せるようになる」スマート育種評価法の開発が行われている。 例えば約1000株の牧草畑の場合、これまでは畑を2時間以上も歩いて人の肉眼による観察で牧草を一株ずつ評価していた作業を、ドローンで撮影した画像から5分程度で行えるようになる。AIはあらかじめ良い牧草をディープラーニングで学習させる。 農研機構(国立研究開発法人農業・食品産業技術総合研究機構)は、株式会社バンダイナムコ研究所と共同で、熟練した育種家が優良な牧草を選び出す技術を、あらかじめ人工知能(AI)に学習させ、育種家に代わって優良な株の選抜を自動的に行うことが出来る革新的な育種評価法を開発した、と発表した。ドローンのカメラと連携して行う。 同研究の概要 良い品種を作り出すためには、個体選抜の対象となる個体数が多いほど良いことが知られており、数多くの作物個体の特性を効率的に評価できる革新的な育
ディープラーニングでの、データとニューラルネットワークが大規模化していくにしたがって、トレーニングで利用するハードウェアにはスペックの高いものが求められる。 モデルのトレーニングに特化したGPUの利用がベストだとしても、そのコストがボトルネックになることがあるだろう。 こうしたなか、ライス大学の研究者が汎用的なCPUでも高速なトレーニングが可能なことを示した。研究者が開発したアルゴリズム「SLIDE(Sub-LInear Deep learning Engine)」は、従来のフレームワークとは全く別のアプローチでのトレーニングを実行する。 ・GPUによるトレーニングの3.5倍速を実現GPUは、CPUと比べて多くのコアを搭載可能。その演算処理性能の高さから、ディープラーニングにとってなくてはならない存在だ。 AIの進化はGPUの進化とともにあるといっても過言ではなく、なかでもNVIDIA V
米Facebookは2月28日(現地時間)、3D写真投稿機能を更新し、ポートレートモード以外で撮影した写真を3D写真として投稿できるようにしたと発表した。 3D写真は、2018年にまずはiPhoneのポートレートモードに対応し、その後GoogleのPixelシリーズにも対応した、立体的に見える写真を投稿する機能。 AI技術により、2Dの画像を3Dに変換できるようになったという。写真上のピクセルのカメラからの距離を推定するようにニューラルネットワークを訓練し、深度データを推測できるようにしたと説明する。 この技術で、過去の2D写真も3D写真として投稿できるようになった。投稿された3D写真は従来通り、Webアプリでも、どんなスマートフォンでも3Dとして表示できるが、3D写真を投稿できるのは「iPhone 7」以降、SamsungのGalaxy Note 8以降、GoogleのPixelシリーズ
漠然とではあるが推測されてきた通り、IntelがNervanaのデータセンター向けAI学習用チップ「NNP-T」ならびに推論チップ「NNP-I」を打ち切った。最近買収したHabana Labs(以下、Habana)のチップ「Gaudi」と「Goya」の方を選択したとみられる。 漠然とではあるが推測されてきた通り、IntelがNervanaのデータセンター向けAI学習用チップ「NNP-T」ならびに推論チップ「NNP-I」を打ち切った。最近買収したHabana Labs(以下、Habana)のチップ「Gaudi」と「Goya」の方を選択したとみられる。 EE Timesにメールで送られてきた声明の中で、IntelはNervanaのデータセンター向けNNP-T(開発コード名:Spring Crest)の開発を中止すると述べた一方、NNP-I(同、Spring Hill)については既存顧客を気遣い
はじめに Deep Learningを使った距離学習(Metric Learning)では、Contrastive LossやTriplet Lossなどを用いて、画像間の類似性(や非類似性)を直接学習していく方法が広く利用されていますが、学習データの組み合わせや選び方が難しく、学習自体が難航するケースが多い事も知られています。それだけに、これまで様々な改良と工夫が提案されています。 しかし、最近はこのような学習データ選びに難航することなく、一般的なクラス分類タスクの感覚で、Softmax関数をベースに学習できるMetric Learningが注目を浴びています。ArcFaceなどはその代表的手法でこちらで詳しく説明されています。 Softmax関数をベースにしたMetric Learningがうまくいく理由、またさらなる改良の余地はあるのか?これらに関して少し紹介しようと思います。 Ce
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く