Googleの全自動運転車(セルフドライビングカー)がカーブするときにどれぐらいのデータを処理し、どのように世界を見て分析しているのかというのを示す画像がTwitterに投稿されています。 Twitter / Bill_Gross: Google's Self-Driving Car gathers ... これは「Embedded Linux Conference 2013」というイベントの基調講演で、自動運転車担当のAndrew Chatmanさんが登壇して語った内容。以下に基調講演の内容とムービーがありますが、「左に曲がる」というわずか1つの動きのために、膨大な量の情報を処理していることが分かります。 Embedded Linux Conference 2013 - KEYNOTE Google's Self Driving Cars - YouTube Embedded Linux
スライス・オブ・ワールド、略してすらるど。旧タイトル『海外の反応とか』。海外の反応をヘッポコな翻訳力で紹介しています。 東京工業大学 長谷川修准教授のグループの開発した機械学習アルゴリズム「SOINN」は画像に対してキーワードを与えてやるとネットでそのキーワードを検索して特徴を学習し、似た画像でも以前見せた画像と同じものだと認識するようになります。 この技術を使えば画像だけでなく音や動画からも特徴を拾って学習することが可能になるとのこと。 この動画を見た海外の反応です。 参考リンク:diginfo.tv 人工脳「SOINN」を用いて、ネット上の画像から高速機械学習 #DigInfo SOINN artificial brain can now use the internet to learn new things #DigInfo ↓この動画につけられたコメント ●オーストラリア 機械が
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く