タグ

aiとrobotに関するpetite_blueのブックマーク (5)

  • Google、マルチモーダルVML「PaLM-E」搭載ロボットのデモを公開

    Googleと独ベルリン工科大学の研究者らは3月6日、ロボット制御のための具現化されたマルチモーダルな視覚言語モデル「PaLM-E」についての論文を発表した。視覚と言語を統合する、5620億ものパラメータを備えた視覚言語モデル(VLM)だ。 PaLM-E(Pathways Language Model with Embodied)は、Googleが昨年のGoogle I/Oで発表した大規模言語モデル(LLM)「PaLM」をベースにしており、画像や状態推定などの視覚的な入力を受け取り、自然言語で出力できる。これにより、ロボットは人間の音声による命令を受けてタスクを実行できる。 例えば、ロボットに「引き出しからスナックの袋を出して持ってきて」と口頭で頼むと、ロボットは頭脳であるPaLM-Eと搭載したカメラの視野に映る情報に基づいて命令を実行に移す。 Githubで公開された動画では、ロボット

    Google、マルチモーダルVML「PaLM-E」搭載ロボットのデモを公開
  • グーグル、曖昧な指示を理解し対応できるロボットをテスト中--AI言語モデルを応用

    Googleは、ロボットが現実世界の複雑さに対処するための驚くべき新たな手法を見つけた。それは、ロボットに言語を理解する方法を教えることだ。 Googleは、親会社Alphabetのロボット事業部門Everyday Robotsのロボットに、言語を扱う最新の人工知能AI技術「PaLM」(Pathways Language Modelの略)を組み合わせた。その結果生まれた「PaLM-SayCan」という技術を、米国時間8月16日に公開した。 この技術により、GoogleAI言語モデルに現実世界に関する知識が十分に組み込まれると、ロボットは人間の曖昧な指示を解釈し、それに応える一連の動作を組み立てられるようになる。これは、自動車の組み立てラインでフロントガラスを取り付けるような厳密に制御された状況で、大部分のロボットが正確にスクリプトで指定された動作に従っているのとは対照的だ。 PaLM

    グーグル、曖昧な指示を理解し対応できるロボットをテスト中--AI言語モデルを応用
  • 吉野のロボット:ニューラルネットワークチップ(CogniMem)を使ってみる

    ニューラルネットワークチップ(CogniMem)を使ってみる 最終更新日:2010/03/28 はじめに ニューラルネットワークチップ(CogniMem)とは、パターン認識の専門用語で言うと「非線形識別器」 をハードウェア的に実現したもので、あらかじめ半導体メモリーに記録(チップの取説では「学習」と 言われています)された、1種類(カテゴリー)あたり最大256bitで表現したパターン(データ)と、 後から与えられたデータの幾何的な距離を計算し、記憶されているデータのなかのどれと似ているかを 同時並列に計算して結果を出してくれるチップです。 非線形識別器の種類としては、Radial Basis Function(RBF)とK-Nearest Neighbor(KNN)というものが 実装されています。 簡単にまとめると、256bit未満の数値の並びに表現できるものならば、何でも識別処理できるチ

  • Hans Moravec - Wikipedia

    petite_blue
    petite_blue 2007/03/27
    interestオペレータの人
  • ロドニー・ブルックス - Wikipedia

    ロドニー・アレン・ブルックス(Rodney Allen Brooks, 1954年12月30日[1] - )は、オーストラリア出身のロボット研究者[8]。人工知能界で物議を醸したサブサンプション・アーキテクチャの提案者[5][2]。MITコンピュータ科学・人工知能研究所で教授・所長を歴任し、iRobotやリシンク・ロボティクスの創業でも知られる。ルンバやパックボットにはサブサンプション・アーキテクチャが実装された。スタンフォード大学Ph.D、マサチューセッツ工科大学名誉教授[8]。2014年エンゲルバーガー賞(リーダーシップ部門)受賞者[6]。 来歴・人物[編集] コンピュータビジョン[編集] 1954年、オーストラリアのアデレードに生まれる[9]。南オーストラリアのフリンダース大学で数学を学ぶ。博士課程はスタンフォード大学で、トーマス・ビンフォード(英語版)[9]のもとでコンピュータビジ

    ロドニー・ブルックス - Wikipedia
  • 1