サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
パリ五輪
trail.t.u-tokyo.ac.jp
ロボカップジャパンオープン2023 @Homeリーグで受賞しました. TRAILは2023年5月3日から7日にかけて滋賀ダイハツアリーナで行われた「ロボカップジャパンオープン2023 @Homeリーグ」に参加しました. 本チームは,既定のロボットを使い家庭内の生活支援タスクの性能や技術を競う「ドメスティックスタンダードプラットフォーム部門(DSPL)」に参加し,学部生を中心とする現体制での参加は2度目ながら,競技部門優勝・テクニカルチャレンジ3位の成績を収めました. 特に競技部門では,3つの競技全てにおいて一位を獲得しました.7月に開催される世界大会に向け,さらに開発・調整を重ねてまいります. テクニカルチャレンジで発表した内容は以下より覧いただけます.動画
はじめにみなさんこんばんは1. TRAILの小林聖人です. 「基盤モデル×Robotics」のAdvent Calendarにご参加して頂き, ありがとうございます! 本記事は東京大学松尾豊研究室のサブグループであるTRAILのテックブログでご紹介させて頂いております! 今回の記事では,Robotics at Google, Everyday Robots, Google Research, Brain Teamが提案した 「RT-1: Robotics Transformer for Real-World Control at Scale」 を紹介します. arXivには2022年12月14日(日本時間)に投稿されています。 この記事が2022年12月15日投稿なので、かなりホットな話題ではないでしょうか? 私の専門はもとより制御、メカトロニクス、ロボティクスなのですが、 AI領域(知能
モデルの概要 CLIPの事前学習CLIPの基本的なアイデアは,言語情報(テキスト)とペアになっている画像の対照学習によって,よい言語と画像の表現(embedding)を学習する点にあります(図1). CLIPの事前学習(出典:OpenAIのブログ) このアイデア自体はどのようなモデル同士の組み合わせでも実現できるはずですが,CLIPのテキストのエンコーダには,transformerを利用しています. また,画像のエンコーダにはResNetをベースのモデル,Vision Transformer (ViT) を提案モデルとして利用して比較しています(著者実装では,ResNet版もViT版も両方学習済みモデルが利用可能です). 学習時には,図2のように,テキストと画像のペアのミニバッチを作成し,テキストと画像のそれぞれの表現に関して,コサイン類似度を計算し3,正しいペアに関しては大きくなるように
はじめにみなさんはじめまして.TRAILの小林聖人と申します. ご覧頂きありがとうございます! また, 「基盤モデル×Robotics」のAdvent Calendarにご参加して頂き, ありがとうございます! 本記事は東京大学松尾豊研究室のサブグループであるTRAILのテックブログでご紹介させて頂いております! TRAIL ロボコン大会実績 ロボカップジャパンオープン@home2020 DSPL初出場 テクニカルチャレンジ優勝・総合準優勝の2冠WRS (World Robot Summit) 2020 Partner Robot Challenge 準優勝本題へ本記事の構成目次 ☆ 基盤モデルとは? ▷ 命名「基盤モデル foundation model」 ▷ 基盤モデルが台頭した訳 ▷ 基盤モデルの例 ☆ 基盤モデルのロボティクスへの活用例 ▷ PaLM-SayCan ▷ Code a
このページを最初にブックマークしてみませんか?
『trail.t.u-tokyo.ac.jp』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く