chizuchizu_blogのブックマーク (19)

  • Androidと自動車を接続してみよう!

    はじめに Turing株式会社 UXチームでインターンをしている東京大学3年の勝見とエンジニアの佐々木(@kento_sasaki1) です。 UXチームでは、Androidを採用して独自のIVI (車載インフォテイメント) の開発を行なっています。記事では、AOSP (Android Open Source Project) の枠組みで車両と接続するのに肝となるVHAL (Vehicle Hardware Abstraction Layer) とCar APIについて概説し、Androidと自動車を接続する方法について紹介します。なお、記事はAOSPのソースコード (Android12.1.0 rivision11) を適宜参照しながらご覧ください。 概要図:Android Automotive OSは車載ECUとCANプロトコルで情報を送受信する Android Automotiv

    Androidと自動車を接続してみよう!
  • TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査

    はじめに Turing株式会社の自動運転MLチームでエンジニアをしている越智 (@chizu_potato)と塩塚 (@shiboutyoshoku) です。 Turingが目指す自動運転は、大量のデータで学習された非常に賢い機械学習モデルを活用することです。そのために、走行パートナーの方たちと協力して創業時からこれまで大量の走行データを取得してきました。走行データは車両に取り付けられた複数カメラによる360度をカバーした動画と、そのときの速度やGPSなどの走行ログを含んでいます。データサイズは80TBを超え、時間換算で3500時間程度です。 これだけのデータサイズでモデルを学習するためには、1枚のGPUだけで頑張るには限界があり複数のGPU (multi-GPU) による分散並列学習が必要となってきます。しかし、ただ分散並列学習を行うだけではmulti-GPUに対し、データの入出力 (I

    TFRecordとWebDatasetを使った分散並列学習とパフォーマンス調査
  • 大規模言語モデルを使って自動車走行時の状況説明をさせてみる? -社内LLMハッカソン記-

    Turing株式会社の自動運転MLチームでエンジニアをしている岩政です。 Turingの自動運転MLチームでは、完全自動運転の開発に向けて、走行データから自動走行が可能な深層学習モデルの作成およびデータ基盤の整備、視覚情報以外にも言語を活用したマルチモーダルな基盤モデルの作成に取り組んでいます。 記事では、視覚情報を認識するモデルと大規模言語モデルを組み合わせて、「自動車走行時の特に危険な状況を説明することができないか?」という観点から、社内ハッカソンで取り組んだことを紹介します。 社内LLMハッカソン 事の発端は、4月のある1日に急遽開催された大規模言語モデル(以下LLM)を活用した社内ハッカソンでした。高度な自動運転の実現において、一般的な社会常識のもと複雑な状況を理解して適切に行動するための「知能」は必要不可欠です。現在、Turingでは、LLMはその知能として高いポテンシャルがあ

    大規模言語モデルを使って自動車走行時の状況説明をさせてみる? -社内LLMハッカソン記-
    chizuchizu_blog
    chizuchizu_blog 2023/06/30
    複数の特徴抽出プロセスを経て、LLMに入力し、コンテキストを理解してもらっています!! 挑戦的な取り組み!
  • Android OS向けGPSドライバ開発:要求仕様の解説と実装ガイド

    こんにちは。Turing株式会社でインターンをしている、東京大学学部4年の三輪です。 TuringUXチームでは、Android OSを採用して独自の車載UI開発を進めています。Android OSはセンターディスプレイにあたる部分で主に利用される予定で、エアコン、ドア、ライトなどの操作をディスプレイ上で行えるようにするほか、ナビアプリや音声アシスタントなどの実装をAndroidプラットフォーム上で進めていく予定です。 自動車に搭載するOSを開発していくうえで、さまざまなハードウェアをOS上で扱えることは必須の要件になります。しかし、Android OSでのハードウェアの取り扱いはベースであるLinuxとは異なる独自の部分が多く、慣れが必要です。 この記事では、GPSデバイスのドライバを実装し、AndroidのネイティブフレームワークからHALを介してGPSデバイスを透過的に扱えるように

    Android OS向けGPSドライバ開発:要求仕様の解説と実装ガイド
  • 創業2年目のスタートアップが自社工場を立ち上げた話

    はじめに はじめまして。Turing株式会社で事業開発を担当している山崎です。 Turingは完全自動運転EVの実現を目指すスタートアップです。自動運転に必要な頭脳・ソフトウェアだけではなく、それと相互に連携する車体・ハードウェアの開発にも自ら取り組んでいます。 そんな当社ではこの度初の自社工場を整備し、今年6月12日に晴れて操業開始しました。2021年の創設から社歴2年にも満たないスタートアップ企業が、なんのために大規模な投資を伴う自社工場の整備に踏み切り、完全な手探り状態からどのように拠点整備を進めたのか。世間的にも結構珍しいケースではないかと思いますので、その過程の一部をご紹介します。 いつものTuringテックブログとは少し趣が異なりますが、社内の雰囲気が少しでも伝われば幸いです。 なぜ今のタイミングで工場を立ち上げたのか 今回整備した工場は、Turingの事業戦略の中で研究開発拠

    創業2年目のスタートアップが自社工場を立ち上げた話
  • GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム

    はじめに 5月からTuringに中途入社した棚橋です。リクルートで広告配信システムの開発や量子アニーリングに関する研究開発に関わっていました。現在、Turingのリサーチチームで完全自動運転システムの研究開発に取り組んでいます。 3行でまとめ 今月開催されるCVPR2023では約2400もの論文が発表されるため、見るべき論文を事前に検索しておきたい。 社内で行われた大規模言語モデル(LLM)ハッカソンをきっかけに、LLMのEmbeddingを用いて論文の「検索・推薦・要約」システムを作成し公開した。 検索クエリに文章を使った曖昧な検索が行えたり、類似論文の推薦ができる。6/13にアップデートされたGPT3.5の新機能であるファンクション機能を使うことで、複数観点に分けて研究内容の要約を出力させた。 ↓ 今回作成した、LLMを使ったCVPR論文検索システム 事の発端 Turingは、ハンド

    GPT-3.5-turboの新機能を使ってCVPRの論文を良い感じに検索・推薦・要約するシステム
    chizuchizu_blog
    chizuchizu_blog 2023/06/14
    時代が変わった 3000件の論文を読むのはしんどい😭
  • 自動車のスマホ化 - Android Automotive OS完全入門!

    はじめに Turing株式会社のUX Engineeringチームでエンジニアをしています佐々木です。Turingは「We Overtake Tesla」をミッションに完全自動運転EVの開発をしています。UX Engineeringチームは、車載インフォテインメント (IVI : In-Vehicle Infotainment) システムの開発を担当しており、Android Open Source Project (AOSP) をベースに車載OSを開発しています。 記事では、AOSPの枠組みに含まれるAndroid Automotive OS (AAOS)を概説し、また、実機でAAOSを体験するためにRaspberryPi 4BでAAOS13.0を実行する方法を紹介します。 Android Automotive OSの概要 Android Automotive OS (AAOS) は自動

    自動車のスマホ化 - Android Automotive OS完全入門!
  • 実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?

    こんにちは。Turing株式会社の機械学習チームでインターンをしている九州大学修士1年の岩政(@colum2131)です。 Turingは完全自動運転EVの開発をするスタートアップです。 自動運転技術において、カメラやセンサ情報は正確な制御をする上で不可欠な要素である一方、自然言語やマルチモーダルな処理が必要となる状況もしばしば存在します。特に完全自動運転車においては、音声認識によってドライバーの音声命令を認識し、リアルタイムで適切な制御を行うことや、複雑な交通状況の背景にあるコンテクストを理解させるといった要求が出てきます。そのために、「基盤モデル」と呼ばれるような、自然言語処理を含む大規模モデルの学習が必要になってくると、私たちは考えています。 そこで記事では、言語モデルの発展の流れとTuringが目指す基盤モデルの開発について紹介します! 1. 言語モデルとは? 近年の言語処理モデ

    実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?
  • テスラに迫る!? 中国の自動運転をリードするBaidu/ApolloのAI戦略

    こんにちは。Turing機械学習チームでエンジニアをしている塩塚です。 Turingは「We Overtake Tesla」を合言葉に、完全自動運転EVの開発・販売を目指しているスタートアップです。TuringではAIの強力さとそのさらなる成長を信じ、AIベースの自動運転システムを開発しています。 AIベースで自動運転を開発している会社はいくつかありますが、例えば米国の電気自動車メーカーTeslaはその代表的な会社の一つです。Teslaはカメラを主たるセンサーとして採用し、AIによって走行経路などを決定しています。詳しい内容は、Tesla AI Day 2021というイベントの内容を弊社のエンジニアがまとめているのでぜひ見てみてください。 一方、私たちはTeslaだけでなく、Apolloという中国企業にも大きく注目しています。 Apolloは、中国の巨大IT企業Baidu傘下の会社で、自

    テスラに迫る!? 中国の自動運転をリードするBaidu/ApolloのAI戦略
  • Turingがどのように試作車を作っているか

    Turingで車両開発のエンジニアをしているhidetatzです。ソフトウェア業界のプログラマからTuringでの自動車開発に飛び込みました。 Turingは「We Overtake Tesla」をミッションとし、完全自動運転EVを販売する完成車メーカーになることを目指している会社です。 Turingでは2023年1月20日に、1台目の車「THE FIRST TURING CAR」を販売開始しました! (こちらは既に成約いただいてます。) 「THE FIRST TURING CAR」は、トヨタのレクサスRX450hをベース車両としています。ベース車両というのはどういうことかというと、市販車として売られているレクサスをまずディーラーから買ってきて、それにTuringの自動運転ソフトウェアを組み込んで作られています。つまり、自動運転部分以外は普通のレクサスなわけです。 前述したように、Turi

    Turingがどのように試作車を作っているか
  • 詳解V4L2 (video for linux 2)

    この記事は「自動運転システムをエッジデバイスに組み込むための技術」を3回に分けて紹介するTURINGのテックブログ連載の第3回の記事「詳解V4L2 (video for linux2)」です。 第1回の「C++OpenCV完全入門!」、第2回の「OpenCVをNPPにした結果→10倍高速に!」もぜひご覧ください! はじめに こんにちは。TURING株式会社(以下、TURING)で、インターンをしている東大B3の中村です。 TURINGは、完全自動運転EVを作ることを目的に設立されたベンチャー企業です。自動運転システムとそれを搭載したEV車の開発を行っています。 TURINGの自動運転システムは、カメラからの映像入力を肝としています。これまではOpenCVを入力のインターフェイスとして利用していました。OpenCVを使用していたのは、 buildや使用法についての情報が多い コードが簡単に

    詳解V4L2 (video for linux 2)
    chizuchizu_blog
    chizuchizu_blog 2023/02/10
    一番低いレイヤで画像を扱えるようになることで、画像処理といった思い処理のパフォーマンス向上に大幅期待できるのアツい
  • OpenCVをNPPにした結果→10倍高速に!

    この記事は「自動運転システムをエッジデバイスに組み込むための技術」を3回に分けて紹介するTURINGのテックブログ連載の第2回の記事「OpenCVをNPPにした結果→10倍高速に!」です。 第1回の「C++OpenCV完全入門!」、第3回の「詳解V4L2 (video for linux 2)」もぜひご覧ください! はじめに TURINGで働いている木更津高専の越智です。TURINGでは「We Overtake Tesla」を目標に掲げて、完全自動運転EVの開発・製造を行っています。 TURINGでは、社内で使っている自動運転ソフトウェアにおいて、画像処理部分のライブラリをOpenCVからNVIDIA Performance Primitives(NPP)に変更するプロジェクトに取り組んでいました。これによって、CPUで動かしていた画像処理をGPUバックエンドで動かすことができるようにな

    OpenCVをNPPにした結果→10倍高速に!
    chizuchizu_blog
    chizuchizu_blog 2023/02/03
    公開しました〜 NPPを使って、エッジデバイスの性能を最大限引き出し、開発している自動運転ソフトウェアに搭載しました
  • C++でOpenCV完全入門!

    この記事は「自動運転システムをエッジデバイスに組み込むための技術」を3回に分けて紹介するTURINGのテックブログ連載の第1回の記事「C++OpenCV完全入門!」です。 第2回の「OpenCVをNPPにした結果→10倍高速に!」、第3回の「詳解V4L2 (video for linux 2)」もぜひご覧ください! はじめに こんにちは。完全自動運転EVを開発するベンチャー企業、TURING株式会社でインターンをしている東大工学部3年の井上信多郎です。 我々人類は、車を運転するにあたって多くの情報を目から取り入れています。目から取り入れた情報を元に、アクセル・ブレーキ・ハンドルを操作しています。 自動運転の場合、その目に相当するセンサがカメラであり、カメラから得た情報を元に車を運転することになります。カメラから得る情報とは、ずばり画像です。画像の中から信号、標識、前方車両などの必要なもの

    C++でOpenCV完全入門!
    chizuchizu_blog
    chizuchizu_blog 2023/01/27
    OpenCV、ピクセル単位でのメモリ配置を知らないと大体つまずくので、そういうところから解説してくれているのアツい
  • 脱・人力アノテーション!自己教師あり学習による事前学習手法と自動運転への応用

    こんにちは、TURING株式会社(チューリング)でインターンをしている、東大大学院修士一年の舘野です。 TURINGは完全自動運転EVを開発しているベンチャー企業です。 完全自動運転を実現するには、車の周りの環境をセンシングし認識するシステムが不可欠です。センシングのためのセンサーは様々考えられますが、TURINGでは主にカメラを用いています。 自動運転AIにはカメラデータから信号機・標識・周囲の車、などの情報を読み取る必要がありますが、そのためにはそれぞれの目的に対応した学習が必要です。 一番単純な方法は、学習させる各動画フレームに対して人間が信号機・標識・周囲の車などの正解情報を付与し、AIモデルが動画を見て正解情報を予測できるようにすることです。下図は、画像から車を検出するモデルの例です。モデルの中身は画像の特徴量を抽出する部分と、分類を行う部分を分けて表現していますが、学習時は元デ

    脱・人力アノテーション!自己教師あり学習による事前学習手法と自動運転への応用
  • 【自動運転】信号機認識に挑む / 走行画像15,000枚のアノテーションとYOLOXモデルによる深層学習実践

    こんにちは。TURING株式会社でインターンをしている、東京大学学部3年の三輪と九州大学修士1年の岩政です。 TURINGは完全自動運転EVの開発・販売を目指すスタートアップです。私たちの所属する自動運転MLチームでは完全自動運転の実現のため、AIモデルの開発や走行データパイプラインの整備を行っています。 完全自動運転を目指すうえで避けて通れない課題の一つに信号機の認識があります。AIが信号機の表示を正しく理解することは、自動運転が手動運転よりも安全な運転を達成するために欠かせません。信号機を確実に認識したうえで、周囲の状況を総合的に判断して車体を制御し、安全かつ快適な走行を実現する必要があります。 TURINGでは信号機の認識に取り組むため、15,000枚規模のデータセットを準備し、高精度なモデルのための調査・研究を開始しました。この記事ではデータセットの内製とその背景にフォーカスしつつ

    【自動運転】信号機認識に挑む / 走行画像15,000枚のアノテーションとYOLOXモデルによる深層学習実践
    chizuchizu_blog
    chizuchizu_blog 2023/01/06
    日本の信号機検出あつい! 信号機で止まってほしい
  • Googleマップを使ってランダムな運転経路生成を100倍速にする

    こんにちは、TURING株式会社でインターンをしている東大工学部4年の井上です。 TURING(チューリング)は完全自動運転EVを開発するベンチャー企業です。 完全自動運転AIの開発のため、独自にデータの収集を行っており、 2022年内に500時間 2023年内に50,000時間 という目標を掲げています。このうち、2022年の500時間のデータ収集については既にデータベース化が完了し、次の50,000時間の達成に向けた開発が進められています。 チューリング社ではデータ取得のため、自社開発の収集キットを搭載した車両に乗車するデータ取得チームを結成し、公道上での走行データの取得を開始致しました。2022年4月〜10月のフェーズ1において500時間分の走行データの試験取得を完了していますが、2022年12月から開始するフェーズ2として2023年末までを目標期間として、国内最大規模である50,0

    Googleマップを使ってランダムな運転経路生成を100倍速にする
  • dart:ffiで既存のC++の資産をDart/Flutterから使用する方法

    1. はじめに こんにちは、TURINGエンジニアをしているsangotaroです。 TURINGは完全自動運転システムを搭載した"EV"の販売を目標とする会社です。 この記事では既存のC++で書かれたソフトウェアの資産をDartから利用する方法についてある程度の知見が得られたのでそれをまとめたいと思います。 2. なぜC++の資産をDartから使用する必要があったか hokkaidoプロジェクトの記事でもお伝えした通り、TURINGでは現時点でも以下のソフトウェア資産を持っています カメラからの映像を入力として経路の推定を行い自動運転を行う 自動運転の推論の結果得られた経路やカメラ画像の表示、CAN (自動車の様々なデータが流れるネットワーク)から得られた情報などを車載モニタに表示する 現状のモニタに表示されている情報でも運転手に必要な情報は表示されているのですが、今後さらに車載モニ

    dart:ffiで既存のC++の資産をDart/Flutterから使用する方法
  • Teslaはカメラを使ってどのように世界を認識しているか

    はじめに TURINGの井ノ上です。TURINGは「We Overtake Tesla」をミッションに、完全自動運転EVの開発・製造を行っています。TURINGはEnd-to-Endな深層学習モデルでLv5完全自動運転車の開発を目指しています。現在、TURINGではカメラセンサから得た画像を用いて車体の操作や経路選択、安全性の判断を行えるAIモデルの開発を行っています。(実際の車を動かす事例はこちらの記事やこちらの記事をご覧ください。) この記事では私達が目標としているTeslaの自動運転のAIモデルについて紹介します。 Teslaの自動運転 こちらは2022年に公開されたTeslaの自動運転をユーザーが使っている動画です。 車の中央にあるディスプレイにはAIが道路や車を認識してどういった経路を進むかを示しており、その情報をもとに自動運転している様子があります。Teslaの自動運転の能力の

    Teslaはカメラを使ってどのように世界を認識しているか
    chizuchizu_blog
    chizuchizu_blog 2022/11/04
    最新の論文もキャッチアップしていてすごい。今後、モデルの推論速度にも着目して、実用的に動かせるかどうかについていっても議論してほしさがある。
  • 【TURING】北海道自動運転1周を可能にした技術

    1. はじめに こんにちは。TURING株式会社(以下、TURING)で、インターンをしている東大B3の中村です。 TURINGは、完全自動運転EVを作るべく設立されたベンチャー企業です。自動運転システムとそれを搭載したEV車の開発を行っています。 TURINGでは、2022/09/27から同10/5(実走行は9/29から10/3)にかけて、hokkaidoプロジェクトと題して、自動運転システムを用いて北海道を沿岸部にかけてほぼ一周するプロジェクトを実施しました。結果として、総走行距離1480kmに対して約1400km(95%)を自動運転で走行しました。 今回、自動運転車両の走行をするために事前に北海道道庁・国土交通省に相談・許可をいただき、弁護士さんにお墨付きをもらった上で通過する各自治体に周知を行って実行しています。関係各所、弊社チームのみなさんにはこの場を借りて感謝お伝えします。 図

    【TURING】北海道自動運転1周を可能にした技術
  • 1