タグ

*algorithmと*techに関するsh19910711のブックマーク (34)

  • Visual-Inertial Odometryが自動運転に与えるインパクトと応用への課題 - TIER IV Tech Blog

    こんにちは、ティアフォーでVisual SLAMの研究開発をしている石田です。今回はVisual-Inertial Odometryという、カメラとIMU(慣性計測装置)を用いた経路推定手法を紹介し、これを自動運転に応用できた場合のインパクトと、応用までに乗り越えなければならない課題についてお話します。 走行経路の推定結果 なお、ティアフォーでは、「自動運転の民主化」をともに実現していく様々なエンジニア・リサーチャーを募集しています。もしご興味があればカジュアル面談も可能ですので以下のページからコンタクトいただければと思います。 tier4.jp 自動運転における自己位置推定 自己位置推定とは、名前のとおり車両やセンサーデバイスなどが地図の中でどこにいるのかを推定するための技術であり、自動運転において欠かせない要素のひとつです。自分がどこを走っているか把握できなければ迷子になってしまいます

    Visual-Inertial Odometryが自動運転に与えるインパクトと応用への課題 - TIER IV Tech Blog
    sh19910711
    sh19910711 2025/08/02
    2021 / "公道を走る車両の自己位置推定は少なくとも数十センチの精度 / 計算するのに1秒かかっていたら、その間に車が動いてしまい、周囲の物体にぶつかってしまい / カメラとIMU(慣性計測装置)を使って移動経路を求める"
  • 自律移動ロボットの安全機構のためのLiDARによる速度推定

    sh19910711
    sh19910711 2025/08/02
    "ISO26262(公道走行モビリティ・ロボット)やIEC61508(機能安全全般)等の規格 / 1フレーム間のLiDAR点群同士を比較して座標変換を計算 + 移動量推定により現在のロボットの車速を推定する"
  • ロボティクスモデルの精度向上の挑戦 〜データ拡張(Data Augmentation)編〜 - ABEJA Tech Blog

    こんにちは!ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。 先日の記事で、LeRobot で公開されているロボティクス領域の VLA モデル「π0」をファインチューニングした上で Gymnasium シミュレーター環境上で動かす方法を解説しました。 tech-blog.abeja.asia 前回の記事では、ただ単に公開されている学習用データセットでモデルをファインチューニングして推論させるだけの簡単な内容でしたが、今回はもう少し踏み込んでモデル自体の改善をやってみようと思います。 また前回はロボティクスモデルとして π0 モデルを動かしましたが、今回の記事では学習時間の都合上、より軽量なロボティクスモデルである「ACT」を使用してモデル改善を行います。 ACT [Action Chunking with Trasnformers] の詳細に

    ロボティクスモデルの精度向上の挑戦 〜データ拡張(Data Augmentation)編〜 - ABEJA Tech Blog
    sh19910711
    sh19910711 2025/07/20
    "推論時は学習時と違ってロボットからのカメラ画像がぼやけてしまう / 画像がぼやけた途端にうまく制御できていないことがわかる / 理想的な環境での Max 品質だけではなく汎化性能を含めて評価する"
  • [T2] 自動運転における3次元物体認識の動向

    会社紹介動画: https://youtu.be/jBpdf17obms 会社HP: https://t2.auto/ 3D何でも勉強会 #2「自動運転における3次元物体認識の動向」のタイトルで発表した資料です。 https://preferred-networks.connpass.com/…

    [T2] 自動運転における3次元物体認識の動向
    sh19910711
    sh19910711 2024/10/11
    "PointPainting: 点群を画像上に投影して各点毎に特徴量を取得 + LiDAR特徴量とConcatする / BEVFusion: 画像からDenseなBEV featureを生成 + 画像およびLiDAR branchが同じBEV空間上で特徴量を生成 + 実装がシンプルでDeployしやすい" '23
  • マルチモーダル学習ライブラリ Heronと⾃動運転への応⽤

    sh19910711
    sh19910711 2024/05/24
    "運転: 人間は無意識のうちに多くの「文脈」を理解している / Heron: 様々なモデルを組み合わせて学習(画像エンコーダ・アダプター・LLM) / 大規模分散学習: ABCIグランドチャレンジで実施 + V100 256基を使用"
  • 素人が量子プログラミングを2年間やって感じたこと - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 振り返り 気づけば量子プログラミングを始めて2年超。 量子コンピュータについて私見をまとめます。 過去のものは以下。 https://qiita.com/notori48/items/c0293496d72446fb15af https://qiita.com/notori48/items/1ee323ec8cbddba38ef8 やってきたこと 量子アルゴリズムを使って(古典の)問題を解く 論文数 受賞歴あり 特許数 社外連携(共同研究等) 後進育成 社内の量子人材確保への貢献。勉強会活発化、Ph.D呼び込み、若手のエンカレッジ

    素人が量子プログラミングを2年間やって感じたこと - Qiita
    sh19910711
    sh19910711 2024/04/24
    "古典的な問題をGroverアルゴリズムに持ってくるオーバーヘッド / 大量のデータを処理する系のアルゴリズムは、任意の古典データを入力するためのゲート操作が膨大であるため、ほとんどの場合で役に立たないのでは" 2023
  • 70Bモデルのホスティング

    こんにちは、@ken11です。 今日はSpiral.AI株式会社のエンジニアブログとして、70BのLLMをホスティングした話をご紹介したいと思います。 70B 春先に「とりあえず6B、話はそれからだ」と言った人がいたような気もしますが、たしかに最近のLLMはパラメータ数が7B/13B/70Bというのが多いのではないでしょうか。 そうですね、Llama2をファインチューニングしたものも多いので、余計にそういったパラメータ数を見かけることが多くなった気がします。 さて、みんな大好きOpenAIGPT-3.5が175BだとかGPT-4はおそらく500B~だとかいろいろ言われており、Llama2最大サイズの70Bでも遠く及ばないわけですが、それでも70Bは市場に出回っている(誰でも使える)モデルの大きさとしては現状最大級となっているわけです。 とはいえ実際に使おうと思うと、7Bですら結構な推論コ

    70Bモデルのホスティング
    sh19910711
    sh19910711 2024/03/06
    "7Bですら結構な推論コストがかかり、70Bとなるといよいよ莫大になってきます / どんなにいいモデルでもホスティングして実際に使えなければ意味がない / cerebrium: サーバレスGPU + 推論に特化したサービス" 2023
  • fairseqで翻訳モデルを作成してみる - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? これはfairseq+sentencepieceで翻訳モデルを作成する実験中の備忘録です。 環境はNVIDIA Jetson AGX Xavier 16GBを使用しています。 先日OpenNMTを試したのですがハイパーパラメータを設定すると途端にうまく動きません。 どうも実装側に問題があるようで、諦めてfairseqを触ることにしました。 fairseqもバージョンによっては動かないことがあり、0.12.2ではトレーニングはできるがジェネレートに失敗する。 0.10.2は動かない。0.10.0はトレーニングとジェネレートの両方で動きまし

    fairseqで翻訳モデルを作成してみる - Qiita
    sh19910711
    sh19910711 2024/02/26
    "NVIDIA Jetson AGX Xavier: 低消費電力 + シーリングライトを点けたままと変わりません / fairseq: 0.12.2ではトレーニングはできるがジェネレートに失敗 + 0.10.0はトレーニングとジェネレートの両方で動きました"
  • PNGデコーダの調査結果:ESP8266でのデコードは厳しいかも

    ESP8266でJPEGとGIFがデコードできましたので、PNGも…と思い、仕様や既存のライブラリを調査していました。 その結果をここでまとめておきます。 結論としては、ESP8266でのPNG画像のデコードは不可能ではないものの、RAMの消費量や現時点で使えるデコーダライブラリの状況からは、JPEGやGIFに比べると課題が多いと言えます。 まず、PNGの圧縮方法について触れておきます。 PNGは、原理的には「ビットマップ画像をZIPで圧縮した」イメージに近いです。 圧縮アルゴリズムはDeflateと呼ばれているもので、ZIP、gzip等で使われているものと同じです。 Deflate圧縮は、出現頻度の高いビット列に短い符号を割り当てるハフマン符号化と、過去に既出のビットパターンを参照することでデータの繰り返しを圧縮するLZ77を組み合わせたものです。 Image compression D

    PNGデコーダの調査結果:ESP8266でのデコードは厳しいかも
    sh19910711
    sh19910711 2024/02/18
    "Deflate圧縮: 出現頻度の高いビット列に短い符号を割り当てるハフマン符号化 + データの繰り返しを圧縮するLZ77 / 過去に既出のパターンがあったかどうかを調べるための辞書が必要" / 2015
  • ABCIの大規模言語モデル分散学習ハッカソンを振り返る

    7月6日〜14日の9日間、ABCIの主催で 第1回大規模言語モデル分散学習ハッカソン が開催されました。自分はいいだしっぺ 兼 チューターとして参加したのですが、今回のイベントは個人的な学びも多かったし、なにより楽しかったので、忘れないうちに振り返っておこうと思います。 いいだしっぺというのは、3月に上記の tweet をしたら NVIDIA の @sfuruyaz さんが拾って諸々進めてくれた、という話です。自分はイベント内容の案をだしたり、技術検証やサンプルプログラムを作成したりしました。 イベント概要 イベント概要は以下の通りです 期間: 2023/07/06 - 2023/07/14 (9日間) 場所: オンライン(初日・最終日はオフラインとのハイブリッド開催) 参加数: 20チーム 提供リソース: Vノード(1000 ABCIポイント) サポート: チューター(言語モデルや機械学

    ABCIの大規模言語モデル分散学習ハッカソンを振り返る
    sh19910711
    sh19910711 2023/08/16
    "チーム毎に1000ポイント付与 + V100を4000時間利用できる / NVIDIAの中の人に分散処理のあれこれを質問できて、一緒に問題解決に取り組んでもらえる機会はなかなかない"
  • MKL-DNNで学ぶIntel CPUの最適化手法 - Cybozu Inside Out | サイボウズエンジニアのブログ

    初めに サイボウズ・ラボの光成です。 DNN(deep neural network : 深層学習)といえばGPUや専用プロセッサを使うのが主流です。 しかしIntelはCPUで高速にDNNをするためのライブラリ MKL-DNN を提供しています。 MKL-DNNはIntelの最新CPUに対応したオープンソースソフトウェアなのでコードを見ると勉強になります。 ここではMKL-DNNで使われているテクニックをいくつか紹介します。 概要 MKL-DNNの紹介 Xbyakの紹介 呼び出し規約 圧縮displacement ReLU exp 内積 vpdpbusd キャッシュコントロール 想定読者 C++11とx64 CPUのアセンブリ言語の知識をある程度仮定します。 機械学習についてはその知識がなくても最適化手法が理解できるよう、最小限の説明をします。 MKL-DNNの特長 まずMKL-DNNの

    MKL-DNNで学ぶIntel CPUの最適化手法 - Cybozu Inside Out | サイボウズエンジニアのブログ
    sh19910711
    sh19910711 2023/04/18
    2019 / "Intelの第二世代Xeon SPで搭載されたDL Boost命令を使うと1バイト整数ベクトルの内積を高速に求められます / CPUがAVX512_VNNI命令セットに対応しているとvpdpbusdを使えます"
  • 実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足

    深層学習が著しく発展し、今まで人間にしかできないと思われていたことができるようになってきました。そのおかげで、今まで機械学習と縁が薄かった分野でも、機械学習を使った研究がしたいという声が上がるようになっています。 前々回は、それを裏付けるように非情報系の学生さんが機械学習を使った研究をしたいという応募がサイボウズ・ラボユースに増えているという話、前回はいままで機械学習や深層学習に縁のなかった人が何から勉強したらいいかという話を書きました。 今回はその続き、研究に必要な実験用 PC 環境をどのように準備したらいいかというお話です。 深層学習の実験をするには、十分な性能の GPU を積んだ PC が必要です。 今どきの機械学習関連の研究室では、院生有志がメンテナンスしている GPU のクラスタがあって、それを使わせてもらえることが期待できます。自分用の PC を手配する場合も、研究テーマに適し

    実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足
    sh19910711
    sh19910711 2022/11/13
    "非情報系の学生さんが機械学習を使った研究をしたいという応募がサイボウズ・ラボユースに増えている / NVIDIA 公式ブログの記事: ほかのソフトウェアではあまり問題にならないような機械学習特有の諸問題について"
  • Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary

    この記事について 深層強化学習を利用してAI RC Carの走行を学習させるソフトウェアをGithub上で公開しています。learnign_racerと命名しました。2020年4月29日の時点でのバージョンはv1.0.0です。この記事ではこのソフトウェアについて紹介していきます。 github.com なお、NVIDIAのJetson Community Projectsのページでも紹介されています。 developer.nvidia.com learning_racerの概要 このソフトウェアは10分から15分程度の学習時間で、コースに沿って走行する方法を獲得することができます。従来のAI RC Carでは人間のお手操作をDNNに覚えこませる手法が一般的です1。ですが、手法は教師なし学習の手法である強化学習をベースとしているため、教師データとなる人間のお手操作は必要ありません。さら

    Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary
    sh19910711
    sh19910711 2022/09/10
    2020 / "画像から圧縮した特徴を入力として利用する / 今回は状態表現学習として千から1万程度の画像をVAEで学習 / 潜在空間を32次元の特徴量としてSACへ入力 / クラウドで学習できる部分を切り出しておく"
  • 1960年代初めに開発された物語自動生成システム | スラド サイエンス

    現代ではコンピューターに物語を生成させるさまざまな試みが行われているが、1960年代初めに言語学者Joseph E. Grimes氏が開発したコンピューターによる物語自動生成システムについて、人からの聞き取りも含めた幅広い調査結果の論文を米カリフォルニア大学サンタクルーズ校のJames Ryan氏が発表している(論文、The Register)。 現在、最古の物語自動生成システムとして広く知られているのは1971年に報告された言語学者Sheldon Klein氏によるミステリー小説自動生成システムだが、Grimes氏は1960年または1961年の夏にメキシコ国立自治大学のIBM 650を使用して物語自動生成システムの開発を始めていたそうだ。システムは機械語で書かれていたが、のちに使用したIBM 1401(メキシコ国立自治大学のものと米オクラホマ大学のものを使用)ではFORTRANでプログ

    sh19910711
    sh19910711 2022/09/03
    2017 / "Grimes氏は1960年または1961年の夏にメキシコ国立自治大学のIBM 650を使用して物語自動生成システムの開発を始めていたそうだ / モンテカルロ法により選択した要素を組み合わせて自然言語による文を生成"
  • ディープラーニングを用いて約1.8万円の低コスト筋電義手を作りました - もう疲れたので電子工作します

    前回掲載したディープラーニングを応用した筋電義手の記事を予想外に多くの方にご覧いただき、非常に驚いています。こうやって皆さんに反応をもらえると非常に励みになりますね、当にありがとうございます! 今回は開発した筋電動作推定システムを簡易的なロボットアームに適用することで、低コストの筋電義手を作成したので報告させていただきます。(といっても、快適に使用するには程遠いですが、、、、) また、前回の記事でいただいたコメントに対する捕捉情報についても述べていきたいと思います。 実際の動作とコストについて メカ・エレキ・ソフト設計 補足情報 今後について 実際の動作とコストについて 実際に動いているときの動画です。 前回の記事と同様に、手を握った時・反った時・屈曲した時・無造作時の4種類の筋電位パターンをディープラーニングを用いて分類し、分類結果に応じてロボットアームを動かしています。 ディープラー

    ディープラーニングを用いて約1.8万円の低コスト筋電義手を作りました - もう疲れたので電子工作します
    sh19910711
    sh19910711 2022/08/26
    2019 / "手を握った時・反った時・屈曲した時・無造作時の4種類の筋電位パターンをディープラーニングを用いて分類し、分類結果に応じてロボットアームを動かしています / 5000円程度で3軸のロボットアームが買える"
  • 1988年

    1988年5月1日,私は PC-VAN の SIG SCIENCE(私が SIGOP をしていたところ) の第1ボード「オムニバス・ボード」(現「科学一般」)に次の書き込みをしました。 #1073/2867 オムニバス・ボード ★タイトル (SCIENCE ) 88/ 5/ 1 15:39 ( 49) LZSS法によるデータ圧縮プログラム/奥村 ★内容 依然ある雑誌にPascalで何かということで書いたのですが、その雑誌が休 刊中なので、TurboCで書き直したものをアップします。 特徴は、圧縮率が非常に良いことと、符号化が非常に遅いことです。2分木など を使えば符号化は1桁速くなりますが、LZSS法そのもののアルゴリズムをはっ きりさせるために、できるだけシンプルに作りました。符号化に時間がかかっても、 アップやダウンの電話代を考えれば、少しでも圧縮率の良いもののほうが良いとい う考え方

    sh19910711
    sh19910711 2022/05/27
    1988 / "PC-VAN のシステムは, 半角と全角を同じ行に混在させると行末部分が失われやすかった / 当時は Borland の Turbo Pascal が人気のコンパイラ / SIG SCIENCE は科学のフォーラムなのに, データ圧縮ばかりで燃えている状態"
  • オセロを速く解く話/solveothello

    京大マイコンクラブの春合宿で、オセロを速く「解く」ことについて特化して話したスライドです。

    オセロを速く解く話/solveothello
    sh19910711
    sh19910711 2022/03/21
    "オセロ専用回路: OthelloソルバーとFPGAは相性が良い > FPGAにとって苦手な演算がいらない + 乗算器の数も余裕がある + ビット演算などが得意"
  • ランダムお題と小説AIで作る「ほぼ完全自動化小説」をやってみた|渡葉

    AIのべりすとが話題だ。途中まで書いた文章を読ませると、AIが続きを書いてくれるという代物である。ずっと使ってみたかったのだが、ひとつ問題があった。AIは続きを書いてくれるのであって、題材は自分で用意しなくてはならないのだ!!(当たり前だろ) しかし聡明なる私は、即座に解決策を思いついた。そう。「アイデアも外注すればいい」と。今の世の中、創作の題材を提供してくれるサイトなんて無数にある。ランダムでお題を生成し、続きをAIに書かせれば、ネタがなくても小説が作れるんじゃないか!? お題を用意するというわけで、実際にやってみよう。まずは題材を用意する。ランダムにお題を出してくれるサイトを使って、ネタを作らせよう。 一つ目に使用したのは、私自身が過去に作った診断メーカー、CharacterRoulette。自分で作ったので、当然自分好みの単語がたくさん出てくる。診断結果はこちら。 ツイッター廃人と

    ランダムお題と小説AIで作る「ほぼ完全自動化小説」をやってみた|渡葉
    sh19910711
    sh19910711 2022/02/04
    "転機となるツイートの内容、何度かやり直したけど「異世界に来ませんか」「世界を救いましょう」みたいなのしか出なかった / なろう小説をたくさん学習しているらしいので、そういうのが出やすいのかも"
  • Cloud TPUを用いたBERT推論処理基盤の開発

    Cloud TPUを用いたBERT推論処理基盤の開発

    Cloud TPUを用いたBERT推論処理基盤の開発
    sh19910711
    sh19910711 2021/09/18
    "これまで1週間程度かかっていた、数千万件のデータの処理を1日以内で完了できるように / TPUを用いるとGPUと比較して処理時間が73%、コストが51%削減"
  • 2値化CNN on FPGAでGPUとガチンコバトル(公開版)

    TensorFlow User Group HW部(2017年2月27日)で使ったスライドです。講演後、一部加筆・修正しています。Read less

    2値化CNN on FPGAでGPUとガチンコバトル(公開版)
    sh19910711
    sh19910711 2021/07/04
    "AlexNet: ディープラーニングブームに火をつけた記念的CNN / CNNの最適化手法: Pruning, Weight Sharing, Quantization, Binarized, Ternarized / 枯れる時期を見極める目利きが重要"