並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 839件

新着順 人気順

onnxの検索結果281 - 320 件 / 839件

  • Convert Transformers to ONNX with Hugging Face Optimum

    Hundreds of Transformers experiments and models are uploaded to the Hugging Face Hub every single day. Machine learning engineers and students conducting those experiments use a variety of frameworks like PyTorch, TensorFlow/Keras, or others. These models are already used by thousands of companies and form the foundation of AI-powered products. If you deploy Transformers models in production envir

      Convert Transformers to ONNX with Hugging Face Optimum
    • BlenderのGeometryNodesで機械学習モデルを動かしてみた|Melville

      機械学習モデル(ニューラルネットワーク)は、たくさんの数値に対して値をかけたり、足したり、合計したり…といった操作をすることで問題を解きます。 そしてGeometryNodesは、(本来は3Dモデリングやモーショングラフィックスのための機能ですが、)たくさんの頂点(ジオメトリ)に対して値をかけたり、足したり、合計したり…といった操作が可能です。 ということは機械学習モデルをGeometryNodesで動かすこともできそうですよね。 実際、動かせました。 すみません!本来出力にSoftMaxをかけるべきところを、いれていませんでした! (出力の値は変わっていないのですが、可視化の印象がだいぶ変わります) 撮りなおしたので、最初の動画のことは忘れてこちらをご覧ください…!🙇 pic.twitter.com/fowj9Tm8lL — Melville (@MelvilleTw) Novembe

        BlenderのGeometryNodesで機械学習モデルを動かしてみた|Melville
      • ONNXモデルのチューニングテクニック (応用編2)

        サイバーエージェント AI Lab の Human Computer Interaction Team に所属している兵頭です。今回は私が半年ほど蓄積したONNXのチューニングテクニックを全てブログに残したいと思います。皆さんが既にご存知であろう基本的なことから、かなりトリッキーなチューニングまで幅広くご紹介したいと思います。長文になりますがご容赦願います。今回は応用編2です。 8. 各種トリック PyTorchやTensorFlowを経由して生成されたONNXから他のフレームワークへモデルを転用する場合に有効な様々なトリック、ワークアラウンドをご紹介します。あまり真新しい知見ではありませんが、以下でご紹介するようなトリックが記事としてまとまっているものはあまり見かけませんのでご参考になれば幸いです。エンジニアよりもリサーチャーの方々に是非読んでいただきたい内容です。ほとんどの内容が地味で

          ONNXモデルのチューニングテクニック (応用編2)
        • 「Rust、何もわからない... #2」 イベントレポート - estie inside blog

          Rust、何もわからない... #2 去る5/19日、弊社estieが主催する #Rust何もわからない の第2回が開催されました! イベントページはこちら 第1回の模様はこちらからどうぞ! 使うぜ!Cargo workspace by kenkoooo speakerdeck.com 最初のプレゼンターはkenkooooさんです。oは4個です。最近親知らずを抜いたそうです。痛そう… クスリがバチバチに効いてメチャクチャやる気出てきた!!!— 宇宙ツイッタラーX (@kenkoooo) 2022年5月17日 Rustで書かれたapiサーバのディレクトリ構成がプロジェクト初期と比べるとかなり変わったとのこと。 Cargo workspaceを利用して、モジュールの「公開範囲」がわかりやすいディレクトリ構成に変えた話です。 workspaceをつかってvisibilityをいい感じにする Ru

            「Rust、何もわからない... #2」 イベントレポート - estie inside blog
          • Netron

            Visualizer for neural network, deep learning and machine learning models.

            • BigQueryリモート関数で機械学習モデルを動かす

              テラーノベルで機械学習を中心に担当している川尻です。 テラーノベルでは、定期バッチ処理は主にBigQueryかDataflowを組み合わせて実行しています。データはBigQueryのテーブルにほとんど保存されているため、基本的にはBigQueryで完結させたいです。しかし、自作した機械学習モデルは前処理も含めてpythonで書く必要があるため、そこだけDataflowを使っていました。最近、BigQueryリモート関数を使ってみたところ、意外と簡単にBigQueryだけでシンプルに完結させることができました。今回は、機械学習モデルをBigQueryから実行したときのちょっとしたハマりどころや、実際にどれくらいコストや処理時間がかかったのか紹介します。 BigQueryリモート関数とは BigQueryリモート関数は、好きな言語やフレームワークでCloud FunctionsやCloud R

                BigQueryリモート関数で機械学習モデルを動かす
              • UnstructuredでWebのURLもローカルのPDFも読み込める! さらにユーザはpartition関数を呼ぶだけととっても簡単! (arXivの論文を例に) - nikkie-ftnextの日記

                はじめに #ラブライバーに見て欲しいアイマス公式絵 で涙腺崩壊😭😭 異次元フェスの余韻で夢見心地なnikkieです。 存在を知った興味深いライブラリの素振り(初手)です。 目次 はじめに 目次 Unstructured LangChainが使ってます1 partition 動作環境 WebのURLから ローカルのPDFから ファサードpartition 終わりに Unstructured We get your data LLM-ready 訳してみると「あなたのデータにLLMで使う準備を」といった感じでしょうか。 どんなソースのデータもUnstructuredで扱えるのが売りのようです。 80% of enterprise data exists in difficult-to-use formats like HTML, PDF, CSV, PNG, PPTX, and more.

                  UnstructuredでWebのURLもローカルのPDFも読み込める! さらにユーザはpartition関数を呼ぶだけととっても簡単! (arXivの論文を例に) - nikkie-ftnextの日記
                • 接待dlshogi - TadaoYamaokaの開発日記

                  接待水匠にインスパイアされて接待dlshogiを作ってみた。 何番煎じだというネタですが、接待将棋プログラムが一応動くようになりました!https://t.co/BLvfTF2rOe MultiPVで思考し、手番から見た評価値が100以上の指し手のうち、最も100に近いものを選択する単純な仕組み。 皆様とも指したいですね…誰か犠牲者、もとい対局相手になっていただけませんか!— たややん@水匠(将棋AI) (@tayayan_ts) 2021年10月2日 仕組み MultiPVを使うのではなく、モンテカルロ木探索(PUCT)で、勝率の期待値が接待係数に近づくように探索を行う。 接待係数(USIオプションSettai)は、1から99の整数で、50の場合に互角になるように指して、0に近いと負けるように指す。100に近いと最善手に近づく。 利点 MultiPVは探索した中で上位の手から選ぶが、この

                    接待dlshogi - TadaoYamaokaの開発日記
                  • ニューラルネットで何でもできちゃう!?Unity Barracudaで遊ぼう! | Unity Learning Materials

                    Barracuda は Unity 用のニューラルネット推論ライブラリです……分かりやすく言うと、いわゆる機械学習の実行部分だけを動かすために作られたライブラリです。これを利用することで、物体認識とか、画像生成とか、ディープラーニングを応用した様々な技術を Unity 上で簡単に使うことができるようになっちゃいます。すごいでしょ!? 今回の Unity ステーションでは、 Barracuda がどんなものなのか、どんなことができるようになるのか、ごくごく簡単に紹介していきます。機械学習に触れたことのない方でも無問題!お気軽にご覧ください! 関連リンク keijiro/NNCam: Virtual background with Unity Barracuda keijiro/FaceMeshBarracuda: Lightweight facial capture package for

                      ニューラルネットで何でもできちゃう!?Unity Barracudaで遊ぼう! | Unity Learning Materials
                    • Deep Learningによる異常検知デモ①:回転レーン上のブロックを撮影し、ブロックの位置とゲート跡を検出する - OPTiM TECH BLOG

                      お久しぶりです、R&Dの加藤です。最近は「A列車で行こう~はじまる観光計画~」をコツコツ進めていますが楽しいですね。Steamでも公開されるそうなのでNintendo Switchを持っていなくてもプレイできますよ。 さて、今回はDeep Learningによる異常検知デモを作成したので説明します。 デモ動画 解説 撮影環境とアノテーション Deep Learningによる異常検知の速度と精度の話 速度改善する方法 Deep Learningとチャンネル モノクロ画像とカラー画像 カラー画像(3ch)を超えた、4chの画像も存在する Deep Learningにおける畳込みとチャンネル 最後に デモ動画 まずはデモ動画を観てください。 回転レーン上のブロックを撮影し、ブロックの位置(Infer image[2])とゲート跡(Infer image[1])を検出する様子です。 youtu.b

                        Deep Learningによる異常検知デモ①:回転レーン上のブロックを撮影し、ブロックの位置とゲート跡を検出する - OPTiM TECH BLOG
                      • Rasperry Pi 4のCPUでDeep Learningを高速化 - Qiita

                        私たちは、マルチコアCPUやSIMDアーキテクチャのHW性能を引出す組込みSW最適化技術をコアコンピタンスとするスタートアップを目指す有志集団です。 Raspberry Pi 3/4のCPUだけでどれくらいDeep Learningを高速化できるかに挑戦しています。 過去、Chainerやdarknetといったフレームワーを対象としていましたが、現在はONNX runtimeの高速化に挑戦しています。 現時点での結果は以下の通りです。 @onnxruntime on RPi4(CPU Only) MobileNetV3(Image clasification) MobileNetV2-SSDLite(Image detection) Original vs. Accelerated#RaspberryPi #Python #DeepLearninghttps://t.co/wvBLn9Tf

                          Rasperry Pi 4のCPUでDeep Learningを高速化 - Qiita
                        • Rustでリバーブを実装する

                          Parakeet株式会社でResearcherをしている金子(nadare)です。CPUで動く軽量AIボイスチェンジャーParavoにおいて、リバーブやイコライザといったエフェクターをかける機能をRustで実装しました。本記事ではRustで実装した理由や用いたライブラリについて説明します。 リバーブについて リバーブは音に残響音や反射音を加える空間的エフェクトで、通常の音をホールで演奏した音や狭い空間で鳴らした音のように加工します。リバーブの実装にはハードウェア・ソフトウェア等様々な手法がありますが、今回は畳み込み演算を用いたリバーブの実装を行いました。 畳み込み演算で実装するリバーブには、Room Impulse Response(RIR)という音の信号を用います。これは再現したい空間で拍手をしたときに得られるような音で、様々な環境で収録したRIRを集めたデータセットや、pyroomac

                            Rustでリバーブを実装する
                          • Guide to File Formats for Machine Learning: Columnar, Training, Inferencing, and the Feature Store

                            TLDR; Most machine learning models are trained using data from files. This post is a guide to the popular file formats used in open source frameworks for machine learning in Python, including TensorFlow/Keras, PyTorch, Scikit-Learn, and PySpark. We will also describe how a Feature Store can make the Data Scientist’s life easier by generating training/test data in a file format of choice on a file

                              Guide to File Formats for Machine Learning: Columnar, Training, Inferencing, and the Feature Store
                            • モバイル端末上でMLモデルの推論をするための技術 - ぴよぴよ.py

                              最近、効率よくスマホ上で推論したくてTensorFlowLiteとかMediaPipeとかとずっと戯れているんだけど、そのあたりの周辺技術をもう少し調べようとしてまとめたやつです。 どれもデモ動画を見ないと全然わからないと思うんだけど、公式のgifとかどこまで使っていいかわからないので載せれない。リンク飛んで見てみてください。 王道なやつ TensorFlowLite モデルの軽量化とかするのに使ってる。プロダクションに入れることを考えると、一番安定してるんじゃないか。 CoreML (Apple) iOSしか使えないので試したことない。 どれくらい良いのか教えてほしい。 ML Kit (Firebase, Google) 試してみた感じまたストリーミングデータとかはカクカクな感じだった 導入は簡単だった PyTorch Mobile まだプロダクションで使われている事例を自分は聞いたこと

                                モバイル端末上でMLモデルの推論をするための技術 - ぴよぴよ.py
                              • 【書き起こし】Dataflow Templateを活用した宣言的なデータパイプライン – 永井 洋一【Merpay Tech Fest 2021】 | メルカリエンジニアリング

                                【書き起こし】Dataflow Templateを活用した宣言的なデータパイプライン – 永井 洋一【Merpay Tech Fest 2021】 Merpay Tech Fest 2021は、事業との関わりから技術への興味を深め、プロダクトやサービスを支えるエンジニアリングを知れるお祭りで、2021年7月26日(月)からの5日間、開催しました。セッションでは、事業を支える組織・技術・課題などへの試行錯誤やアプローチを紹介していきました。 この記事は、「Dataflow Templateを利用した宣言的なデータパイプライン」の書き起こしです。 永井洋一氏:それでは「Merpay Tech Fest 2021」ということで「Dataflow Templateを利用した宣言的なデータパイプライン」という題で、永井から発表させていただきます。 まず、簡単に自己紹介をさせていただきますと、私はメル

                                  【書き起こし】Dataflow Templateを活用した宣言的なデータパイプライン – 永井 洋一【Merpay Tech Fest 2021】 | メルカリエンジニアリング
                                • Azure Update (2020.05.20) 他いろいろ

                                  Microsoft Build 2020関連のUpdateやNewsなど適当にPick Up。 Build全般 Microsoft Build 2020 Microsoft Build 2020: Empowering developers to deliver impact today and tomorrow Microsoft announces new supercomputer, lays out vision for future AI work Build AI you can trust with responsible ML Developer Velocity: Empowering developers to fuel business performance https://news.microsoft.com/build-2020-book-of-news/ …

                                    Azure Update (2020.05.20) 他いろいろ
                                  • マイクロソフトと Meta、Azure および Windows 上の Llama 2 で AI 分野のパートナーシップを拡大 - News Center Japan

                                    すべての Microsoft 製品 Global Microsoft 365 Teams Copilot Windows Surface Xbox セール 法人向け サポート ソフトウェア Windows アプリ AI OneDrive Outlook Skype OneNote Microsoft Teams PC とデバイス Xbox を購入する アクセサリ VR & 複合現実 エンタメ Xbox Game Pass Ultimate Xbox Live Gold Xbox とゲーム PC ゲーム Windows ゲーム 映画とテレビ番組 法人向け Microsoft Cloud Microsoft Security Azure Dynamics 365 一般法人向け Microsoft 365 Microsoft Industry Microsoft Power Platform W

                                      マイクロソフトと Meta、Azure および Windows 上の Llama 2 で AI 分野のパートナーシップを拡大 - News Center Japan
                                    • 週刊AWS – 2019/9/16週 | Amazon Web Services

                                      Amazon Web Services ブログ 週刊AWS – 2019/9/16週 みなさん、こんにちは!ソリューションアーキテクトの下佐粉です。 今週も週刊AWSをお届けします。東京は少しずつですが秋という感じの気候になってきました。9月は連休が多いので嬉しい月なのですが、AWSのサービスは日本の連休には関係なく毎日のように新機能、新サービスが追加されています。 それでは、先週の主なアップデートについて振り返っていきましょう。 2019年9月16日週の主要なアップデート 9/16(月) Amazon EKS がクラスターへのタグ付けをサポート マネージドKubernetesサービスであるEKSでクラスターにAWS タグを付けられるようになりました。タグは、任意のキーバリュー型のメタデータで、このタグで用途を分類したり、タグ単位でIAMでのアクセス制御を実現することが可能です。 Amaz

                                        週刊AWS – 2019/9/16週 | Amazon Web Services
                                      • AWS EC2上で進めるMLOps Basics - Qiita

                                        はじめに 先日,MLOps Basics を読み進める会やろうぜという旨のツイートをしたところ色んな方に反応してもらえました. 先月くらいからMLOps Basics を友達と進めています!今日はこの後20時からDVCやるんですが興味ある人一緒にやりませんか?ゆるぼ pic.twitter.com/9ezulSNzjv — johannyjm1 (@johannyjm1) October 25, 2022 やはり ONNX や Docker といった ML/DL 周辺で活躍するフレームワークや,モデルのデプロイ周りについて体系的にまとまった資料は需要が高いんだな?という気持ちからこの MLOps Basics を取り扱うに至りました. 機械学習周りの環境構築は意外に気をつけるべき項目が多く困っている人もよく見かけるので,この記事が何かしらの助けになれば幸いです. なお,本稿は AI/ML

                                          AWS EC2上で進めるMLOps Basics - Qiita
                                        • GitHub - snakers4/silero-vad: Silero VAD: pre-trained enterprise-grade Voice Activity Detector

                                          Stellar accuracy Silero VAD has excellent results on speech detection tasks. Fast One audio chunk (30+ ms) takes less than 1ms to be processed on a single CPU thread. Using batching or GPU can also improve performance considerably. Under certain conditions ONNX may even run up to 4-5x faster. Lightweight JIT model is around one megabyte in size. General Silero VAD was trained on huge corpora that

                                            GitHub - snakers4/silero-vad: Silero VAD: pre-trained enterprise-grade Voice Activity Detector
                                          • Goがつなぐコミュニティーの輪を広げるために大事なたった1つの方法 - Money Forward Developers Blog

                                            TL;DR この記事は、Money Forward Engineering Advent Calendar 2021 10日目の投稿です。 9日目は tnandate さんで クラウド給与の1stリリース時のコードを読む会を開催しました でした。 皆さん、お疲れさまです。きっと大量のアドベントカレンダーを読まなくては!となってきっと疲れてらっしゃると思うので箸休め的な文章をご用意しました。 ぜひ読んで感想などをTwitterやブログなどに書いてもらえればと思います。 対象読者 コミュニティ運営で悩んでいるかた 気になるコミュニティが休止してしまって残念に思っているかた テックコミュニティが好きなかた ゴール コミュニティ運営の悩みを解消する手がかりが得られる コミュニティの運営に手を上げてくれる人が増える 地方コミュニティが活性化する Motto Go Forwardできる これはなに?

                                              Goがつなぐコミュニティーの輪を広げるために大事なたった1つの方法 - Money Forward Developers Blog
                                            • NLP×実装をテーマにした勉強会コミュニティ、 「NLP Hacks」の運営者に話を聞いてみた。|ELYZA, Inc.

                                              1月28日(金)に第1回目が開催された「NLP×実装」をテーマとした勉強会コミュニティであるNLP Hacksについて、企画・運営を担当された佐々木彬さんにお話を伺いました。 佐々木 彬(ささき あきら) 東北大学 乾・岡崎研究室 (現 乾研究室) 博士卒。株式会社リクルートにて人材領域のデータ活用施策の推進に従事。Kaggle Master。ELYZAでは自然言語処理の研究開発を担当。 本日はありがとうございます。まずは佐々木さんの自己紹介と、ELYZAでの担当業務について教えてください。2022年1月にELYZAに入社した佐々木彬と申します。2021年12月までは株式会社リクルートでデータサイエンティストとして、主に人材領域のデータ活用施策に携わっていました。また、学生時代は東北大学乾・岡崎研究室(現 乾研究室)にて自然言語処理(NLP)の研究に携わっておりまして、その中でも賛否分類

                                                NLP×実装をテーマにした勉強会コミュニティ、 「NLP Hacks」の運営者に話を聞いてみた。|ELYZA, Inc.
                                              • Azureとは何か?初心者向けにわかりやすく解説

                                                「そもそもAzureとは何かを知りたい」 「Azureの特徴やメリットは?」 このような疑問・要望に答えるために、Azureの概要や特徴、サービスの種類、メリットなどについて解説します。具体的には次の順番でお話ししていきます。 ・Azureの概要紹介 ・Azureの仕組みと特徴 ・Azureの主なサービス ・Azureを利用するメリット 開発業務を効率化したい、クラウドサービスを導入したい、と考えている方に向けた記事ですので、ぜひご覧ください。 AzureはWindowsなどの開発・販売を行っているMicrosoft社が提供するクラウドサービスです。正式名称は「Microsoft Azure」となります。コカ・コーラやBMW、Adobe、富士通、トヨタ自動車など、世界や日本の一流企業も利用しているクラウドサービスです。 Azureでは、サーバーやネットワークなどのITインフラをクラウド上で

                                                  Azureとは何か?初心者向けにわかりやすく解説
                                                • LLMを使ってデスクトップマスコットに命を吹き込む|しろ

                                                  Takaさんの「フィーちゃんをデスクトップマスコットにするのに本気を出した話」をベースに作っています。 同じものを使っても面白くないのでライブラリを変えたり、文章の生成をChatGPTからLLMに、合成音声をCevio AIからVOICEVOXに変えてやってみました。 テキストの送信以外にマイクで会話できる機能を追加しました。 あと、Unityを使うのはこれが初めてなのでコードに何かあればコメントをください。 GPU使用率を見る感じ6GBでもギリギリ使えるようになってると思います。 実際の動作▼ Taka(@tktksnsn07)さんのnoteを参考にVOICEVOXとLLMを使ってデスクトップマスコットを作ってみた テキスト入力に加えマイク入力を追加しました サンプル動画は次にあります。 VOICEVOX声:四国めたん Live2Dモデル:桃瀬ひより Takaさんのnote▼https:

                                                    LLMを使ってデスクトップマスコットに命を吹き込む|しろ
                                                  • 【悪用厳禁】顔をすり替える Roop を Stable Diffusion Web UI の拡張機能としてではなく単独で動かす - パソコン関連もろもろ

                                                    github.com はじめにディープフェイク画像が作れるという事で「悪用厳禁」、使用は「自己責任」でお願いします。 WSL2を使いました。環境構築で難しいのはcudnnをインストールするところだけです。環境 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10 準備cuDNNのインストールCUDAはあらかじめインストールされている前提です。 NVIDIA公式から「cudnn-local-repo-ubuntu2204-8.9.4.25_1.0-1_amd64.deb」をダウンロードしてからインストールしました。(ダウンロードにはアカウントが必要です) sudo dpkg -i cudnn-local-repo-ubuntu2204-8.9.4.25_1.0-1_amd64.deb sudo cp /var/cudnn-local-repo-ubuntu22

                                                      【悪用厳禁】顔をすり替える Roop を Stable Diffusion Web UI の拡張機能としてではなく単独で動かす - パソコン関連もろもろ
                                                    • 研究開発報告書 CPS実機化検証 –RaspberryPI-

                                                      AWS IoT Greengrass V2を使って Raspberry PiでAI画像分類してみた -研究開発結果報告 2022/10/13 鉄鋼・エンジニアリング開発本部 デジタルビジネス推進部 Copyright©2022 EXA CORPORATION 「工場内で、流れてくる鉄板をその場で画像診断で検品する」をイメージして、 「IoTデバイスで画像撮影→画像分類AIモデルを使ってIoTデバイス上で画像分類 →サーバに分類結果を蓄積する」の流れを、AWSとRaspberry Piを使って実践 してみました。 実践の中身と、そこで分かったポイントや制約事項について、ご紹介します。 1 1. RaspberryPiのカメラで撮影する 2. Raspberry Pi内部でSageMakerAI モデルを用いて画像を診断する 3. 画像をAWSへ送信・蓄積する 検証のポイント: • 画像分類A

                                                      • Windows PCでLsmith(TensorRTで高速化された画像生成のWeb UI)を利用する手順(賞味期限切れ)|まゆひら

                                                        【重要】Lsmithは公開を停止し、さらに機能を増やしたRadiataに置き換えられました。本記事の手順では、セットアップや実行を行うことはできないと思います。 重要事項※起動時に「dist」ディレクトリが消えて停止する場合は、Lsmithのディレクトリで「git pull」を実行して更新するか、「4-1.」を参考に対応してください。 ※Stable Diffusion形式のモデル(ckpt, safetensors)を変換して、Lsmithで利用する方法を追記しました(6. 付録)。 ※CUDA 11.6及び11.8での動作を確認しました。うまく動作しない場合は、GeForceのドライバーを更新してみてください(盲点)。 ※おそらくGeforce RTX 20 series以降で動作し、ビルド中のonnxへの変換時に12GB、画像の生成時に8GB(これより少なくても動作する可能性あり)の

                                                          Windows PCでLsmith(TensorRTで高速化された画像生成のWeb UI)を利用する手順(賞味期限切れ)|まゆひら
                                                        • 顔検出器CenterFaceで高速推論 - OPTiM TECH BLOG

                                                          まえがき R&Dチームの宮﨑です。CenterFaceをTensorRTで実装したところ、かなりの性能が出たので記事にしました。 日々様々なDNNを実装・計測しているオプティムですが、その中でアンカーフリーの顔検出としてピックされたCenterFaceが期待できる結果が出たのでご紹介させていただきます。この取り組みは実際には去年の年末に行われたものであり、かなり遅れたご紹介にはなってしまっていることをご了承ください😢 まえがき 背景・動機🤩 CenterFaceとは?🤔 公開された論文・コード 特徴 CenterFace実装の流れ💨 顔検出ベンチマーク比較🙈 最後に🤖 背景・動機🤩 オプティムが提供する製品の一つにAI Cameraがあります。このAI Cameraの機能として顔検出が必要になるので、オプティムでは性能の良い顔検出器がないか日々目を光らせています。Center

                                                            顔検出器CenterFaceで高速推論 - OPTiM TECH BLOG
                                                          • Amazon SageMaker でコンピュータビジョン推論に最適な AI アクセラレータとモデルコンパイルを選択 | Amazon Web Services

                                                            Amazon Web Services ブログ Amazon SageMaker でコンピュータビジョン推論に最適な AI アクセラレータとモデルコンパイルを選択 この記事は、2021 年 10 月 19 日に Davide Gallitelli 、 Hasan Poonawala によって投稿された Choose the best AI accelerator and model compilation for computer vision inference with Amazon SageMaker を翻訳したものです。 AWS のお客様では、コンピュータビジョンモデルによる予測で強化されたアプリケーションを構築するケースが増えています。例えば、フィットネスアプリケーションでは、カメラの前で運動しているユーザーの体の姿勢を監視し、ユーザーにライブフィードバックと定期的なインサイトを

                                                              Amazon SageMaker でコンピュータビジョン推論に最適な AI アクセラレータとモデルコンパイルを選択 | Amazon Web Services
                                                            • GitHub - AsuharietYgvar/AppleNeuralHash2ONNX: Convert Apple NeuralHash model for CSAM Detection to ONNX.

                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                GitHub - AsuharietYgvar/AppleNeuralHash2ONNX: Convert Apple NeuralHash model for CSAM Detection to ONNX.
                                                              • /g/ - /sdg/ - Stable Diffusion General - Technology - 4chan

                                                                Old: >>89086258 >Local install GPU: https://rentry.org/voldy | https://github.com/AbdBarho/stable-diffusion-webui-docker CPU: https://rentry.org/cputard >AMD GPU Guides Native: https://rentry.org/sd-nativeisekaitoo Docker: https://rentry.org/sdamd Onnx: https://rentry.org/ayymd-stable-diffustion-v1_4-guide >Cloud Hosted Install Colab: https://colab.research.google.com/drive/1kw3egmSn-KgWsikYvOMjJk

                                                                • 20190529_xSiG_public

                                                                  深層学習コンパイラの 概要と最近の動向 今井 健男 Idein株式会社 / 国⽴情報学研究所 xSIG 2019 ⾃⼰紹介 今井 健男 Idein株式会社 エンジニア 兼 国⽴情報学研究所 特任研究員 • 経歴 • ソフトウェア⼯学、特に形式⼿法、プログラム解析の研究 • 株式会社東芝(2000〜2017) • マサチューセッツ⼯科⼤学 客員研究員(2007) • 深層学習コンパイラの研究開発 • LeapMind株式会社(2017〜2018) • 国⽴情報学研究所(2018〜) • Idein株式会社(2019〜) • 書籍 (共訳) • D. Jackson, 『抽象によるソフトウェア設計』 • B. Pierce, 『型システム⼊⾨』 • その他活動 • ⽇本ソフトウェア科学会 機械学習⼯学研究会(MLSE) 発⾜メンバー / 現 運営委員 本⽇のあらまし • 深層学習コンパイラの成

                                                                  • dlshogiをAWSのNVIDIA A100インスタンスで動かす - TadaoYamaokaの開発日記

                                                                    AWSのEC2に、NVIDIA A100のインスタンスが追加されたので、dlshogiでどれくらNPSが向上するか測定してみた。 個人としてはAWSを使っていなかったので、AWSのアカウントを作成して、vCPUの上限緩和申請するところから行った。 P4dインスタンスは、vCPUが96なので、上限緩和申請が必要である。 しかし、上限緩和申請をお断りされてしまった。 そこで、知り合いからアカウントをお借りして測定を行うことにした。 環境構築 AMI AMIは、p4d.24xlargeに対応している「AWS Deep Learning Base AMI (Ubuntu 18.04) Version 31.0」を使用した。 GPUが認識されているか確認 $ nvidia-smi Sat Nov 7 03:42:57 2020 +-----------------------------------

                                                                      dlshogiをAWSのNVIDIA A100インスタンスで動かす - TadaoYamaokaの開発日記
                                                                    • phi3

                                                                      {{ if .System }}<|system|> {{ .System }}<|end|> {{ end }}{{ if .Prompt }}<|user|> {{ .Prompt }}<|end|> {{ end }}<|assistant|> {{ .Response }}<|end|> Phi-3 Mini Phi-3 Mini is a 3.8B parameters, lightweight, state-of-the-art open model trained with the Phi-3 datasets that includes both synthetic data and the filtered publicly available websites data with a focus on high-quality and reasoning dense p

                                                                        phi3
                                                                      • Allwinner V853 Arm Cortex-A7 + RISC-V SoC comes with 1 TOPS NPU for AI Vision applications - CNX Software

                                                                        Allwinner V853 Arm Cortex-A7 + RISC-V SoC comes with 1 TOPS NPU for AI Vision applications Allwinner V853 SoC combines an Arm Cortex-A7 core with a Xuantie E907 RISC-V core, and a 1 TOPS NPU for cost-sensitive AI Vision applications such as smart door locks, smart access control, AI webcams, tachographs, and smart desk lamps. Manufactured with a 22nm process, the SoC comes with an ISP image proces

                                                                          Allwinner V853 Arm Cortex-A7 + RISC-V SoC comes with 1 TOPS NPU for AI Vision applications - CNX Software
                                                                        • 【初心者】.NETでONNX形式の学習済みモデルを利用して手書き数字認識 | 雲の上はいつも晴れ

                                                                          オウルです。 先日オンライン開催されたMicrosoft Build 2021に参加しました。全体を通して、素晴らしいセッションで満足でしたが、機械学習にあまり馴染みがない僕のようなアプリケーションデベロッパー向けに、基 … "【初心者】.NETでONNX形式の学習済みモデルを利用して手書き数字認識" の続きを読む The post 【初心者】.NETでONNX形式の学習済みモデルを利用して手書き数字認識 first appeared on 雲の上はいつも晴れ.

                                                                            【初心者】.NETでONNX形式の学習済みモデルを利用して手書き数字認識 | 雲の上はいつも晴れ
                                                                          • WebAssemblyでの機械学習モデルデプロイの動向

                                                                            本記事はMLOps Advent Calendar 2020の 2 日目の記事です。 WebAssembly(Wasm)は機械学習モデルをデプロイする新たな手段になりうるでしょうか。 この記事では、機械学習モデル(特に Deep Learning)を Wasm でデプロイする周辺技術の動向や内部の仕組みをざっくりと説明します。 Table of Contents tkat0 です。WebAssembly(Wasm)面白いですね。 私も最近はyewでフロントエンドを書いて遊んでいます。Rust で React っぽいことできるのは新鮮で面白いです。 Wasm は、なんとなく速い JavaScript?とか機械学習で何に役立つの?とか思ってる方も多いと思います。 しかし、Wasm はブラウザでの推論時に使えるだけでなく、機械学習モデルのサービングやエッジデバイスでの推論にも使えると知ったら驚き

                                                                              WebAssemblyでの機械学習モデルデプロイの動向
                                                                            • エッジAI(Jetson Nano 2GB)でTensorRTを用いて推論高速化をしてみました - GMOインターネットグループ グループ研究開発本部

                                                                              こんにちは。次世代システム研究室のK.S.(女性、外国人)です。 今回はエッジAI(Jetson Nano 2GB)で遊んでみた話を続けます。前回のブログではお試しにJetson Nano 2GBでNVIDIAのHello AI Worldを使って物体をリアルタイム認識してみました。本四半期(2021Q1)はもう少し詳しく手を動かして実装します。主に、Jetsonの計算を高速化するためのNVIDIA TensorRTという高性能の深層学習推論について勉強してきたことを共有させて頂きたいと思います。また、今回はエッジAIをご理解頂いている前提で書いていますので、エッジAIについては前回のブログを参考にしてください。加えて、推論実験のスピードテストのための写真にも沢山の桜を使用し、最後のところでは生田緑地の見晴らしの良い丘でのリアルタイム認識スピード実験も共有します。 TL;DR(要約) NV

                                                                                エッジAI(Jetson Nano 2GB)でTensorRTを用いて推論高速化をしてみました - GMOインターネットグループ グループ研究開発本部
                                                                              • OpenCVとDepth Mapを用いて、1枚の写真から3次元再構築する - Qiita

                                                                                この記事について 1枚の静止画像とdepth mapから3次元の点群(Point Cloud)を生成します。そして、再現された3D空間を自由に動き回ってみます。精度はそんなに高くはないです。 ピンホールカメラモデルについて記した、下記の記事を理解している前提で記載します https://qiita.com/iwatake2222/items/c3fe0139d37c4e01c07b おまけに、Open3Dを使った点群生成もしてみます。Open3Dが導入済みであれば、ここで説明する方法よりも手軽にできます 環境 環境 (Windows) Core i7-11700 @ 2.5GHz x 8 cores (16 processors) Windows 11 Home Visual Studio 2019 cmake-gui OpenCV 4.5.4 https://github.com/ope

                                                                                  OpenCVとDepth Mapを用いて、1枚の写真から3次元再構築する - Qiita
                                                                                • tf.kerasの自作モデルをNNCase v0.2.0 (kmodel V4)に対応させ、M5StickV(K210)上で動かす(2)

                                                                                  DESCRIPTION NNCASE model compiler and inference tool. SYNOPSIS ncc compile <input file> <output file> -i <input format> [-o <output format>] [-t <target>] [--dataset <dataset path>] [--dataset-format <dataset format>] [--inference-type <inference type>] [--input-mean <input mean>] [--input-std <input std>] [--dump-ir] [--input-type <input type>] [--max-allocator-solve-secs <max allocator solve sec

                                                                                    tf.kerasの自作モデルをNNCase v0.2.0 (kmodel V4)に対応させ、M5StickV(K210)上で動かす(2)