並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 100件

新着順 人気順

OpenVINOの検索結果1 - 40 件 / 100件

  • 【一問一答】マヅコの知らない「異常検知」の世界 - Qiita

    これから異常検知を勉強される初心者、中級者の方のために一問一答集を作ってみました。 実際にあった質問も含まれますが、ほとんどの質問は、私が勉強しながら疑問に思ったことです。 なお、各質問には私の失敗談を添えております。皆さんは私のような失敗をしないよう 祈っております(^^)。異常検知に特化した内容となっておりますので、ご了承ください。 初心者の方向け 勉強の仕方編 Q:異常検知を勉強したいのですが、何から手をつけて良いのか分かりません。 A:書籍を買って読むのがおススメです。 最初、私はネット情報で勉強していました。しかし、それにも限界があります。 ところが、書籍(入門 機械学習による異常検知)を買って読んだところ、かなり知識を 得ることができました。最初から、書籍を買っていれば、一年くらい得することができたのに... と思うこともあります(^^; ただ、こちらの本はディープラーニング系

      【一問一答】マヅコの知らない「異常検知」の世界 - Qiita
    • 無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる

      画像生成AI「Stable Diffusion」は、指示した通りの画像を生成してくれるAIとして大きな注目を集めています。Stable Diffusionを実際に使うにはPythonのインストールといったPCの知識が求められる作業が必要なのですが、有志が開発した「NMKD Stable Diffusion GUI」なら誰でも簡単にStable Diffusionを使う環境を整えられます。そんなNMKD Stable Diffusion GUIではStable Diffusionに備わった各種機能を簡単操作で実行可能なので、NMKD Stable Diffusion GUIの各種設定項目や自分好みの画像を生成するまでの手順を徹底的にまとめてみました。 My easy-to-install Windows GUI for Stable Diffusion is ready for a beta

        無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
      • NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)

        せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。 だから流出したモデルを使ってローカルでNAIの環境を構築する。 ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。 もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。 もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。 英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。 https://rentry.org/nai-speedrun 推奨環境VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。 GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。 IntelのオンボードGPUで

          NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)
        • 最終回:Apple Siliconがやってきた そのさらに先、「Apple ISA」への遠い道のり

          ご存じの通り、Apple Silicon「M1」を搭載したMacが発売された。この連載の担当編集である松尾氏も早速入手されたそうで何よりである。現状のM1は、ある意味「拡張性を犠牲にして性能を優先した」構成であり、今後拡張性が求められるようになっていくと、いろいろ厳しいシーンも出てくるとは思うが、それをどう(CPUコアのアーキテクチャだけでなく、SoCのアーキテクチャも含めて)解決しながら性能を上げていくかが楽しみである。 さてこの連載の最後に、そういうApple Siliconの先にあるものを少し考察してみたい。結論からいえば、Appleは既にApple ISA(Instruction Set Architecture)の策定作業にかかっていると思う。それが世の中に登場するのはまだだいぶ先だと思うし、動向次第では世に出ずに終わる可能性も多少はあるが、そうした作業をやってないというのは、ま

            最終回:Apple Siliconがやってきた そのさらに先、「Apple ISA」への遠い道のり
          • ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ

            Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き @kapper1224 CPUでStable diffusionが3分ちょっとかかるので、ラズパイ4も対応しているFastSDCPUを入れたら50秒になったw OpenVINOとか入っているらしい。AMDのCPUだけどw ターミナル画面左側が普通のSD、右側がFastSDCPU これだけ速度差があるとありがたい github.com/rupeshs/fastsd… pic.twitter.com/zflPRbldt4 2024-01-20 21:08:00

              ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ
            • WebAssemblyでの機械学習モデルデプロイの動向

              本記事はMLOps Advent Calendar 2020の 2 日目の記事です。 WebAssembly(Wasm)は機械学習モデルをデプロイする新たな手段になりうるでしょうか。 この記事では、機械学習モデル(特に Deep Learning)を Wasm でデプロイする周辺技術の動向や内部の仕組みをざっくりと説明します。 Table of Contents tkat0 です。WebAssembly(Wasm)面白いですね。 私も最近はyewでフロントエンドを書いて遊んでいます。Rust で React っぽいことできるのは新鮮で面白いです。 Wasm は、なんとなく速い JavaScript?とか機械学習で何に役立つの?とか思ってる方も多いと思います。 しかし、Wasm はブラウザでの推論時に使えるだけでなく、機械学習モデルのサービングやエッジデバイスでの推論にも使えると知ったら驚き

                WebAssemblyでの機械学習モデルデプロイの動向
              • エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita

                本内容は、技術書典7 合同本『機械学習の炊いたん2』収録の、「エッジで機械学習」記事を公開したものです。内容は2019年9月時点の調査等に基づきます。 最近Raspberry Pi 4の検証結果などをみていると、エッジ、かつCPUでもそれなりの速度で動くケースもみられます。またこの後にM5StickV(K210)などを触りましたが、専用チップも使い所があります。今後、それらの動きもできれば補足したいと思います。 9/12-22に開催された技術書典9では、新刊『機械学習の炊いたん3』を頒布しました。私は、「AIエンジニア、データサイエンティストのための経営学、ソフトウェア工学」を寄稿しています。他にも機械学習のビジネス、エンジニアリング、数理までもりだくさん。気になられたら、ぜひご覧ください! 他にも、技術書典9「機械学習、データ分析」系の新刊リスト - Qiitaの通り、たくさんの本が出品

                  エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita
                • 【機械学習 × テニス】姿勢推定とLightGBMを用いたテニスのスイング認識【動作検出】 - はんぺんのIT日記(改)

                  はじめに 手法の決定 開発環境 データ取得 動画撮影 アノテーション 関節位置のデータ モデリング 学習用データ データ加工 データ分割 学習 評価 評価用データ Feature Importance Confusion matrix 動作の誤検出 高度化検討 トラッキングの追加 姿勢の検出精度の高いモデルの使用 特徴量の再検討 予測モデルへの転換 関節位置データのAugmentation さいごに 参考 はじめに こんにちは。はんぺんです。 テニスのスイングの検出・分類モデルを作ってみました。 youtu.be モチベーションとしては、インテリジェントデバイス的な何かを作ってみたいというものです。 ちょうど魔法少女リリカルなのはのレイジングハートみたいなイメージです。 インテリジェントデバイスとは、AIを有し自ら思考するタイプのデバイスのこと。 出展:レイジングハートとは (レイジングハ

                    【機械学習 × テニス】姿勢推定とLightGBMを用いたテニスのスイング認識【動作検出】 - はんぺんのIT日記(改)
                  • GIMPで画像生成AIを使えるようにしてNPUでの処理も可能にするOpenVINOプラグイン「OpenVINO AI Plugins for GIMP」レビュー

                    Intel製CPU搭載を搭載したPCでGPUなしでもStable Diffusionを用いた画像生成を可能にするGIMP用プラグイン「OpenVINO AI Plugins for GIMP」がGitHubに公開されています。特徴的なのは、AIの演算処理に特化したプロセッサ「NPU」に対応しており、NPUを使った画像生成が可能だという点。ちょうどNPUを搭載したXPS 13とXPS 14をDellから借りていたので、導入から実際に使うところまでをまとめてみました。 GitHub - intel/openvino-ai-plugins-gimp: GIMP AI plugins with OpenVINO Backend https://github.com/intel/openvino-ai-plugins-gimp/tree/main ◆目次 1:導入方法 2:使い方 ◆1:導入方法 使

                      GIMPで画像生成AIを使えるようにしてNPUでの処理も可能にするOpenVINOプラグイン「OpenVINO AI Plugins for GIMP」レビュー
                    • JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary

                      1. 概要 追記 公開当初Jetson Nanoの性能表記に誤記があったため修正しています。 最近組み込みデバイス(以下エッジと表現)で画像認識や音声認識、センサ情報の処理といったディープラーニングを利用した処理を実行することが容易になっている。低消費電力で、高速にディープラーニングを処理するためのエッジAI用アクセラレータが各社から発売されていることがその理由の一つだろう。 こういった、エッジAI用のアクセラレータは各社によってその使用や対応フレームワーク、利用できるディープラーニングのネットワーク構成に違いがある。どれも同じように利用できるわけではない。自分でエッジAI用アクセラレータを利用しようとしたときにいくつか調べてみた内容をメモがわりに残してみる。ちなみに個人で遊べるものを中心にしてるので、産業的にどうなのかは知らない、悪しからず。。。 あとこのブログではAndroid Thi

                        JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary
                      • 画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法

                        非常に高精度な画像を生成できるとして大きな話題を呼ぶ画像生成AI「Stable Diffusion」は、オープンソースであるためユーザーがローカル環境で実行することもできますが、記事作成時点ではNVIDIA製GPUの使用が推奨されています。そのため、「Stable Diffusionが気になっているけどMacユーザーだからローカルで実行できない」という人もいるはず。そんなMacユーザーに向けて、「Stable DiffusionをM1・M2チップ搭載Macのローカル上で実行する方法」についてオープンソースの機械学習モデルをクラウドのAPIで実行するウェブサービス・ Replicateが解説しています。 Run Stable Diffusion on your M1 Mac’s GPU - Replicate – Replicate https://replicate.com/blog/ru

                          画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
                        • GitHub - ggerganov/whisper.cpp: Port of OpenAI's Whisper model in C/C++

                          Stable: v1.5.4 / Roadmap | F.A.Q. High-performance inference of OpenAI's Whisper automatic speech recognition (ASR) model: Plain C/C++ implementation without dependencies Apple Silicon first-class citizen - optimized via ARM NEON, Accelerate framework, Metal and Core ML AVX intrinsics support for x86 architectures VSX intrinsics support for POWER architectures Mixed F16 / F32 precision 4-bit and 5

                            GitHub - ggerganov/whisper.cpp: Port of OpenAI's Whisper model in C/C++
                          • 盲導犬の代わりに「AI搭載のバックパック」が視覚障害者の歩行をサポートする技術が開発される

                            視覚障害者の人々が安全に街中を歩くためには、前方の路面を確認する白杖を使ったり盲導犬のサポートを受けたりすることが必要です。ジョージア大学の研究チームは盲導犬や白杖を最新テクノロジーに置き換える試みとして、「AIを搭載したバックパックで視覚障害者をサポートするシステム」を開発しました。 Intel AI-Powered Backpack Helps Visually Impaired Navigate World https://www.intel.com/content/www/us/en/newsroom/news/ai-powered-backpack-visually-impaired-navigate.html#gs.073v8o AI-equipped backpack allows the blind to walk in public without dogs or can

                              盲導犬の代わりに「AI搭載のバックパック」が視覚障害者の歩行をサポートする技術が開発される
                            • Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法

                              Stable Diffusionをローカルで手軽に動かす方法 Stalbe Diffusion話題ですね。ただネックなのはGPUが必要な点です。GPUを持ってない人や、CUDAはよくわからない/絶対に入れたくないという人もいるでしょう。クラウドを使う方法もありますが、色々な事情で使えない/使いたくない人もいるでしょう。 そんな全世界のStable Diffusion難民に朗報です。Stable DiffusionがIntel CPUで動きます。しかもWLS2で動くので、大体のWindows PCで動きます。 以下のstable_diffusion.openvinoを使うだけです。 OpenVINOの説明は省略します。とにかくIntel CPUに最適化されたエッジコンピューティングのすごいヤツです(雑) セットアップ方法 前提 Intel CPU Windows OS 11にWSL2をインス

                                Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法
                              • WebAssembly: Docker without containers!

                                This is a companion article to a talk about Docker+WebAssembly that we gave at "Docker Community All Hands 7, Winter Edition" on Dec 15th, 2022. Introduction Recently Docker announced support for WebAssembly in cooperation with WasmEdge. This article will explain what is WebAssembly, why it is relevant to the Docker ecosystem and provide some hands-on examples to try on. We assume you are familiar

                                  WebAssembly: Docker without containers!
                                • [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020. - Qiita

                                  [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020.PythonDeepLearningTensorFlowPyTorchOpenVINO 日本語 English - Japanese - 1. Introduction 今回は私が半年間掛けてためてきた、学習済みモデルの量子化ワークフローをメモがてら共有したいと思います。 Tensorflow の checkpoint (.ckpt/.meta)、 FreezeGraph (.

                                    [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020. - Qiita
                                  • 「いいのがないから内製した」、OKIが18万円のAIエッジコンピューター

                                    「IoT(Internet of Things)デバイスが増え、エッジでAI(人工知能)処理を実行できるコンピューターのニーズが高まっている。しかし、現在では価格を含め適当なものがないため内製した」(沖電気工業(OKI) 取締役常務執行役員の坪井正志氏)。 OKIは2019年10月3日、ディープラーニング(深層学習)の推論処理をエッジで高速に実現し、耐環境性にも優れるAIエッジコンピューター「AE2100」を発売した。米インテルが提供するAIアクセラレーター「Movidius Myriad X VPU」と、オープンなディープラーニング推論実行環境「OpenVINOツールキット」を搭載する。さらに米マイクロソフトとの提携によって、同社のクラウドサービスやAI機能などをIoTデバイスで実行できるようにするための「Microsoft Azure IoT Edge認定」を取得しているという。

                                      「いいのがないから内製した」、OKIが18万円のAIエッジコンピューター
                                    • エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi

                                      久しぶりの展示会レポートです! 前回の展示会レポから半年も経っていて驚愕。時間の流れは早いですね。 行く前にこのツイートを見かけてはいたのですが、AI系の展示は相変わらず多いものの、案の定人物検出や姿勢推定などのデモが多くパッと見同じに見えました(ブーメラン) シーテックにいってきたけれど、みんなで人物検出のgithubクローンしてた。ディープラーニングという篝火を手に入れたのに、みんなそんなことしかしていなくてとても悔しい。もっと人類の危機への対策や人類の限界に挑戦すべきはずなのに — 木村優志: Convergence Lab. (@orcinus_orca) October 16, 2019 ただ、わたしはこれに関してはあんまり批判的な気持ちではなく、昔は人物検出ですら凄い〜〜ってなってたのが、今はまた人物検出か、となってるのは一般のリテラシーも上がっているということかもしれんのでい

                                        エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi
                                      • 軽量画像変換AIモデル「FacialCartoonization」で簡単に顔をアニメ化する方法 - karaage. [からあげ]

                                        素材提供: 変デジ研究所ロンスタさん 顔を手軽にアニメ化 久しぶりのディープラーニングネタです。顔を手軽にアニメ化できるAIモデルがありました。 GitHub - SystemErrorWang/FacialCartoonization: Imporved performance on facial image cartoonizaiton GANと呼ばれる技術をベースにしたもので、同じようなAIモデルは結構あるのですが、このリポジトリ(ソフト)が優れているのは、モデルが4.7MBと軽量なことです。 折角なので、誰でも簡単に顔をアニメ化できるように、Google ColabratoryのNotebookを作って見ました。 FacialCartoonization Google Colab Notebook Google Colabratoryがわからないという方は、以下ブログ記事を参照くだ

                                          軽量画像変換AIモデル「FacialCartoonization」で簡単に顔をアニメ化する方法 - karaage. [からあげ]
                                        • PCテクノロジートレンド 2022 - CPU編

                                          2022年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う「PCテクノロジートレンド」をお届けする。本稿はCPU編だ。Intelは2021年の最後に投入したAlder Lakeにて、ついにAMDのRyzen 5000シリーズを超える性能をたたき出してきた。そして2022年は反撃に出るAMD、追撃を狙うIntelと、さらに動きの激しい年になりそうだ。 ◆関連記事リンク (2022年1月1日掲載) PCテクノロジートレンド 2022 - プロセス編 (本稿) PCテクノロジートレンド 2022 - CPU編 (2022年1月3日掲載) PCテクノロジートレンド 2022 - GPU編 (2022年1月4日掲載) PCテクノロジートレンド 2022 - メモリ・DRAM編 (2022年1月5日掲載) PCテクノロジートレンド 2022 - Flash Storage編 (2022

                                            PCテクノロジートレンド 2022 - CPU編
                                          • 西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた

                                            西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた ライター:西川善司 既報のとおり,Intelは,単体GPU製品「Intel Arc」(以下,Arc)シリーズを発表した。 Intelが2020年に発表した「Iris Xe MAX」は,同社が,Intel 740(i740)をリリースした1998年以来,22年ぶりにリリースした単体GPU(Discrete GPU)だった。その進化版となるGPUが,今回のArcである。 発表イベント前に行われた技術説明会では,Arcに関する詳しい解説が行われたので,考察も交えて詳細に見ていきたい。 ArcシリーズはACM-G10とACM-G11の2種類が存在 Arcの開発コードネームは,もともと第2世代単体GPU(Discrete Graphics 2nd)の意味である「DG2」だったが(

                                              西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた
                                            • PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite) - Qiita

                                              PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite)機械学習DeepLearningPyTorchONNXTensorRT はじめに 本記事ではtorchvisionのresnet50を題材にPyTorchのモデルを様々な形式に変換する方法を紹介します。たくさんの種類を紹介する都合上、それぞれの細かい詰まりどころなどには触れずに基本的な流れについて記載します。また、変換後のモデルが正常に動作するかなどの確認も行いません。紹介する変換は以下の7パターンです。まさに7変化ですね! TorchScript ONNX TensorRT CoreML OpenVINO Tensorflow TFLite 基本環境 Ubuntu 18.04.3 PyTorch1.6

                                                PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite) - Qiita
                                              • OKI、高速ディープラーニング推論処理が可能なAIエッジコンピュータを発売

                                                OKIは10月3日、高速ディープラーニング推論処理の実行をエッジで可能にする耐環境性を有したAIエッジコンピュータ「AE2100」の販売を開始したことを発表した。 AIエッジコンピュータ「AE2100」の外観 同コンピュータは、「Intel Atom x7-E3950」プロセッサとAIアクセラレータ「Intel Movidius Myriad X VPU」を最大2チップ搭載でき、Intelの提供するOpenVINOツールキットやOKIのソフトウェアを活用することで、AI推論処理を可能とする。また、クラウドとの連携機能としてMicrosoft Azure IoT Edge認定を取得しており、クラウドで作成されたAIモデルのエッジへの展開・利用を容易に行うことが可能となっている。 Intel、マイクロソフトとのパートナーシップにより、AIエッジコンピューティングに最適なソリューションの提供を目

                                                  OKI、高速ディープラーニング推論処理が可能なAIエッジコンピュータを発売
                                                • Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%

                                                  Intelが「Responsible AI(責任あるAI)」の取り組みの一環として、ディープフェイクで作られたフェイク映像を96%の精度で検出できる「FakeCatcher」を発表しました。 Intel Introduces Real-Time Deepfake Detector https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-real-time-deepfake-detector.html As part of Intel’s Responsible #AI work, we’ve developed FakeCatcher, a new technology that detects fake videos with 96% accuracy. This detection platform

                                                    Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%
                                                  • Raspberry Pi4にIntel Neural Compute Stick 2(NCS2)を挿してエッジで機械学習の推論をする環境を整える #RaspberryPi #OpenVINO #NCS2 | DevelopersIO

                                                    せーのでございます。 今回は機械学習のモデルをラズパイ4上でも動かすためにIntelのNeural Compute Stick 2(NCS2)を用意したので、環境を整えてみたいと思います。 NCS2とは NCS2とはいわゆるアクセラレーター(接続したコンピュータの性能を上げるデバイス)で、NCS2はIntelが機械学習の推論性能を上げることに特化して作成したスティック型の外付けデバイスです。 見た目にトランスフォーマー感があって、非常にワクワクします。 ラズパイのCPUだけでは機械学習の推論をさせるには少し物足りないので、このNCS2を取り付けます。 まだ自己責任 といってもNCS2を挿したらすぐに使えるのか、と言うとそういうわけではなく、専用のツールキットをインストールする必要があります。Raspbean OS用のツールキットはまだベータの段階で、Intelのオープンソーステクノロジーセ

                                                      Raspberry Pi4にIntel Neural Compute Stick 2(NCS2)を挿してエッジで機械学習の推論をする環境を整える #RaspberryPi #OpenVINO #NCS2 | DevelopersIO
                                                    • RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita

                                                      OpenVINO をはじめて利用する方向けの、基礎的な説明です。 RaspberryPi と Movidius(後ほど説明)を使って、実際にOpenVINO 深層学習を試します。 RaspberryPiのセットアップや深層学習は、多少知識があることを前提としています。 OpenVINO 概要 「OpenVINOツールキット」の略。 解説サイトはこちら製品概要: OpenVINO™ ツールキットですが、なんだか難しい気がするので簡単に解説すると。 様々なインテル製のアーキテクチャ(≒処理装置)上で、効率的にディープラーニングやAIを動作させることができる 無償のソフトウェア Tensorflow,Caffeなどで作成したモデルをモデル・オプティマイザーというツールで変換・効率化して使うため、作成済のモデルをエッジデバイスで活用できる/開発が容易 Movidius 概要 Movidius NC

                                                        RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita
                                                      • PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita

                                                        PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換するDeepLearningCaffeTensorFlowPyTorchONNX 日本語 English 1. はじめに いつも左中間を狙うようなプチニッチなふざけた記事ばかりを量産しています。 この記事の手順を実施すると、 最終的に PyTorch製 高精度Semantic Segmentation の U^2-Net を TensorFlow Lite へ変換することができます。 下図のような感じです。 TensorFlow めちゃくちゃ扱いにくいです。 日々公開される最新のとても面白いモデルは軒並みPyTorch実装ですし、なんでTensorFlowで実装してくれないんだ!! と、常日頃思っています。 論文のベンチマ

                                                          PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita
                                                        • エッジAIの展示まとめレポ 【ET/IoT展】|Marina Sakaguchi

                                                          こんにちは、Deep Learningスタートアップでマーケターをしています、MARINA(@m__sb04)です。 なんだか恒例行事になってきた展示会レポート、第4段です。 組込み界隈では有名なET/IoT展。今年もエッジAIテーマのブースが構えられており結構楽しみにしていました。 が、そこまで目新しいものはなかったかな〜というのが大きな印象です。 個人的な感想ですが、OpenVINO使ってCPUで高速処理してますみたいなデモが多かったのとなぜか顔認証デモをたくさん見た気がします。 ということで、今回もサクッといきましょう。 ・・・・ マクニカアルティマカンパニー(Intel内)ただの人物検出デモかと思っていたら実は上の画面の青い枠は顔認証をしていて、下の画面で人数カウント、さらに顔認証した人がヘルメットをかぶり、作業着を着ると上の画面の右側にチェックボックスがつくというデモ。Corei

                                                            エッジAIの展示まとめレポ 【ET/IoT展】|Marina Sakaguchi
                                                          • [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO

                                                            Game Tech Night #15 8/21(水)、「ゲーム業界向け AWSで実現する機械学習」とのサブタイトルで Amazon Game Tech Night #15 が開催されました。 Amazon Game Tech Night #15 〜ゲーム業界向け AWSで実現する機械学習〜 - connpass このブログではそのうちの後半のセッション、「Game 開発で活用するAWS の AI/ML サービスのご紹介」についてレポートします。AWS が提供している AI・機械学習系のサービスを、デモや事例を交えて丁寧に紹介して頂きました! なお前半のセッション「ゲーム業界における機械学習の活用事例」については、別記事があがっていますので、そちらもぜひご参照ください! [レポート]ゲームに活用されるAIの多様性〜Amazon Game Tech Night #15 #AmazonGame

                                                              [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO
                                                            • 【開催報告】ML@Loft #4 (Edge) | Amazon Web Services

                                                              AWS Startup ブログ 【開催報告】ML@Loft #4 (Edge) こんにちは、スタートアップソリューションアーキテクトの針原 (Twitter: @_hariby) です。7月19日に AWS Loft Tokyo で開催された機械学習のコミュニティイベント ML@Loft の第4回では Edge Deep Learning をはじめとした技術についての話が盛り上がりました。興味はあったけど予定が合わなかった、という方のために内容をまとめたいと思います。 ML@Loft は機械学習のお悩み相談イベントで、目黒の AWS Loft Tokyo で2019年4月より毎月開催されています。もともとは AWS をお使いのお客さまが、サービスの中に機械学習を取り入れて開発・運用していく際のお悩を気軽に相談できる場が欲しい、ということで始まったイベントです。登壇者 (相談役) が自己紹介

                                                                【開催報告】ML@Loft #4 (Edge) | Amazon Web Services
                                                              • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                                                Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                                                  Fast and Portable Llama2 Inference on the Heterogeneous Edge
                                                                • 初代Coreぶりの興奮。40年来で最大の革新を謳う「Meteor Lake」についてIntel Tech-Talkで聞いてきた

                                                                  レポート 初代Coreぶりの興奮。40年来で最大の革新を謳う「Meteor Lake」についてIntel Tech-Talkで聞いてきた インテル恒例のプレス向け技術説明会を開催 インテルは2023年9月26日、不定期に行っている記者向けの技術説明会「Tech-Talk」を開催しました。今回は米国時間で9月19~20日にカリフォルニア州サンノゼで開催した「Intel Innovation」で発表された技術について解説しています。基調講演は米Intelサイトから視聴可能です。 最初にインテル株式会社 執行役員 技術本部長 町田奈穂氏がIntel Innovation」でのハイライトを紹介しました。 インテル株式会社 執行役員 技術本部長 町田奈穂氏 今後、現在のプラスチックに代わる素材としてガラス基板を使用していくと紹介。これによって現在よりもさらなる微細化に対応するだけでなく、面積制限も緩

                                                                    初代Coreぶりの興奮。40年来で最大の革新を謳う「Meteor Lake」についてIntel Tech-Talkで聞いてきた
                                                                  • MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る | CyberAgent Developers Blog

                                                                    MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る この記事は CyberAgent Developers Advent Calendar 2022 の5日目の記事です。 AI事業本部でソフトウェアエンジニア(機械学習 & MLOps領域)をしている yu-s (GitHub: @tuxedocat) です1。現在は 極予測LP という、広告ランディングページの制作をAIにより刷新するという目標のプロダクトに関わっています。 この記事では本プロダクトのMLOpsの取り組みのうち、特に深層学習モデルをデプロイして運用する基盤についての技術選定を振り返ってみます。 タイトルにあるとおり Triton Inference Server というOSSの推論基盤を導入しました。 前置き: プロダクトやチームなどの環境と経緯 本記

                                                                      MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る | CyberAgent Developers Blog
                                                                    • Bringing the power of AI to Windows 11 – unlocking a new era of productivity for customers and developers with Windows Copilot and Dev Home

                                                                      Bringing the power of AI to Windows 11 – unlocking a new era of productivity for customers and developers with Windows Copilot and Dev Home The team and I are pumped to be back at Build with the developer community this year. Over the last year, Windows has continued to see incredible growth fueled by Windows 11 adoption. In fact, one of the most exciting areas driving that growth for Windows has

                                                                        Bringing the power of AI to Windows 11 – unlocking a new era of productivity for customers and developers with Windows Copilot and Dev Home
                                                                      • ディープラーニングフレームワークのncnnを試してみた - NTT Communications Engineers' Blog

                                                                        はじめに こんにちは。イノベーションセンターテクノロジー部門の齋藤と申します。普段はコンピュータビジョンの技術開発やAI/MLシステムの検証に取り組んでいます。今回は、モバイル向けの推論フレームワークのncnnに触れてみたので、その結果について書いて行きます。 ncnnとは ncnn1とは、モバイル向けの推論フレームワークでAndroidとiOSにどちらも対応しています。Pytorchの場合モデルは、pthの形式で1つのファイルで構成されています。ncnnの場合モデルは、param(モデル構造)とbin(重み)ファイルに分割されています。 自身のncnnを使用するモチベーションは、ncnnのデータフォーマットにあります。モバイルで使用するフレームワークにTensorFlow Lite2がありますが、他のフレームワークからモデルを変換するためにNCHW形式からNHWC形式に変換する必要があり

                                                                          ディープラーニングフレームワークのncnnを試してみた - NTT Communications Engineers' Blog
                                                                        • GitHub - bes-dev/stable_diffusion.openvino

                                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                            GitHub - bes-dev/stable_diffusion.openvino
                                                                          • 【Developers.IO 2020 CONNECT】「機械学習の知識ゼロでも動かせるAIツールキットの世界」というオンラインセッションをした。#devio2020 | DevelopersIO

                                                                            せーのでございます。 2020/6/17〜2020/7/7の期間で、クラスメソッドの年次技術イベント「Developers.IO 2020 CONNECT」が開催されています。 私は本日(2020/6/26)のDay4に「機械学習の知識ゼロでも動かせるAIツールキットの世界」というタイトルでライブセッションを担当しました。 スライド 当日のスライドはこちらです。 。。。と言っても動画が多め、というかほぼ動画で占められているので、スライドだけを見ても何のことかよくわからないかと思います。 今回のライブセッションの模様は近々にアーカイブをクラスメソッドのYoutubeチャンネルで公開する予定です。 他のライブセッションやオリジナルのビデオセッションも多数アップされていますので、是非この機会にチャンネル登録をしてご覧になってください。 私のがアップしましたらこちらに貼りたいと思います。 動画がア

                                                                              【Developers.IO 2020 CONNECT】「機械学習の知識ゼロでも動かせるAIツールキットの世界」というオンラインセッションをした。#devio2020 | DevelopersIO
                                                                            • AMDの発表で見えてきたFrontierのノード構成 スーパーコンピューターの系譜  (1/3)

                                                                              インテルのロードマップアップデートも一段落しており、次は10月末に開催されるIntel Innovation待ちである。実を言えば海外ではぼちぼちLGA 1700対応のマザーボードの話が出てきたりしてはいるのだが、まだ製品発表には遠そうだ。 それはともかくとして、ここにきてHPC関係の話がいろいろ出てきたので、今回はこれをまとめてご紹介しよう 。 AMDがHPCの性能効率を 2025年までに30倍にすると発表 9月29日、AMDは2025年までにHPCおよびAIワークロードの性能効率を30倍にすると発表した。これは2020年時点のプラットフォームなので第2世代EPYCと比較して、2025年のプラットフォームでは性能/消費電力比を30倍に引き上げるという話である。ちなみに組み合わせられるGPUは、Radeon Instinct MI100なのか、その前世代製品であるRadeon Instin

                                                                                AMDの発表で見えてきたFrontierのノード構成 スーパーコンピューターの系譜  (1/3)
                                                                              • 【備忘録】PyTorchのモデルをonnx形式を経由してOpenVINO用に変換する | DevelopersIO

                                                                                せーのでございます。 コンピュータビジョンを使う際にIntelのOpenVINOというツールキットは足回りを整備してくれていて、非常に使いやすく生産性のあがるものです。システムをIntel系のチップが載ったマシンで動かす場合は必須といっても良いでしょう。 このOpenVINOを使って自作のモデルを動かしたい時にはOpenVINO用の形式にモデルを最適化(optimize)します。 TensorFlowやCaffeなどのフレームワークは直接OpenVINOのオプティマイザーに突っ込んであげれば変換されるのですが、 ChainerやPyTorchで作ったモデルは一旦ONNXと呼ばれるフレームワーク共通のフォーマットに変換してあげて、それをOpenVINOに取り込むことになります。 今回は備忘録の意味も含めましてその手順をご紹介いたします。 今回は画像を骨格検知するために学習したモデルをOpen

                                                                                  【備忘録】PyTorchのモデルをonnx形式を経由してOpenVINO用に変換する | DevelopersIO
                                                                                • Stable DiffusionなどAIに最適なGPUを調査したベンチマーク結果が登場

                                                                                  近年、AIを身近に体験できるサービスやアプリケーションなどが次々と登場していますが、多くは強力な処理性能を備えたサーバー経由で使用できるオンラインサービスとなっています。しかし、これらに頼らず自前のPCでAIを使う際にどのGPUが最適なのか、まとめたベンチマーク結果がTom’s Hardwareが調査をしその結果を発表しています。 Stable Diffusionを用いてGPUのAI処理性能をベンチマーク。NVIDIA製GPUが最適解 AIサービスと言うと最近ではChatGPTと呼ばれるサービスが話題を集めていますが、その前にAIがユーザーが入力したキーワードを基に画像を出力するStable Diffusionが話題となっていました。 これらのAIサービスは基本的に強力な処理性能を備えたサーバーで処理が行われるオンラインサービスとなっていますが、Stable Diffusionに関してはあ

                                                                                    Stable DiffusionなどAIに最適なGPUを調査したベンチマーク結果が登場