並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 163件

新着順 人気順

OpenVINOの検索結果1 - 40 件 / 163件

  • 【一問一答】マヅコの知らない「異常検知」の世界 - Qiita

    これから異常検知を勉強される初心者、中級者の方のために一問一答集を作ってみました。 実際にあった質問も含まれますが、ほとんどの質問は、私が勉強しながら疑問に思ったことです。 なお、各質問には私の失敗談を添えております。皆さんは私のような失敗をしないよう 祈っております(^^)。異常検知に特化した内容となっておりますので、ご了承ください。 初心者の方向け 勉強の仕方編 Q:異常検知を勉強したいのですが、何から手をつけて良いのか分かりません。 A:書籍を買って読むのがおススメです。 最初、私はネット情報で勉強していました。しかし、それにも限界があります。 ところが、書籍(入門 機械学習による異常検知)を買って読んだところ、かなり知識を 得ることができました。最初から、書籍を買っていれば、一年くらい得することができたのに... と思うこともあります(^^; ただ、こちらの本はディープラーニング系

      【一問一答】マヅコの知らない「異常検知」の世界 - Qiita
    • 無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる

      画像生成AI「Stable Diffusion」は、指示した通りの画像を生成してくれるAIとして大きな注目を集めています。Stable Diffusionを実際に使うにはPythonのインストールといったPCの知識が求められる作業が必要なのですが、有志が開発した「NMKD Stable Diffusion GUI」なら誰でも簡単にStable Diffusionを使う環境を整えられます。そんなNMKD Stable Diffusion GUIではStable Diffusionに備わった各種機能を簡単操作で実行可能なので、NMKD Stable Diffusion GUIの各種設定項目や自分好みの画像を生成するまでの手順を徹底的にまとめてみました。 My easy-to-install Windows GUI for Stable Diffusion is ready for a beta

        無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
      • NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)

        せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。 だから流出したモデルを使ってローカルでNAIの環境を構築する。 ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。 もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。 もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。 英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。 https://rentry.org/nai-speedrun 推奨環境VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。 GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。 IntelのオンボードGPUで

          NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)
        • 最終回:Apple Siliconがやってきた そのさらに先、「Apple ISA」への遠い道のり

          ご存じの通り、Apple Silicon「M1」を搭載したMacが発売された。この連載の担当編集である松尾氏も早速入手されたそうで何よりである。現状のM1は、ある意味「拡張性を犠牲にして性能を優先した」構成であり、今後拡張性が求められるようになっていくと、いろいろ厳しいシーンも出てくるとは思うが、それをどう(CPUコアのアーキテクチャだけでなく、SoCのアーキテクチャも含めて)解決しながら性能を上げていくかが楽しみである。 さてこの連載の最後に、そういうApple Siliconの先にあるものを少し考察してみたい。結論からいえば、Appleは既にApple ISA(Instruction Set Architecture)の策定作業にかかっていると思う。それが世の中に登場するのはまだだいぶ先だと思うし、動向次第では世に出ずに終わる可能性も多少はあるが、そうした作業をやってないというのは、ま

            最終回:Apple Siliconがやってきた そのさらに先、「Apple ISA」への遠い道のり
          • ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ

            Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き @kapper1224 CPUでStable diffusionが3分ちょっとかかるので、ラズパイ4も対応しているFastSDCPUを入れたら50秒になったw OpenVINOとか入っているらしい。AMDのCPUだけどw ターミナル画面左側が普通のSD、右側がFastSDCPU これだけ速度差があるとありがたい github.com/rupeshs/fastsd… pic.twitter.com/zflPRbldt4 2024-01-20 21:08:00

              ラズパイ4も対応しているCPU超高速Stable diffusionのFastSDCPUで爆速生成AI。標準4分/枚がOpenVINOでわずか18秒/枚。お金をかけずに爆速化最高。オススメ
            • Intel製CPUでも画像生成AI「Stable Diffusion」を動かせる「stable_diffusion.openvino」が登場、誰でもダウンロード可能に - GIGAZINE

              入力したテキストに合わせて自動でまるでホンモノの写真のようなクオリティの高い画像を生成することができる人工知能(AI)が「Stable Diffusion」です。そんなStable DiffusionはCreative ML OpenRAIL-Mライセンスの下でリリースされており商用利用も可能ですが、ローカル環境で利用するにはNVIDIA製GPUを搭載した端末が必要となっています。そんなStable Diffusionを、多くのWindows搭載PCが採用しているIntel製CPUで実行できるようにした「stable_diffusion.openvino」が登場しました。 GitHub - bes-dev/stable_diffusion.openvino https://github.com/bes-dev/stable_diffusion.openvino 「Stable Diffus

                Intel製CPUでも画像生成AI「Stable Diffusion」を動かせる「stable_diffusion.openvino」が登場、誰でもダウンロード可能に - GIGAZINE
              • WebAssemblyでの機械学習モデルデプロイの動向

                本記事はMLOps Advent Calendar 2020の 2 日目の記事です。 WebAssembly(Wasm)は機械学習モデルをデプロイする新たな手段になりうるでしょうか。 この記事では、機械学習モデル(特に Deep Learning)を Wasm でデプロイする周辺技術の動向や内部の仕組みをざっくりと説明します。 Table of Contents tkat0 です。WebAssembly(Wasm)面白いですね。 私も最近はyewでフロントエンドを書いて遊んでいます。Rust で React っぽいことできるのは新鮮で面白いです。 Wasm は、なんとなく速い JavaScript?とか機械学習で何に役立つの?とか思ってる方も多いと思います。 しかし、Wasm はブラウザでの推論時に使えるだけでなく、機械学習モデルのサービングやエッジデバイスでの推論にも使えると知ったら驚き

                  WebAssemblyでの機械学習モデルデプロイの動向
                • 「AI開発は誰でもできる」…電機大手を難局に陥れるオープン化の波 ニュースイッチ by 日刊工業新聞社

                  IoT(モノのインターネット)が人工知能(AI)技術の主戦場になった。電子基板製造会社や組み込みソフト開発会社、システムインテグレーターなどがAIに参入している。オープンな開発環境が整い画像認識や人物検出は簡単にできるようになった。展示会のデモだけをみると、AI技術に投資してきた日本の大手に、中堅・中小企業が追いついたかのようだ。技術コンサルを生業としてきたAIベンチャーも価格競争に巻き込まれる可能性がある。 電子基板 周辺機器もサポート 「技術がオープンな時代なので、みな同じ提案になる」とV―net AAEON(横浜市港北区)の伊勢友美執行役員は苦笑いする。同社は組み込み機器の電子基板を販売する。いわゆる“基板屋”だが、展示会ではAIによる人物認識や車両認識などを披露する。伊勢執行役員は「基板だけを紹介していても売れない。何ができるかAIのアプリを見せないと」と狙いを説明する。米NVID

                    「AI開発は誰でもできる」…電機大手を難局に陥れるオープン化の波 ニュースイッチ by 日刊工業新聞社
                  • エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita

                    本内容は、技術書典7 合同本『機械学習の炊いたん2』収録の、「エッジで機械学習」記事を公開したものです。内容は2019年9月時点の調査等に基づきます。 最近Raspberry Pi 4の検証結果などをみていると、エッジ、かつCPUでもそれなりの速度で動くケースもみられます。またこの後にM5StickV(K210)などを触りましたが、専用チップも使い所があります。今後、それらの動きもできれば補足したいと思います。 9/12-22に開催された技術書典9では、新刊『機械学習の炊いたん3』を頒布しました。私は、「AIエンジニア、データサイエンティストのための経営学、ソフトウェア工学」を寄稿しています。他にも機械学習のビジネス、エンジニアリング、数理までもりだくさん。気になられたら、ぜひご覧ください! 他にも、技術書典9「機械学習、データ分析」系の新刊リスト - Qiitaの通り、たくさんの本が出品

                      エッジで機械学習ってなんだろう -ブラウザ、スマホ、IoT機器での推論を概観する- - Qiita
                    • 【機械学習 × テニス】姿勢推定とLightGBMを用いたテニスのスイング認識【動作検出】 - はんぺんのIT日記(改)

                      はじめに 手法の決定 開発環境 データ取得 動画撮影 アノテーション 関節位置のデータ モデリング 学習用データ データ加工 データ分割 学習 評価 評価用データ Feature Importance Confusion matrix 動作の誤検出 高度化検討 トラッキングの追加 姿勢の検出精度の高いモデルの使用 特徴量の再検討 予測モデルへの転換 関節位置データのAugmentation さいごに 参考 はじめに こんにちは。はんぺんです。 テニスのスイングの検出・分類モデルを作ってみました。 youtu.be モチベーションとしては、インテリジェントデバイス的な何かを作ってみたいというものです。 ちょうど魔法少女リリカルなのはのレイジングハートみたいなイメージです。 インテリジェントデバイスとは、AIを有し自ら思考するタイプのデバイスのこと。 出展:レイジングハートとは (レイジングハ

                        【機械学習 × テニス】姿勢推定とLightGBMを用いたテニスのスイング認識【動作検出】 - はんぺんのIT日記(改)
                      • GIMPで画像生成AIを使えるようにしてNPUでの処理も可能にするOpenVINOプラグイン「OpenVINO AI Plugins for GIMP」レビュー

                        Intel製CPU搭載を搭載したPCでGPUなしでもStable Diffusionを用いた画像生成を可能にするGIMP用プラグイン「OpenVINO AI Plugins for GIMP」がGitHubに公開されています。特徴的なのは、AIの演算処理に特化したプロセッサ「NPU」に対応しており、NPUを使った画像生成が可能だという点。ちょうどNPUを搭載したXPS 13とXPS 14をDellから借りていたので、導入から実際に使うところまでをまとめてみました。 GitHub - intel/openvino-ai-plugins-gimp: GIMP AI plugins with OpenVINO Backend https://github.com/intel/openvino-ai-plugins-gimp/tree/main ◆目次 1:導入方法 2:使い方 ◆1:導入方法 使

                          GIMPで画像生成AIを使えるようにしてNPUでの処理も可能にするOpenVINOプラグイン「OpenVINO AI Plugins for GIMP」レビュー
                        • JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary

                          1. 概要 追記 公開当初Jetson Nanoの性能表記に誤記があったため修正しています。 最近組み込みデバイス(以下エッジと表現)で画像認識や音声認識、センサ情報の処理といったディープラーニングを利用した処理を実行することが容易になっている。低消費電力で、高速にディープラーニングを処理するためのエッジAI用アクセラレータが各社から発売されていることがその理由の一つだろう。 こういった、エッジAI用のアクセラレータは各社によってその使用や対応フレームワーク、利用できるディープラーニングのネットワーク構成に違いがある。どれも同じように利用できるわけではない。自分でエッジAI用アクセラレータを利用しようとしたときにいくつか調べてみた内容をメモがわりに残してみる。ちなみに個人で遊べるものを中心にしてるので、産業的にどうなのかは知らない、悪しからず。。。 あとこのブログではAndroid Thi

                            JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary
                          • 画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法

                            非常に高精度な画像を生成できるとして大きな話題を呼ぶ画像生成AI「Stable Diffusion」は、オープンソースであるためユーザーがローカル環境で実行することもできますが、記事作成時点ではNVIDIA製GPUの使用が推奨されています。そのため、「Stable Diffusionが気になっているけどMacユーザーだからローカルで実行できない」という人もいるはず。そんなMacユーザーに向けて、「Stable DiffusionをM1・M2チップ搭載Macのローカル上で実行する方法」についてオープンソースの機械学習モデルをクラウドのAPIで実行するウェブサービス・ Replicateが解説しています。 Run Stable Diffusion on your M1 Mac’s GPU - Replicate – Replicate https://replicate.com/blog/ru

                              画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
                            • Free Intel® Software Development Tools

                              Intel® oneAPI Toolkits - Free for All Developers Intel® oneAPI Toolkits are the next generation of standards-based Intel® Software Development Tools for building applications across diverse architectures. All Intel® oneAPI Toolkits products are available at no cost. The Intel oneAPI Toolkits do not require license files and the terms of use are based on the End User License Agreement.  Support is

                                Free Intel® Software Development Tools
                              • GitHub - ggerganov/whisper.cpp: Port of OpenAI's Whisper model in C/C++

                                Stable: v1.5.4 / Roadmap | F.A.Q. High-performance inference of OpenAI's Whisper automatic speech recognition (ASR) model: Plain C/C++ implementation without dependencies Apple Silicon first-class citizen - optimized via ARM NEON, Accelerate framework, Metal and Core ML AVX intrinsics support for x86 architectures VSX intrinsics support for POWER architectures Mixed F16 / F32 precision 4-bit and 5

                                  GitHub - ggerganov/whisper.cpp: Port of OpenAI's Whisper model in C/C++
                                • 盲導犬の代わりに「AI搭載のバックパック」が視覚障害者の歩行をサポートする技術が開発される

                                  視覚障害者の人々が安全に街中を歩くためには、前方の路面を確認する白杖を使ったり盲導犬のサポートを受けたりすることが必要です。ジョージア大学の研究チームは盲導犬や白杖を最新テクノロジーに置き換える試みとして、「AIを搭載したバックパックで視覚障害者をサポートするシステム」を開発しました。 Intel AI-Powered Backpack Helps Visually Impaired Navigate World https://www.intel.com/content/www/us/en/newsroom/news/ai-powered-backpack-visually-impaired-navigate.html#gs.073v8o AI-equipped backpack allows the blind to walk in public without dogs or can

                                    盲導犬の代わりに「AI搭載のバックパック」が視覚障害者の歩行をサポートする技術が開発される
                                  • Amazonがラジコンカーを発売。なんでラジコン?

                                    Amazonがラジコンカーを発売。なんでラジコン?2018.11.30 23:0037,463 岡本玄介 カメラが付いているほうがフロント? オリジナル製品もいろいろ作っているAmazon(アマゾン)ですが、今度はラジコンカーを販売します。 でもAmazonといっても、発表したのは通販サイトではなくクラウド・コンピューティング・サービスAmazon Web Services(通称、AWS)。エンジニア向けにサービスを提供するAWSは、AIで自律運転するラジコン「AWS DeepRacer」を発表したのでした。 強化学習のためのプロダクトImage: Amazon via designboom magazineAmazonがしたいことはラジコンを作ることではありません。AWS DeepRacerは機械学習の一種である、強化学習(RL、reinforcement learning)を手を動かし

                                      Amazonがラジコンカーを発売。なんでラジコン?
                                    • Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法

                                      Stable Diffusionをローカルで手軽に動かす方法 Stalbe Diffusion話題ですね。ただネックなのはGPUが必要な点です。GPUを持ってない人や、CUDAはよくわからない/絶対に入れたくないという人もいるでしょう。クラウドを使う方法もありますが、色々な事情で使えない/使いたくない人もいるでしょう。 そんな全世界のStable Diffusion難民に朗報です。Stable DiffusionがIntel CPUで動きます。しかもWLS2で動くので、大体のWindows PCで動きます。 以下のstable_diffusion.openvinoを使うだけです。 OpenVINOの説明は省略します。とにかくIntel CPUに最適化されたエッジコンピューティングのすごいヤツです(雑) セットアップ方法 前提 Intel CPU Windows OS 11にWSL2をインス

                                        Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法
                                      • WebAssembly: Docker without containers!

                                        This is a companion article to a talk about Docker+WebAssembly that we gave at "Docker Community All Hands 7, Winter Edition" on Dec 15th, 2022. Introduction Recently Docker announced support for WebAssembly in cooperation with WasmEdge. This article will explain what is WebAssembly, why it is relevant to the Docker ecosystem and provide some hands-on examples to try on. We assume you are familiar

                                          WebAssembly: Docker without containers!
                                        • Amazonが自律走行ミニカーを発売、249ドルで予約開始! | Techable(テッカブル)

                                          Amazon Web Services(AWS)は世界初となる自律走行ミニカー「DeepRacer」を発表した。この1/18スケールのレーシングカーは、機械学習によってコースを自律走行できるようになる。 発売予定は3月となっているDeepRacerだが、249ドルで予約注文を受け付け中だ(現時点で日本は出荷対象外)。・AWSの機械学習プラットフォームを活用DeepRacerは、一般的な自律走行車両に用いられる技術の一種をミニカーに適用したもの。あらかじめ走行コースを学習させておくことで自立走行が可能になる。 機械学習の一種である強化学習を用いてミニカーを賢くしていくが、これにはAWSの機械学習プラットフォーム、Amazon SageMakerを用いる。また、走行のシミュレーションにはAWSのロボット開発プラットフォーム、AWS RoboMakerも活用できる。・来年にはAWS主催の世界大会

                                            Amazonが自律走行ミニカーを発売、249ドルで予約開始! | Techable(テッカブル)
                                          • [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020. - Qiita

                                            [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020.PythonDeepLearningTensorFlowPyTorchOpenVINO 日本語 English - Japanese - 1. Introduction 今回は私が半年間掛けてためてきた、学習済みモデルの量子化ワークフローをメモがてら共有したいと思います。 Tensorflow の checkpoint (.ckpt/.meta)、 FreezeGraph (.

                                              [Tensorflow Lite] Various Neural Network Model quantization methods for Tensorflow Lite (Weight Quantization, Integer Quantization, Full Integer Quantization, Float16 Quantization, EdgeTPU). As of May 05, 2020. - Qiita
                                            • 「いいのがないから内製した」、OKIが18万円のAIエッジコンピューター

                                              「IoT(Internet of Things)デバイスが増え、エッジでAI(人工知能)処理を実行できるコンピューターのニーズが高まっている。しかし、現在では価格を含め適当なものがないため内製した」(沖電気工業(OKI) 取締役常務執行役員の坪井正志氏)。 OKIは2019年10月3日、ディープラーニング(深層学習)の推論処理をエッジで高速に実現し、耐環境性にも優れるAIエッジコンピューター「AE2100」を発売した。米インテルが提供するAIアクセラレーター「Movidius Myriad X VPU」と、オープンなディープラーニング推論実行環境「OpenVINOツールキット」を搭載する。さらに米マイクロソフトとの提携によって、同社のクラウドサービスやAI機能などをIoTデバイスで実行できるようにするための「Microsoft Azure IoT Edge認定」を取得しているという。

                                                「いいのがないから内製した」、OKIが18万円のAIエッジコンピューター
                                              • エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi

                                                久しぶりの展示会レポートです! 前回の展示会レポから半年も経っていて驚愕。時間の流れは早いですね。 行く前にこのツイートを見かけてはいたのですが、AI系の展示は相変わらず多いものの、案の定人物検出や姿勢推定などのデモが多くパッと見同じに見えました(ブーメラン) シーテックにいってきたけれど、みんなで人物検出のgithubクローンしてた。ディープラーニングという篝火を手に入れたのに、みんなそんなことしかしていなくてとても悔しい。もっと人類の危機への対策や人類の限界に挑戦すべきはずなのに — 木村優志: Convergence Lab. (@orcinus_orca) October 16, 2019 ただ、わたしはこれに関してはあんまり批判的な気持ちではなく、昔は人物検出ですら凄い〜〜ってなってたのが、今はまた人物検出か、となってるのは一般のリテラシーも上がっているということかもしれんのでい

                                                  エッジAIの展示まとめレポ 【CEATEC2019】|Marina Sakaguchi
                                                • 軽量画像変換AIモデル「FacialCartoonization」で簡単に顔をアニメ化する方法 - karaage. [からあげ]

                                                  素材提供: 変デジ研究所ロンスタさん 顔を手軽にアニメ化 久しぶりのディープラーニングネタです。顔を手軽にアニメ化できるAIモデルがありました。 GitHub - SystemErrorWang/FacialCartoonization: Imporved performance on facial image cartoonizaiton GANと呼ばれる技術をベースにしたもので、同じようなAIモデルは結構あるのですが、このリポジトリ(ソフト)が優れているのは、モデルが4.7MBと軽量なことです。 折角なので、誰でも簡単に顔をアニメ化できるように、Google ColabratoryのNotebookを作って見ました。 FacialCartoonization Google Colab Notebook Google Colabratoryがわからないという方は、以下ブログ記事を参照くだ

                                                    軽量画像変換AIモデル「FacialCartoonization」で簡単に顔をアニメ化する方法 - karaage. [からあげ]
                                                  • PCテクノロジートレンド 2022 - CPU編

                                                    2022年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う「PCテクノロジートレンド」をお届けする。本稿はCPU編だ。Intelは2021年の最後に投入したAlder Lakeにて、ついにAMDのRyzen 5000シリーズを超える性能をたたき出してきた。そして2022年は反撃に出るAMD、追撃を狙うIntelと、さらに動きの激しい年になりそうだ。 ◆関連記事リンク (2022年1月1日掲載) PCテクノロジートレンド 2022 - プロセス編 (本稿) PCテクノロジートレンド 2022 - CPU編 (2022年1月3日掲載) PCテクノロジートレンド 2022 - GPU編 (2022年1月4日掲載) PCテクノロジートレンド 2022 - メモリ・DRAM編 (2022年1月5日掲載) PCテクノロジートレンド 2022 - Flash Storage編 (2022

                                                      PCテクノロジートレンド 2022 - CPU編
                                                    • 西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた

                                                      西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた ライター:西川善司 既報のとおり,Intelは,単体GPU製品「Intel Arc」(以下,Arc)シリーズを発表した。 Intelが2020年に発表した「Iris Xe MAX」は,同社が,Intel 740(i740)をリリースした1998年以来,22年ぶりにリリースした単体GPU(Discrete GPU)だった。その進化版となるGPUが,今回のArcである。 発表イベント前に行われた技術説明会では,Arcに関する詳しい解説が行われたので,考察も交えて詳細に見ていきたい。 ArcシリーズはACM-G10とACM-G11の2種類が存在 Arcの開発コードネームは,もともと第2世代単体GPU(Discrete Graphics 2nd)の意味である「DG2」だったが(

                                                        西川善司の3DGE:IntelのノートPC向けGPU「Arc」とはいかなるGPUなのか。性能から機能までをひもといてみた
                                                      • PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite) - Qiita

                                                        PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite)機械学習DeepLearningPyTorchONNXTensorRT はじめに 本記事ではtorchvisionのresnet50を題材にPyTorchのモデルを様々な形式に変換する方法を紹介します。たくさんの種類を紹介する都合上、それぞれの細かい詰まりどころなどには触れずに基本的な流れについて記載します。また、変換後のモデルが正常に動作するかなどの確認も行いません。紹介する変換は以下の7パターンです。まさに7変化ですね! TorchScript ONNX TensorRT CoreML OpenVINO Tensorflow TFLite 基本環境 Ubuntu 18.04.3 PyTorch1.6

                                                          PyTorchのモデルを別形式に変換する方法いろいろ(TorchScript, ONNX, TensorRT, CoreML, OpenVINO, Tensorflow, TFLite) - Qiita
                                                        • OKI、高速ディープラーニング推論処理が可能なAIエッジコンピュータを発売

                                                          OKIは10月3日、高速ディープラーニング推論処理の実行をエッジで可能にする耐環境性を有したAIエッジコンピュータ「AE2100」の販売を開始したことを発表した。 AIエッジコンピュータ「AE2100」の外観 同コンピュータは、「Intel Atom x7-E3950」プロセッサとAIアクセラレータ「Intel Movidius Myriad X VPU」を最大2チップ搭載でき、Intelの提供するOpenVINOツールキットやOKIのソフトウェアを活用することで、AI推論処理を可能とする。また、クラウドとの連携機能としてMicrosoft Azure IoT Edge認定を取得しており、クラウドで作成されたAIモデルのエッジへの展開・利用を容易に行うことが可能となっている。 Intel、マイクロソフトとのパートナーシップにより、AIエッジコンピューティングに最適なソリューションの提供を目

                                                            OKI、高速ディープラーニング推論処理が可能なAIエッジコンピュータを発売
                                                          • Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%

                                                            Intelが「Responsible AI(責任あるAI)」の取り組みの一環として、ディープフェイクで作られたフェイク映像を96%の精度で検出できる「FakeCatcher」を発表しました。 Intel Introduces Real-Time Deepfake Detector https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-real-time-deepfake-detector.html As part of Intel’s Responsible #AI work, we’ve developed FakeCatcher, a new technology that detects fake videos with 96% accuracy. This detection platform

                                                              Intelが映像内の「血流」を用いるリアルタイムディープフェイク検出器「FakeCatcher」を発表、検出精度は96%
                                                            • Emgu CV: OpenCV in .NET (C#, VB, C++ and more)

                                                              From Emgu CV: OpenCV in .NET (C#, VB, C++ and more) Emgu CV is a cross platform .Net wrapper to the OpenCV image processing library. Allowing OpenCV functions to be called from .NET compatible languages. The wrapper can be compiled by Visual Studio, Xamarin Studio and Unity, it can run on Windows, Linux, Mac OS, iOS and Android. Latest News 2020-06-07 Emgu.CV-4.3.0 release is available in github a

                                                              • Introducing AI Hub and Kubeflow Pipelines: Making AI simpler, faster, and more useful for businesses | Google Cloud Blog

                                                                Introducing AI Hub and Kubeflow Pipelines: Making AI simpler, faster, and more useful for businesses Whether they’re revolutionizing the clothing manufacturing supply chain or accelerating e-commerce, businesses from every industry are increasingly turning to AI to advance what’s possible. Yet for many businesses, the complexities of fully embracing AI can seem daunting. Our goal is to put AI in r

                                                                  Introducing AI Hub and Kubeflow Pipelines: Making AI simpler, faster, and more useful for businesses | Google Cloud Blog
                                                                • Raspberry Pi4にIntel Neural Compute Stick 2(NCS2)を挿してエッジで機械学習の推論をする環境を整える #RaspberryPi #OpenVINO #NCS2 | DevelopersIO

                                                                  せーのでございます。 今回は機械学習のモデルをラズパイ4上でも動かすためにIntelのNeural Compute Stick 2(NCS2)を用意したので、環境を整えてみたいと思います。 NCS2とは NCS2とはいわゆるアクセラレーター(接続したコンピュータの性能を上げるデバイス)で、NCS2はIntelが機械学習の推論性能を上げることに特化して作成したスティック型の外付けデバイスです。 見た目にトランスフォーマー感があって、非常にワクワクします。 ラズパイのCPUだけでは機械学習の推論をさせるには少し物足りないので、このNCS2を取り付けます。 まだ自己責任 といってもNCS2を挿したらすぐに使えるのか、と言うとそういうわけではなく、専用のツールキットをインストールする必要があります。Raspbean OS用のツールキットはまだベータの段階で、Intelのオープンソーステクノロジーセ

                                                                    Raspberry Pi4にIntel Neural Compute Stick 2(NCS2)を挿してエッジで機械学習の推論をする環境を整える #RaspberryPi #OpenVINO #NCS2 | DevelopersIO
                                                                  • RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita

                                                                    OpenVINO をはじめて利用する方向けの、基礎的な説明です。 RaspberryPi と Movidius(後ほど説明)を使って、実際にOpenVINO 深層学習を試します。 RaspberryPiのセットアップや深層学習は、多少知識があることを前提としています。 OpenVINO 概要 「OpenVINOツールキット」の略。 解説サイトはこちら製品概要: OpenVINO™ ツールキットですが、なんだか難しい気がするので簡単に解説すると。 様々なインテル製のアーキテクチャ(≒処理装置)上で、効率的にディープラーニングやAIを動作させることができる 無償のソフトウェア Tensorflow,Caffeなどで作成したモデルをモデル・オプティマイザーというツールで変換・効率化して使うため、作成済のモデルをエッジデバイスで活用できる/開発が容易 Movidius 概要 Movidius NC

                                                                      RaspberryPi と Movidius ではじめる OpenVINO 深層学習入門 - Qiita
                                                                    • PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita

                                                                      PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換するDeepLearningCaffeTensorFlowPyTorchONNX 日本語 English 1. はじめに いつも左中間を狙うようなプチニッチなふざけた記事ばかりを量産しています。 この記事の手順を実施すると、 最終的に PyTorch製 高精度Semantic Segmentation の U^2-Net を TensorFlow Lite へ変換することができます。 下図のような感じです。 TensorFlow めちゃくちゃ扱いにくいです。 日々公開される最新のとても面白いモデルは軒並みPyTorch実装ですし、なんでTensorFlowで実装してくれないんだ!! と、常日頃思っています。 論文のベンチマ

                                                                        PyTorch, ONNX, Caffe, OpenVINO (NCHW) のモデルをTensorflow / TensorflowLite (NHWC) へお手軽に変換する - Qiita
                                                                      • AI・人工知能EXPOに行ってきた2019🏃‍♀️ 【展示会レポート】|Marina Sakaguchi

                                                                        こんにちは、Deep Learningの会社でマーケターをしているMARINAです。 さて、4/3から東京ビッグサイトで開催されている「第3回 AI・人工知能EXPO」という展示会に行ってきたわけですが、社内のKibelaに秘伝メモを書いたところ@yuki_mimuさんにnoteに書いたら?という意見を貰い、「たしかに」と思って書き綴りはじめました。🦀 ▼めちゃ反応くれる優しい世界 (私はすごく完璧主義者なのでこんなの公開していいんだろうかと思うんですが、反応もらえると後押しされて書いてよかったなあと思います) で、前置きはこのくらいにして本題に入ろうと思います。職業柄、エッジAI関係のことに興味があるので、ちょっと偏りはありますが、逆に言うとエッジAI系の展示は網羅されているなずなので何卒。 ・・・ 所感としては、去年はチャットボットばっかりでつまらなかった()という印象が大きかったで

                                                                          AI・人工知能EXPOに行ってきた2019🏃‍♀️ 【展示会レポート】|Marina Sakaguchi
                                                                        • エッジAIの展示まとめレポ 【ET/IoT展】|Marina Sakaguchi

                                                                          こんにちは、Deep Learningスタートアップでマーケターをしています、MARINA(@m__sb04)です。 なんだか恒例行事になってきた展示会レポート、第4段です。 組込み界隈では有名なET/IoT展。今年もエッジAIテーマのブースが構えられており結構楽しみにしていました。 が、そこまで目新しいものはなかったかな〜というのが大きな印象です。 個人的な感想ですが、OpenVINO使ってCPUで高速処理してますみたいなデモが多かったのとなぜか顔認証デモをたくさん見た気がします。 ということで、今回もサクッといきましょう。 ・・・・ マクニカアルティマカンパニー(Intel内)ただの人物検出デモかと思っていたら実は上の画面の青い枠は顔認証をしていて、下の画面で人数カウント、さらに顔認証した人がヘルメットをかぶり、作業着を着ると上の画面の右側にチェックボックスがつくというデモ。Corei

                                                                            エッジAIの展示まとめレポ 【ET/IoT展】|Marina Sakaguchi
                                                                          • [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO

                                                                            Game Tech Night #15 8/21(水)、「ゲーム業界向け AWSで実現する機械学習」とのサブタイトルで Amazon Game Tech Night #15 が開催されました。 Amazon Game Tech Night #15 〜ゲーム業界向け AWSで実現する機械学習〜 - connpass このブログではそのうちの後半のセッション、「Game 開発で活用するAWS の AI/ML サービスのご紹介」についてレポートします。AWS が提供している AI・機械学習系のサービスを、デモや事例を交えて丁寧に紹介して頂きました! なお前半のセッション「ゲーム業界における機械学習の活用事例」については、別記事があがっていますので、そちらもぜひご参照ください! [レポート]ゲームに活用されるAIの多様性〜Amazon Game Tech Night #15 #AmazonGame

                                                                              [レポート] AWS の AI・機械学習系サービスは Game 開発でどう活用されるか聞いてきた – Amazon Game Tech Night #15 #AmazonGametech | DevelopersIO
                                                                            • Intel® Toolkits

                                                                              Build, analyze, and optimize high-performance, cross-architecture applications on CPUs and XPUs with best-in-class compilers, performance libraries, frameworks, and analysis and debug tools. For most developers Intel® oneAPI Base Toolkit Use Case: Develop performant, data-centric applications across Intel® CPUs, GPUs, and FPGAs with this foundational toolset. ___________________ For HPC developers

                                                                                Intel® Toolkits
                                                                              • 【開催報告】ML@Loft #4 (Edge) | Amazon Web Services

                                                                                AWS Startup ブログ 【開催報告】ML@Loft #4 (Edge) こんにちは、スタートアップソリューションアーキテクトの針原 (Twitter: @_hariby) です。7月19日に AWS Loft Tokyo で開催された機械学習のコミュニティイベント ML@Loft の第4回では Edge Deep Learning をはじめとした技術についての話が盛り上がりました。興味はあったけど予定が合わなかった、という方のために内容をまとめたいと思います。 ML@Loft は機械学習のお悩み相談イベントで、目黒の AWS Loft Tokyo で2019年4月より毎月開催されています。もともとは AWS をお使いのお客さまが、サービスの中に機械学習を取り入れて開発・運用していく際のお悩を気軽に相談できる場が欲しい、ということで始まったイベントです。登壇者 (相談役) が自己紹介

                                                                                  【開催報告】ML@Loft #4 (Edge) | Amazon Web Services
                                                                                • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                                                                  Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                                                                    Fast and Portable Llama2 Inference on the Heterogeneous Edge