並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

onnxの検索結果1 - 16 件 / 16件

  • Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で

    Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で FirefoxのJavaScriptエンジンでありWebAssemblyの実行エンジンでもある「SpiderMonkey」の開発チームは、WebAssemblyのコンパイル処理を従来よりも最大で75倍高速にする改善を行ったことを、ブログ「75x faster: optimizing the Ion compiler backend | SpiderMonkey JavaScript/WebAssembly Engine」で明らかにしました。 二段目のコンパイラがメモリを使いすぎている この性能改善のきっかけは、マイクロソフトがオープンソースで公開している機械学習ライブラリ「ONNX Runtime」のWebAssembly版をSpiderMonekyで実行した際に、最適化の

      Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で
    • 75x faster: optimizing the Ion compiler backend

      In September, machine learning engineers at Mozilla filed a bug report indicating that Firefox was consuming excessive memory and CPU resources while running Microsoft’s ONNX Runtime (a machine learning library) compiled to WebAssembly. This post describes how we addressed this and some of our longer-term plans for improving WebAssembly performance in the future. The problem SpiderMonkey has two c

        75x faster: optimizing the Ion compiler backend
      • フィッシング×QRコードが融合した“クイッシング”は何が危ないのか?

        Sophosは2024年10月16日(現地時間)、新たなフィッシング攻撃手法「クイッシング」について警告した。クイッシングはフィッシングとQRコードを組み合わせて標的から認証情報を窃取する攻撃手法とされている。 Sophosの調査によると、2024年6月に同社の従業員がターゲットとなり、数名がクイッシング攻撃の被害を受けたことが確認されている。正規の電子メールのように見せかけたスピアフィッシングメールが送信されており、添付ファイルのPDF内にQRコードが埋め込まれていたことが判明している。このQRコードをスキャンすると偽の「Microsoft 365」ログインページに誘導され、認証情報が盗まれる仕組みとなっていた。 QRコードを使ったフィッシングは何が危ないのか? QRコードを利用するクイッシングには従来のフィッシング防御策を回避できるという大きな特徴がある。QRコードは主にスマートフォン

          フィッシング×QRコードが融合した“クイッシング”は何が危ないのか?
        • Transformers.js v3 の概要|npaka

          以下の記事が面白かったので、簡単にまとめました。 ・Transformers.js v3: WebGPU Support, New Models & Tasks, and More… 1. Transformers.js v3「Transformers.js v3」は、HuggingFaceが開発した機械学習ライブラリ「Transformers」のJavaScript版の最新版です。 主な特徴は以下の通りです。 ・WebGPUサポート : 従来のWASMと比べて最大100倍高速 ・新しい量子化フォーマット(dtype) : より効率的なモデル実行が可能に ・対応アーキテクチャの拡大 : 120のアーキテクチャをサポート ・事前学習済みモデルの追加 : 120以上のモデルが利用可能 ・マルチプラットフォーム対応 : Node.js、Deno、Bunで動作 2. インストール(1) パッケージ

            Transformers.js v3 の概要|npaka
          • 「Firefox」のSpiderMonkeyでWebAssembly版「ONNX Runtime」の実行速度が75倍に ほか ~16件を掲載(10月28日のダイジェストニュース)【ダイジェストニュース】

              「Firefox」のSpiderMonkeyでWebAssembly版「ONNX Runtime」の実行速度が75倍に ほか ~16件を掲載(10月28日のダイジェストニュース)【ダイジェストニュース】
            • Announcing .NET 9 - .NET Blog

              Today, we are excited to announce the launch of .NET 9, the most productive, modern, secure, intelligent, and performant release of .NET yet. It’s the result of another year of effort on the part of thousands of developers from around the world. This new release includes thousands of performance, security, and functional improvements. You will find sweeping enhancements across the entire .NET stac

                Announcing .NET 9 - .NET Blog
              • Ask HN: Real-time speech-to-speech translation | Hacker News

                Has anyone had any luck with a free, offline, open-source, real-time speech-to-speech translation app on under-powered devices (i.e., older smart phones)?* https://github.com/ictnlp/StreamSpeech * https://github.com/k2-fsa/sherpa-onnx * https://github.com/openai/whisper I'm looking for a simple app that can listen for English, translate into Korean (and other languages), then perform speech synthe

                • Spaces for Audio / Voices - a John6666 Collection

                  \n gr.Examples(\n File \"/usr/local/lib/python3.10/site-packages/gradio/helpers.py\", line 74, in create_examples\n examples_obj.create()\n File \"/usr/local/lib/python3.10/site-packages/gradio/helpers.py\", line 314, in create\n self._start_caching()\n File \"/usr/local/lib/python3.10/site-packages/gradio/helpers.py\", line 365, in _start_caching\n client_utils.synchronize_async(self.cache)\n Fil

                    Spaces for Audio / Voices - a John6666 Collection
                  • ONNXRuntime-Webを使ってブラウザ拡張でニューラルモデルをローカル推論しよう - Qiita

                    使えない演算があるとは,例えばwebglではRNNやLSTM, ArgMaxなどが使えません.webgpuは演算自体は基本的に全て使用可能ですが,Attentionのmaskなど一部未実装の機能があるようです.詳しくは公式GitHubレポのGPUサポート状況を参照してください. なお,Linux版Chromeでもブラウザ側で設定すればwebgpuは利用可能で,FireFoxも設定すれば全OSで利用可能です (参考: https://caniuse.com/webgpu ).この設定のハードルが一般利用ではかなり高いのですが. また,WebAssembly自体のメモリ4GB制限のために現在のところどのバックエンドであってもLLMのような巨大モデルは利用できません.この点に関しては64bitサポートを待ちましょう (参考: GitHub Issue 1,GitHub Issue 2). ser

                      ONNXRuntime-Webを使ってブラウザ拡張でニューラルモデルをローカル推論しよう - Qiita
                    • 前編: Stable Diffusion を TensorRT で GPU 推論を数倍高速化

                      Reading Time: 3 minutes Stable diffusion は画像生成、画像編集、画像変換など画像における多様な処理ができるモデルです。高品質な画像を生成できるのですが、仕組み上、推論に時間がかかってしまいます。そこで GPU での推論速度向上を行うために TensorRT を用いた Stable diffusion の高速化を試みました。著者の環境では約 7.68 倍程度の高速化が達成できました。 Stable diffusion について 本稿では Hugging Face で提供されている Stable diffusion モデルを対象とします。Stable Diffusionではメモリ消費や計算リソース効率化の為に Latent Diffusion Model が採用されています。このモデルは RGB 画像 (ピクセル空間) を潜在空間にマッピングしてから拡散

                        前編: Stable Diffusion を TensorRT で GPU 推論を数倍高速化
                      • Unity Sentisを使ってUnityランタイム上でAIモデルを使えるようにする

                        Unity Sentisとは Unityランタイム上でAIモデル実行を可能とするサービスです。 2023年6月に登場しました。 クラウドにアクセスする必要がないため、ネットワークが通ってない or 弱い箇所でもAIモデルを実行することができて、コストも無料です。 また対応するプラットフォームも、Unityがサポートしているもの全てで動かすことができます。 使えるモデルはONNX規格のモデルであれば使用することができます。 つくるもの 9ヶ月前に作ったアプリをUnity Sentisで再現してみます。 ↑の記事では以下のサービスを使いました。 GPT-4...Azure OpenAI Service STT...Azure AI Speech Service TTS...Azure AI Speech Service 音声テキスト変換するのも、回答を生成するのも、音声合成するのも全てクラウド

                          Unity Sentisを使ってUnityランタイム上でAIモデルを使えるようにする
                        • VOICEVOX COREをOrange Pi 5(Ubuntu)で動かす | WASP株式会社

                          Orange Pi 5でVOICEVOX COREを動かしました。 こういった小型のボードで動くと、面白そうなおもちゃが作れそうでわくわくしますね。 音声合成もPythonもよくわからない状態でなんとか動かしたので、なんか違うみたいなことをやらかしてるかもしれませんが、動くまでのセットアップをメモしておきます。 環境など OS Ubuntu 20.04.5 LTS (Focal Fossa) OSインストールイメージ(OrangePiが公式に配布しているもの) Orangepi5_1.1.0_ubuntu_focal_desktop_xfce_linux5.10.110.img Orange Pi 5のインストールイメージなどは公式サイトにあります。 VOICEVOX CORE(GitHub) GitHubのサンプルプログラムはPythonとPyO3、Cを使ったバージョンがありました。 試

                            VOICEVOX COREをOrange Pi 5(Ubuntu)で動かす | WASP株式会社
                          • スリムボディにパワフルなAIパフォーマンスを詰め込んだ「HP OmniBook Ultra 14-fd」の力をベンチマークで測定しまくってみた

                            HPの「OmniBook Ultra 14-fd」をフォトレビューした前回の記事では、スタイリッシュな薄型軽量ボディや高輝度・高解像度なディスプレイといったHPのハイエンドノートPCの魅力が判明しました。さらに、今回の記事ではOmniBook Ultra 14-fdが誇るAIパフォーマンスを含めた性能面を徹底的に見ていきます。 HP OmniBook Ultra 14-fd 製品詳細 - ノートパソコン | 日本HP https://jp.ext.hp.com/notebooks/personal/omnibook_ultra_14_fd/ ◆スペック まず、端末のスペックを「CPU-Z」でおさらいします。CPUは12コア24スレッドのAMD Ryzen AI 9 HX 375で、コアの内訳はパフォーマンスコア4+エフィシェントコア8となっています。 「GPU-Z」によると、GPUはプロセ

                              スリムボディにパワフルなAIパフォーマンスを詰め込んだ「HP OmniBook Ultra 14-fd」の力をベンチマークで測定しまくってみた
                            • AI Toolkit for VS Code を触ってみた

                              やること AI Toolkit for VS Code を使い方を共有します。 前提 Vscodeをinstall済みであること Githubアカウントを持っていること Mac OSでないこと 手順 Vscode を開く 拡張機能:マーケットプレース で AI toolkit for Visual Studio Code と検索し、インストール をクリックする インストールが完了すると、以下が表示される。 許可(A)をクリックする ユーザー名,パスワードを入力し、サインインをクリックする サインインが完了すると、以下のようにモデルが一覧で確認できる Phi-3-mini-4k-cpu-int4-rtn-block-32-acc-level-4-onnx をダウンロードする ダウンロード中.... ダウンロードが完了し、Model catalogにPhi-3-mini-4k-cpu-int4

                                AI Toolkit for VS Code を触ってみた
                              • Transformers.js v3 の概要|npaka

                                以下の記事が面白かったので、簡単にまとめました。 ・Transformers.js v3: WebGPU Support, New Models & Tasks, and More… 1. Transformers.js v3「Transformers.js v3」は、HuggingFaceが開発した機械学習ライブラリ「Transformers」のJavaScript版の最新版です。 主な特徴は以下の通りです。 ・WebGPUサポート : 従来のWASMと比べて最大100倍高速 ・新しい量子化フォーマット(dtype) : より効率的なモデル実行が可能に ・対応アーキテクチャの拡大 : 120のアーキテクチャをサポート ・事前学習済みモデルの追加 : 120以上のモデルが利用可能 ・マルチプラットフォーム対応 : Node.js、Deno、Bunで動作 2. インストール(1) パッケージ

                                  Transformers.js v3 の概要|npaka
                                • Raspberry Pi AI HAT+ のセットアップメモ - 電子趣味の部屋

                                  Hailo 8 AIアクセラレーターを搭載したRaspberry Pi 5用のHAT+を入手しました。 Piromoniで購入しましたが、国内のショップではスイッチサイエンスで購入できます。 今回は推論性能が26TOPSのHailo-8を搭載したものを購入しましたが、13TOPSのHailo-8Lを搭載した下位バージョンもあります。 Hailo 8は学習済みのモデルを処理するアクセラレータです。学習作業を高速化することはできません。 学習済みのモデルはHailoのオリジナルフォーマットのHEFファイルを使用しますが、Dataflow Compilerを使用して汎用のonnx形式のファイルを変換できるようです。(詳しくはまだ調べてません) セットアップ手順 公式ドキュメント AI software - Raspberry Pi Documentation セットアップ時の手順のメモを書きます

                                    Raspberry Pi AI HAT+ のセットアップメモ - 電子趣味の部屋
                                  1