並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 192件

新着順 人気順

onnxの検索結果1 - 40 件 / 192件

  • Google、AIでファイルの種類を高速正確に判別できる「Magika」をオープンソースで公開

    Googleは、AIを用いることでファイルの種類を高速かつ正確に判別できるツール「Magika」をオープンソースで公開したと発表しました。 Magikaは、あるファイルの中味が何なのか、記述されたプログラミング言語の種類、動画や画像、音声などのフォーマットの種類、ExcelやWord、PDFなどのオフィス系ソフトウェアの種類、OSの実行形式バイナリなどの種類を瞬時に判別してくれます。 下記はコマンドラインとしてMagikaを実行した例で、フォルダ内のファイルの種類を出力しています。 特別に最適化された1MBのモデルでを用いて推論を実行 Magikaはファイルの判別に、Kerasを用いて特別に最適化されたディープラーニングによる、わずか1MBのモデルを用いていると説明されています。 このモデルは推論エンジンのOnnx上で実行されています。実行速度はGPUを用いずCPU上で処理されたとしても数

      Google、AIでファイルの種類を高速正確に判別できる「Magika」をオープンソースで公開
    • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

      AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

        Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
      • Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で

        Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で FirefoxのJavaScriptエンジンでありWebAssemblyの実行エンジンでもある「SpiderMonkey」の開発チームは、WebAssemblyのコンパイル処理を従来よりも最大で75倍高速にする改善を行ったことを、ブログ「75x faster: optimizing the Ion compiler backend | SpiderMonkey JavaScript/WebAssembly Engine」で明らかにしました。 二段目のコンパイラがメモリを使いすぎている この性能改善のきっかけは、マイクロソフトがオープンソースで公開している機械学習ライブラリ「ONNX Runtime」のWebAssembly版をSpiderMonekyで実行した際に、最適化の

          Firefox、WebAssemblyのコンパイル処理が75倍速に。SpiderMonkeyのJITコンパイラ改善で
        • Llama 3.2 の使い方|npaka

          以下の記事が面白かったので、簡単にまとめました。 ・Llama can now see and run on your device - welcome Llama 3.2 1. Llama 3.2 Vision 11B・90B1-1. Llama 3.2 Vision 11B・90B「Llama 3.2 Vision 11B・90B」は、Metaがリリースした最も強力なオープンマルチモーダルモデルです。画像+テキストのプロンプトでは英語のみ、テキストのみのプロンプトでは英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語をサポートしています。 コンテキスト長は128kトークンで、画像を含む可能性のある複数ターンの会話が可能です。ただし、モデルは単一の画像に注目する場合に最適に機能するため、transformers実装では入力で提供された最後の画像のみに注

            Llama 3.2 の使い方|npaka
          • AIの急速な導入がWindowsの予定を変えた!? Windows 12がすぐには出ない可能性 (1/2)

            Windows 12は名前に過ぎないので 出るか出ないのかは、すべてMicrosoft次第 「Windows 11」というのはMicrosoftが提供するOSの名前である。Windows 95以来のWindowsは、ソフトウェアなのにバージョンではなく名前で区別されるようになった。 もちろんそれぞれのWindowsにもバージョン番号自体はある。現在のWindows 11には、Ver.23H2というバージョンがあって、次のバージョンは、Ver.24H2になる予定だ。しかし、これもWindows 11という名前の中で、それぞれを区別する名前の一部でしかない。 これらはあくまでも名前なので、技術的な観点ではなく、ビジネス的な観点から付けられる。Windows 10もWindows 11も、内部的には「10.0.xxxxx」というバージョン番号を持つ。この番号になったのは、Windows 10から

              AIの急速な導入がWindowsの予定を変えた!? Windows 12がすぐには出ない可能性 (1/2)
            • WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場

              WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場 ONNX Runtime WebがWebGPUに対応。Webブラウザ上でさらに高速な推論処理が可能になった。Stable Diffusion Turbo全体をWebブラウザ上で高速に実行可能で、RTX4090を用いた場合1秒以内で結果が出力される。 ONNX Runtime Webの基になっている「ONNX Runtime」はクロスプラットフォーム対応の推論エンジンです。TensorFlow、PyTorch、SciKit Learnなどをはじめとするさまざまな機械学習のモデルに対応し、これらで生成されたモデルによる推論処理をプラットフォームに依存せず実行するランタイムの役割を果たします

                WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場
              • PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載

                Modular社がAI処理を高速化するプラットフォーム「MAX」をプレビュー公開。PyTorchやTensorFlow、ONNXなどのAIモデルと入れ替えるだけで処理が最大5倍高速になる。 Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました。 MAX Developer Edition Preview has officially launched! It's a drop-in replacement for running and serving @PyTorch, @tensorflow and @onnxai models much faster and leverages the

                  PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載
                • 検索エンジンをVespaへ移行しています - Stanby Tech Blog

                  検索エンジンをVespaへ移行しています こんにちは、スタンバイで検索周りの開発を担当している鷹取です。 今回はスタンバイで利用している検索エンジンをVespaへ移行している話を紹介します。 検索エンジン移行の背景 Stanby Tech Blogのスタンバイ2+1年の軌跡の記事で説明されている通り、 スタンバイでは、主に求人検索機能を提供していますが、その中でもオーガニック(無料掲載)と広告(有料掲載)という2種類の検索が存在します。 この2種類の検索ではそれぞれで異なる検索エンジンを使用しています。 オーガニック検索: Yahoo! ABYSSという検索プラットフォーム 広告検索: Elasticsearch このようになっている背景については、前述の記事に詳細が記載されていますので、興味がある方はそちらをご参照ください。これまで、この2種類の検索エンジンを運用してきましたが、それぞれ

                    検索エンジンをVespaへ移行しています - Stanby Tech Blog
                  • 大手クラウドはクラウド専用チップで戦う時代へ。各社がクラウド基盤に専用SoC、サーバにArm、AI処理に独自プロセッサを相次いで採用

                    大手クラウドはクラウド専用チップで戦う時代へ。各社がクラウド基盤に専用SoC、サーバにArm、AI処理に独自プロセッサを相次いで採用 今から10年以上前にクラウドが登場した当時、その中味はインテルのプロセッサを搭載したサーバとその上で実行される仮想化ハイパーバイザを中心に構成されていました。 しかしその後、2017年にはAmazon Web Services(AWS)は、クラウド基盤に独自開発したSystem on a Chip(SoC)を載せたNitro Systemを2013年から採用していることを明らかにします。 同じ2017年、Googleも機械学習に最適化した専用プロセッサを利用したサービス「Cloud TPU」を発表するなど、大手クラウド事業者はその規模を活かしてクラウドに最適化したチップを開発し採用することで、他社との差別化を図ろうとしていることが明らかになってきました そし

                      大手クラウドはクラウド専用チップで戦う時代へ。各社がクラウド基盤に専用SoC、サーバにArm、AI処理に独自プロセッサを相次いで採用
                    • DeepLearning系の将棋AIがRyzenのiGPUで簡単に動いた(ふかうら王編) - シンギュラリティ実験ノート

                      DeepLearning系の将棋AIがRyzenのiGPUで簡単に動いた、の続報で今回はふかうら王についてである。ふかうら王はやねうらお氏によって作られたdlshogi互換エンジンである。 ふかうら王の導入手順 Windows版実行ファイルは下記のページから辿っていき、ふかうら王の実行ファイル詰め合わせYaneuraOu-v7.6.1+20220511b.master-deep-windows.zipをダウンロードする。 yaneuraou.yaneu.com ふかうら王の導入手順は下記のページを見てほしい。 ふかうら王のインストール手順 · yaneurao/YaneuraOu Wiki · GitHub 上記ページに説明があるが、実行ファイル詰め合わせには以下の種類のふかうら王が含まれている。私が導入したのはORT-CPUとORT-DMLである。 ORT-CPU onnxruntime

                        DeepLearning系の将棋AIがRyzenのiGPUで簡単に動いた(ふかうら王編) - シンギュラリティ実験ノート
                      • PCやスマホのAI性能を測定できる「Geekbench AI」が登場したので使ってみた

                        定番ベンチマークアプリ「Geekbench」を開発しているPrimate Labsによる、PCやスマートフォンのAI性能を測定できるベンチマークアプリ「Geekbench AI」が2024年8月15日(木)に登場しました。Geekbench AIを使えばCPUやGPUのAI性能を1つのアプリで測定可能とのことなので、実際にPCにインストールして使ってみました。 Geekbench AI 1.0 | Geekbench Blog https://www.geekbench.com/blog/2024/08/geekbench-ai/ Geekbench AIをインストールするには、まず以下のリンクをクリックしてダウンロードページにアクセスします。 Download Geekbench AI https://www.geekbench.com/ai/download/ Geekbench AI

                          PCやスマホのAI性能を測定できる「Geekbench AI」が登場したので使ってみた
                        • Onnx RuntimeをUnityで動かす - Asus4 onD

                          Onnx Runtimeをネイティブプラグインとして、Unity上で動かす実験とサンプルを公開しています。 github.com 開発の動機 4年前に、TensorFlow LiteをUnityで動かす実験を初めて、 はじめは全くの趣味で始めたものが、今では海外からいただく相談の半分以上が機械学習関連になっています。 四年前に始めた実験↓ asus4.hatenablog.com ところが、実際にシェアを見ると、研究関連ではPytorchのシェアが圧倒的。Unityの公式推論ライブラリBarracudaやTensorFlow Liteで動かすために一旦Onnxに変換するなどの事例なども増え始め、速度的にはTFLiteは非常に満足していますが、サクッとモデルを試してみたいという時に、変換するのが億劫になってきていました。公式ツールで変換しようにもOnnxやPytorchのNCHWからTFLi

                            Onnx RuntimeをUnityで動かす - Asus4 onD
                          • Intelの次世代CPU「Core Ultra」プロセッサが正式発表。新アーキテクチャでゲーム性能やAI処理がさらに速く

                            Intelの次世代CPU「Core Ultra」プロセッサが正式発表。新アーキテクチャでゲーム性能やAI処理がさらに速く ライター:米田 聡 2023年12月15日,Intelは,開発コードネーム「Meteor Lake」で知られるノートPC向け新型プロセッサ「Core Ultra」シリーズ計11製品を発表した。 Core Ultraは,Intelが「過去40年間で最大の変革」と主張していたプロセッサだ。世界各地から招いた報道関係者に,マレーシアのペナン地域にあるMeteor Lakeの製造(後工程)を担当する工場を公開したり,詳細な技術情報を公開するなど,アピールに力を入れてきたCore Ultraのラインナップや性能が,ようやく明らかとなったわけである。 関連記事 次世代のノートPC向けCPU「Meteor Lake」の詳細が明らかに。メインのCPUコアを使わずに動画を再生できる!?

                              Intelの次世代CPU「Core Ultra」プロセッサが正式発表。新アーキテクチャでゲーム性能やAI処理がさらに速く
                            • Unlock a new era of innovation with Windows Copilot Runtime and Copilot+ PCs

                              I am excited to be back at Build with the developer community this year. Over the last year, we have worked on reimagining  Windows PCs and yesterday, we introduced the world to a new category of Windows PCs called Copilot+ PCs. Copilot+ PCs are the fastest, most intelligent Windows PCs ever with AI infused at every layer, starting with the world’s most powerful PC Neural Processing Units (NPUs) c

                                Unlock a new era of innovation with Windows Copilot Runtime and Copilot+ PCs
                              • Announcing the AI Toolkit for Visual Studio Code

                                We are excited to introduce the AI Toolkit for Visual Studio Code, a powerful VS Code extension available today in the Visual Studio Marketplace. AI Toolkit enables developers to explore, try, fine-tune, and integrate state-of-the-art models from Azure AI Studio and HuggingFace into applications. The AI Toolkit is an evolution of the Windows AI Studio extension that was released in November 2023.

                                  Announcing the AI Toolkit for Visual Studio Code
                                • AMD ROCmを使うことで何ができるのか - シンギュラリティ実験ノート

                                  MINISFORUM UM790 Proを注文した後、AMDもROCmというソフト(NVIDIAのCUDAに該当するもの)を提供していることを知った。このAMD ROCmを使うことで、UM790 Proで動作が期待できるAI関連ソフトについて書きたい。 ROCmでMNIST ROCmについて正確に知りたい方は本家のページを見ていただきたい。 www.amd.com ROCmを使ってAMDのGPUでMNIST(文字(数字)認識の機械学習サンプルプログラム)を動作させた報告を幾つか見つけた。まず下記サイトではノートPCのRyzenのAPU(CPU+iGPU)で無理やりであるがMNISTを動かした様子。 blog.ingage.jp こちらはAMDのGPUとして何を使ったかはわからないが、やはりMNISTを動作させている。 qiita.com 基本的にはこちらに書いてある通りにやれと書かれている

                                  • 75x faster: optimizing the Ion compiler backend

                                    In September, machine learning engineers at Mozilla filed a bug report indicating that Firefox was consuming excessive memory and CPU resources while running Microsoft’s ONNX Runtime (a machine learning library) compiled to WebAssembly. This post describes how we addressed this and some of our longer-term plans for improving WebAssembly performance in the future. The problem SpiderMonkey has two c

                                      75x faster: optimizing the Ion compiler backend
                                    • Magika: AI powered fast and efficient file type identification

                                      The latest news from Google on open source releases, major projects, events, and student outreach programs. Today we are open-sourcing Magika, Google’s AI-powered file-type identification system, to help others accurately detect binary and textual file types. Under the hood, Magika employs a custom, highly optimized deep-learning model, enabling precise file identification within milliseconds, eve

                                        Magika: AI powered fast and efficient file type identification
                                      • MicrosoftがAMDのAIチップ「MI300X」を用いた高コスパのAI開発用クラウドサービスを提供開始

                                        AIの学習や推論に用いるAIインフラストラクチャーの市場ではNVIDIA製のAI特化チップが大きなシェアを占めています。そんな中、MicrosoftがAMD製のAI特化チップ「MI300X」を用いたAIインフラストラクチャー「ND MI300X v5」をAzureで提供開始することを発表しました。 Introducing the new Azure AI infrastructure VM series ND MI300X v5 - Microsoft Community Hub https://techcommunity.microsoft.com/t5/azure-high-performance-computing/introducing-the-new-azure-ai-infrastructure-vm-series-nd-mi300x/ba-p/4145152 AMD Inst

                                          MicrosoftがAMDのAIチップ「MI300X」を用いた高コスパのAI開発用クラウドサービスを提供開始
                                        • NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ

                                          機械学習エンジニアの吉田です。今回は機械学習モデルの推論サーバとして NVIDIA Triton Inference Server の性能を検証した話です。 (追記) 続編も書きました tech.layerx.co.jp 背景 バクラクでは請求書OCRをはじめとした機械学習モデルを開発していますが、これらの機械学習モデルは基本的にリアルタイムで推論結果を返す必要があります。 請求書OCRを例にとると、お客様が請求書をアップロードした際にその内容を解析し、請求書の金額や日付などを抽出します。 このような推論用のAPIサーバはNginx, Gunicorn/Uvicorn, FastAPIで実装し、PyTorchモデルをGPUで推論する構成となっており、SageMaker Endpointを使ってサービングしています。 バクラクの推論APIはこのような構成でリリース以降特に問題なく稼働してきて

                                            NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ
                                          • AIモデルの実行を通してウイルスに感染する可能性をセキュリティ企業が警告

                                            セキュリティ企業のJFrogが、機械学習モデルの配布に使用されているAI開発プラットフォーム「Hugging Face」でホストされているモデルを調査した結果を公表しました。 Examining Malicious Hugging Face ML Models with Silent Backdoor https://jfrog.com/blog/data-scientists-targeted-by-malicious-hugging-face-ml-models-with-silent-backdoor/ 他のテクノロジーと同様に、AIモデルについても適切に扱わなければセキュリティ上のリスクが発生します。AIモデルの配布時に使用されるファイル形式のうち、一部の形式のものはファイルのロード時にコードの実行が行われるため、悪意のある攻撃者が任意のコードを実行できてしまいます。 JFrogが

                                              AIモデルの実行を通してウイルスに感染する可能性をセキュリティ企業が警告
                                            • WebGLからWebGPUにステップアップしよう! - Qiita

                                              はじめに この記事はHIKKYアドベントカレンダー2023の10日目の記事です。 こんにちは、 @emadurandal と申します。HIKKYのエンジン開発部でメタバースエンジンの開発に従事しています。 今回は、WebGLからWebGPUへのステップアップについての記事を書いてみようと思います。 なぜWebGPUが登場したのか WebGLはOpenGL ESのAPI体系をブラウザに移植したものです。 そのOpenGLですが、歴史的経緯により、GPUやCPUの性能を完全に引き出しきれないレガシーな部分を引きずっていました。 詳しくはこちらの記事をご覧ください。 そのため、WebGL2の次はWebGL3というわけにはいかなかったようです。 よりGPUの性能を引き出せる、よりモダンなAPI体系が必要でした。ネイティブにはVulkan APIがありますが、それをそのままブラウザに持ってくるには、

                                                WebGLからWebGPUにステップアップしよう! - Qiita
                                              • Add AGPL-3.0 License (#3) · ultralytics/onnx2tf@1987dc1

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  Add AGPL-3.0 License (#3) · ultralytics/onnx2tf@1987dc1
                                                • Google Colab で Phi-3 を試す|npaka

                                                  「Google Colab」で「Phi-3」を試したので、まとめました。 1. Phi-3「Phi-3」は、Microsoftが開発したSLM (Small Language Model)です。さまざまな言語、推論、コーディング、数学のベンチマークにわたって、同じサイズのモデルや次のサイズのモデルよりも優れたパフォーマンスを発揮します。 パラメータ数と学習トークン数は、次のとおりです。 ・Phi-3-mini (3.8B、3兆3000億) ・Phi-3-small (7B、4兆8000億) ・Phi-3-medium (14B、4兆8000億) 2. Phi-3 のモデル「Phi-3」では現在、次の4種類のモデルが提供されています。 ・microsoft/Phi-3-mini-4k-instruct ・microsoft/Phi-3-mini-4k-instruct-onnx ・micro

                                                    Google Colab で Phi-3 を試す|npaka
                                                  • Pythonの機械学習ライブラリ「PyTorch」に脆弱性 研究者が発見

                                                    人気ライブラリPyTorchに見つかったサプライチェーン攻撃の詳細 PyTorchは、MetaのAI(人工知能)リサーチグループによって開発されたライブラリで、GPUをサポートしたテンソル演算や深層学習トレーニング、Open Neural Network Exchange(ONNX)へのエクスポート機能、自動微分機能、自動ベクトル化などの特徴を備える。多くの深層学習ソフトウェアがPyTorchをベースに構築されており、さまざまな企業やプロジェクトによって使われている。 スタウィンスキー氏によると、PyTorchの「継続的インテグレーション/継続的デリバリー」(CI/CD)プロセス内の脆弱性と「GitHub」のデプロイシステム「セルフホステッドランナー」を悪用することで、PyTorchリポジトリに対する広範なアクセス権を獲得し、悪意あるコードのアップロードやリポジトリの秘密情報の窃取が可能に

                                                      Pythonの機械学習ライブラリ「PyTorch」に脆弱性 研究者が発見
                                                    • 日本語LLMの推論速度検証|株式会社レトリバ

                                                      はじめにこんにちは。横浜国立大学大学院 理工学府 修士2年の藤井巧朗と申します。8月24日から9月29日の5週間、株式会社レトリバにインターンとして参加させていただきました。インターンでは日本語LLMの推論速度に関する検証を行いました。本記事では、インターンでの成果の一部を紹介します。 想定する読者: 自然言語処理に興味がある方 自然言語処理を扱う会社のインターンに興味のある方 LLMの推論速度に関心のある方 時間がない方向けまとめ: 推論速度に関して、特に大規模なモデルではCPUよりもGPUの方が圧倒的に速い GPUで高速化したい場合vLLMかFasterTransformerを使うべき(モデルの大きさによる) 特にバッチ処理をする場合はvLLMを使うべき 本検証では量子化によるスループット向上は見られなかった 0. インターン参加の経緯私はもともと研究スキルやエンジニアリング力を高めた

                                                        日本語LLMの推論速度検証|株式会社レトリバ
                                                      • 「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に

                                                        Microsoftは2024年2月29日(米国時間)、オープンソースでクロスプラットフォームの機械学習(ML)モデルアクセラレータ「ONNX Runtime」の「ONNX Runtime Web」機能において、WebGPUを用いてWebブラウザ内でのMLを高速化できるようになったと発表した。 ONNX Runtimeは、さまざまなハードウェア、ドライバ、OSと互換性があり、グラフの最適化や変換に加え、ハードウェアアクセラレータを適宜活用したパフォーマンスを提供する。PyTorch、TensorFlow/Keras、TensorFlow Lite、scikit-learnなどのフレームワークのモデルで使用できる。 ONNX Runtime Webは、JavaScript APIとライブラリを使用して、WebアプリケーションでMLモデルを実行、デプロイ(展開)できる。 関連記事 「Chrome

                                                          「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に
                                                        • Zen 5 CCDとX870とRyzen AI、AMDのCOMPUTEX講演にいくつかの補足情報

                                                          事前資料によるレポートと基調講演のUpdateがすでに掲載されているが、いくつか判らない事に関してAMDのDavid McAfee氏(Photo01)とJack Ni氏(Photo02)にお話しを伺う機会に恵まれたので、ちょっと補足情報をお届けしたい。ちなみにZen 5ベースのRyzen 9000シリーズとかRyzen AI 300シリーズに関しては、7月の発売に先立ってTech Dayが開催され、そこで細かい情報が開示されるという事だそうで、現時点では例えばZen 5コアの内部構造の詳細といった話はまだ開示されていない。 Photo01: おなじみDavid McAfee氏(CVP&GM, Ryzen channel business)。 Photo02: Jack Ni氏(Sr. Director, AI Product Management, Making AI pervasive

                                                            Zen 5 CCDとX870とRyzen AI、AMDのCOMPUTEX講演にいくつかの補足情報
                                                          • フィッシング×QRコードが融合した“クイッシング”は何が危ないのか?

                                                            Sophosは2024年10月16日(現地時間)、新たなフィッシング攻撃手法「クイッシング」について警告した。クイッシングはフィッシングとQRコードを組み合わせて標的から認証情報を窃取する攻撃手法とされている。 Sophosの調査によると、2024年6月に同社の従業員がターゲットとなり、数名がクイッシング攻撃の被害を受けたことが確認されている。正規の電子メールのように見せかけたスピアフィッシングメールが送信されており、添付ファイルのPDF内にQRコードが埋め込まれていたことが判明している。このQRコードをスキャンすると偽の「Microsoft 365」ログインページに誘導され、認証情報が盗まれる仕組みとなっていた。 QRコードを使ったフィッシングは何が危ないのか? QRコードを利用するクイッシングには従来のフィッシング防御策を回避できるという大きな特徴がある。QRコードは主にスマートフォン

                                                              フィッシング×QRコードが融合した“クイッシング”は何が危ないのか?
                                                            • ASRock、Radeon向けに「生成AI」環境を一括インストールするツール公開 - 動作要件は?

                                                              ASRockが「AI QuickSet」なるツールを公開し、生成AI環境を一括導入できるよう支援しているようだ。特設ページ(外部リンク)もすでに公開されており、ツールそのものもダウンロードして利用できるようになっている。 ASRock、Radeon向けに「生成AI」環境を一括インストールするツール公開 - 動作要件は? ASRockはAMD Radeonシリーズを搭載したグラフィックスカードを販売しており、同製品のパワーを生成AI機能に生かしたいと考えているのかもしれない。ツールをインストールするとDirectML仕様の「Shark」と、Stable Diffusion web UI、Stable Diffusion web UI ONNXを一発でインストールできるというもので、pythonを手でインストールする必要がなくなっている。 動作要件はCPU含めかなり最新モデルに限られているうえ

                                                                ASRock、Radeon向けに「生成AI」環境を一括インストールするツール公開 - 動作要件は?
                                                              • 【感想】『Azure OpenAI ServiceではじめるChatGPT/LLMシステム構築入門』を読みました

                                                                2024年1月24日発売の『Azure OpenAI ServiceではじめるChatGPT/LLMシステム構築入門』を献本いただいて読みました。こちらの記事に感想などをまとめます。 書籍の概要 タイトル通り、Azure OpenAI Service(AOAI)を使い、LLMを組み込んだシステムを構築することを解説した書籍です。 生成AI(とくにChatGPT)の基本的な話から始まり、Azure OpenAI Serviceの基本、「RAG」という手法の丁寧な解説、Copilot stackなどのより発展的な話といった内容になっています。 Azure OpenAI Serviceは、LLMを組み込んだシステムを作る上で定番の選択肢です。Azure OpenAI Serviceにこれからふれるという方はもちろん、かなり実践的な内容まで書かれているので、すでにAzure OpenAI Serv

                                                                  【感想】『Azure OpenAI ServiceではじめるChatGPT/LLMシステム構築入門』を読みました
                                                                • C# と ONNX Runtime Generative AI (DirectML) を使って Phi-3 をローカルで動かす - しばやん雑記

                                                                  Build 2024 では Windows などローカルのリソースを使って Generative AI を動かすという話が非常に多かったように、Keynote でも度々取り上げられた Phi-3 についても AWQ で 4-bit 量子化された DirectML で利用可能な ONNX モデルが公開されています。 セッションでも話がありましたが、Microsoft としては DirectML を使っておけば GPU / NPU の両方に対応できるようにするようなので、今後はローカルでの AI 利用は DirectML が主導権を握る可能性がありそうです。 現状 Hugging Face で公開されている DirectML に対応した Phi-3 の ONNX モデルは以下の 4 種類です。Phi-3 mini と Phi-3 medium の両方が利用可能になっていますが、残念ながら現時点

                                                                    C# と ONNX Runtime Generative AI (DirectML) を使って Phi-3 をローカルで動かす - しばやん雑記
                                                                  • HuggingFaceTB/SmolLM-360M-Instruct at main

                                                                    1723998831 +0000\ncommitter system 1723998831 +0000\n\nUpdate README.md"}}},"entries":[{"type":"directory","oid":"8fcd9e92f5995cddc77bcee675bfe8488e08fbb4","size":0,"path":"onnx","lastCommit":{"id":"6a860077d20f3822d62060cd772610e21ccc6322","title":"v0.2","date":"2024-08-17T22:29:49.000Z"}},{"type":"file","oid":"a6344aac8c09253b3b630fb776ae94478aa0275b","size":1519,"path":".gitattributes","lastCom

                                                                      HuggingFaceTB/SmolLM-360M-Instruct at main
                                                                    • Transformers.js v3 の概要|npaka

                                                                      以下の記事が面白かったので、簡単にまとめました。 ・Transformers.js v3: WebGPU Support, New Models & Tasks, and More… 1. Transformers.js v3「Transformers.js v3」は、HuggingFaceが開発した機械学習ライブラリ「Transformers」のJavaScript版の最新版です。 主な特徴は以下の通りです。 ・WebGPUサポート : 従来のWASMと比べて最大100倍高速 ・新しい量子化フォーマット(dtype) : より効率的なモデル実行が可能に ・対応アーキテクチャの拡大 : 120のアーキテクチャをサポート ・事前学習済みモデルの追加 : 120以上のモデルが利用可能 ・マルチプラットフォーム対応 : Node.js、Deno、Bunで動作 2. インストール(1) パッケージ

                                                                        Transformers.js v3 の概要|npaka
                                                                      • VOICEVOX COREをRaspberryPiにインストールしてCLIで便利に音声合成を行おう - uepon日々の備忘録

                                                                        前回のエントリではVOICEVOXをPCにインストールされたUbuntuへインストールしたという内容でしたが、今回はRaspberryPiにVOICEVOXをインストールするという内容です。ただ、RaspberryPiの運用ではモニタのないヘッドレス環境での使用の可能性もあるため、この設定ではVOICEVOXを構成する要素の1つであるVOICEVOX COREを導入し、CLIでの運用を行ってみたいと思います。 ネットで検索してもうまくいかないという話はあるのですが、成功例はなかなかないようです。自分も数日悩みましたがようやく解決できました。 【参考】 uepon.hatenadiary.com VOICEVOXの構成要素 VOICEVOXは3つのモジュール「エディター」、「エンジン」、「コア」で構成されています。VOICEVOXソフトウェアはこの3つから構成され、エディターはエンジンの機能

                                                                          VOICEVOX COREをRaspberryPiにインストールしてCLIで便利に音声合成を行おう - uepon日々の備忘録
                                                                        • OpenVINOで各フレームワーク(ONNX、TensorFlow、TFLite、PaddlePaddle)の重みを読み込んで推論

                                                                          ただし、PyTorchさん、あなたはダメです。直接読み込めません👻 今回のサンプルは、Google Colaboratory上でお試しします。 いつの間にか、Colaboratory上でのOpenVINOインストール・実行も簡単になってて、助かります。 個人的には、PaddlePaddleの重みを直接読み込めるのが良い感じです。 ノートブックは以下のリポジトリで公開しています。 試してみたい方は「Open in Colab」からノートブックを開いて、上から順に実行していってください。 以降は処理の簡単な説明です。 パッケージインストール OpenVINOのインストールです。 今回のサンプルを動かすだけであれば、pipインストール1行で済みます。

                                                                            OpenVINOで各フレームワーク(ONNX、TensorFlow、TFLite、PaddlePaddle)の重みを読み込んで推論
                                                                          • お手軽な検索API構築 その2 ~マルチコア・ベクトル・分散検索 | メルカリエンジニアリング

                                                                            こんにちは。株式会社メルペイのSolutionsチームのデータエンジニアの@orfeonです。 この記事は、Merpay Advent Calendar 2023 の22日目の記事です。 Solutionsチームは、社内向けの技術コンサルや技術研修、部門を跨いだ共通の問題を発見して解決するソリューションの提供などを行っています。 私は主に社内のデータ周りの課題を解決するソリューションを提供しており、一部の成果はOSSとして公開しています。 過去の記事では全文検索OSSであるApache SolrをCloud Run上で利用して手軽に検索APIを構築する構成を紹介しました。 社内向けのソリューションの一つとして社内向けの検索APIを使ったサービスなど小規模な検索システムの構成に役立てています。 前回の記事の時点では、検索対象として搭載できるデータサイズなどにいくつかの制約がありました。 今回

                                                                              お手軽な検索API構築 その2 ~マルチコア・ベクトル・分散検索 | メルカリエンジニアリング
                                                                            • Mastering All YOLO Models from YOLOv1 to YOLO-NAS: Papers Explained (2024)

                                                                              What is YOLO? You Only Look Once (YOLO): Unified, Real-Time Object Detection is a single-stage object detection model published at CVPR 2016, by Joseph Redmon, famous for having low latency and high accuracy. The entire YOLO series of models is a collection of pioneering concepts that have shaped today’s object detection methods. YOLO Models have emerged as an industry de facto, achieving high det

                                                                                Mastering All YOLO Models from YOLOv1 to YOLO-NAS: Papers Explained (2024)
                                                                              • 【Stable Diffusion】「LoRA」自作をとりあえずできるようになる【Kohya’s GUI】|カズヤ弟@ゲーム実況&生成AI

                                                                                ■記事の対象ユーザ 1.Stable Diffusion WebUIをローカルに構築して、イラスト生成しはじめた 2.LoRAが何かは知ってたり使ってたりするが、LoRAの作り方は知らない この記事を書くまでの■ようするに? ・学習用画像をあつめて加工する ・学習させるためのパラメータを設定をする ・学習させる → LoRAが出来る 適用するとそれっぽくなる 学習に使うツールの準備好きなやり方で先人の残した石碑によると幾つか方法があるらしい 俺は「Kohya’s GUI」とやらを使うぞJ〇J〇ォォォ! git clone https://github.com/bmaltais/kohya_ss黒い画面でセットアップ### kohya_ssをcloneして出来たフォルダの中でプロンプトを立ち上げて .\setup.bat実行すると何かメニューが出てくる 聞かれたら1と答えるんだよ Kohya

                                                                                  【Stable Diffusion】「LoRA」自作をとりあえずできるようになる【Kohya’s GUI】|カズヤ弟@ゲーム実況&生成AI
                                                                                • Rustでリバーブを実装する

                                                                                  Parakeet株式会社でResearcherをしている金子(nadare)です。CPUで動く軽量AIボイスチェンジャーParavoにおいて、リバーブやイコライザといったエフェクターをかける機能をRustで実装しました。本記事ではRustで実装した理由や用いたライブラリについて説明します。 リバーブについて リバーブは音に残響音や反射音を加える空間的エフェクトで、通常の音をホールで演奏した音や狭い空間で鳴らした音のように加工します。リバーブの実装にはハードウェア・ソフトウェア等様々な手法がありますが、今回は畳み込み演算を用いたリバーブの実装を行いました。 畳み込み演算で実装するリバーブには、Room Impulse Response(RIR)という音の信号を用います。これは再現したい空間で拍手をしたときに得られるような音で、様々な環境で収録したRIRを集めたデータセットや、pyroomac

                                                                                    Rustでリバーブを実装する