並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 15 件 / 15件

新着順 人気順

onnxの検索結果1 - 15 件 / 15件

  • Llama 3.2 の使い方|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・Llama can now see and run on your device - welcome Llama 3.2 1. Llama 3.2 Vision 11B・90B1-1. Llama 3.2 Vision 11B・90B「Llama 3.2 Vision 11B・90B」は、Metaがリリースした最も強力なオープンマルチモーダルモデルです。画像+テキストのプロンプトでは英語のみ、テキストのみのプロンプトでは英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語をサポートしています。 コンテキスト長は128kトークンで、画像を含む可能性のある複数ターンの会話が可能です。ただし、モデルは単一の画像に注目する場合に最適に機能するため、transformers実装では入力で提供された最後の画像のみに注

      Llama 3.2 の使い方|npaka
    • HuggingFaceTB/SmolLM-360M-Instruct at main

      1723998831 +0000\ncommitter system 1723998831 +0000\n\nUpdate README.md"}}},"entries":[{"type":"directory","oid":"8fcd9e92f5995cddc77bcee675bfe8488e08fbb4","size":0,"path":"onnx","lastCommit":{"id":"6a860077d20f3822d62060cd772610e21ccc6322","title":"v0.2","date":"2024-08-17T22:29:49.000Z"}},{"type":"file","oid":"a6344aac8c09253b3b630fb776ae94478aa0275b","size":1519,"path":".gitattributes","lastCom

        HuggingFaceTB/SmolLM-360M-Instruct at main
      • Microsoft.Extensions.AI のプレビューが公開されたので試した - しばやん雑記

        昨夜 C# 向けの新しい拡張ライブラリとして Microsoft Extensions.AI のプレビューが公開されました。突然出てきた感が凄いですが、個人的には Microsoft.Extensions 名前空間に用意されたライブラリは有用なものが多いので気に入っています。 今回は AI 向けなのでどのレベルをサポートしているのか気になる部分ですが、各種 AI サービスの SDK と Semantic Kernel のようなフレームワークの間を埋めるような抽象化されたライブラリでした。 サンプルでも書かれているように開発中は Ollama を使うけども、本番では Azure AI Inference を使うといった処理が簡単に実現できます。各種 SDK の作法を知らなくてもアプリケーションに組み込めるのは良いですね。必要に応じてキャッシュなども組み込みやすそうな気配です。 正直なところ公

          Microsoft.Extensions.AI のプレビューが公開されたので試した - しばやん雑記
        • 75x faster: optimizing the Ion compiler backend

          In September, machine learning engineers at Mozilla filed a bug report indicating that Firefox was consuming excessive memory and CPU resources while running Microsoft’s ONNX Runtime (a machine learning library) compiled to WebAssembly. This post describes how we addressed this and some of our longer-term plans for improving WebAssembly performance in the future. The problem SpiderMonkey has two c

            75x faster: optimizing the Ion compiler backend
          • 200ドルAIパソコンを作る方法|Ubuntu編|Tak

            「200ドルでAIパソコンを作る」のUbuntu編をまとめてみた。目次のお作法などもよくわかっていないのであとでだいぶ手を加えると思うが、ひとまず公開。 ターゲットはAMD APU搭載パソコン。安価なノートパソコンやミニPCで採用されるケースが多かったRyzen 5 5625UなどのAMD APUを搭載したパソコンは、メルカリで16GBメモリと512GB SSDの構成で3万円以下、つまり200ドルで手に入る。 この記事は、そんな200ドルパソコンのGPUで画像生成AI、それもハイスペしか眼中にないStable Diffusion XL(以下、SDXL)を動かしてAIパソコンを名乗ろう、という企画のUbuntu編である。 といっても、この記事はたったひとつのGitHubを紹介するだけで終わってしまう。Windows編もたったひとつのアプリ「Amuse」の紹介で終わっていたので、両者に格差をつ

              200ドルAIパソコンを作る方法|Ubuntu編|Tak
            • 「Maker Faire Tokyo 2024」参加レポート - karaage. [からあげ]

              画像はMaker Faire Tokyo 2024公式サイトから引用 「Maker Faire Tokyo 2024」に行きました メイカーの祭典、Maker Faire Tokyo 2024に行きました。今回は、Maker Faire Tokyo 2024のスポンサーであるSeeedさんブースの個人的お手伝いです。というわけで、スポンサーのパスをいただきました。 Maker Faire 2024に潜入しました!(正規ルートです!)変なネコTシャツ着て、名札ぶら下げてブラブラしてます! #MFTokyo2024 pic.twitter.com/tz4koLfmZk— からあげ (@karaage0703) 2024年9月21日 ブースのお手伝い以外のときは、色々展示を見て回っていたので、みた展示を紹介します。 といっても、かなりの量なのでツイートの引用のみです(1部だけ一言コメント)。手抜

                「Maker Faire Tokyo 2024」参加レポート - karaage. [からあげ]
              • Stable Diffusionベンチで35種のグラボを性能比較。生成速度やコスパからオススメGPUを徹底解説 : 自作とゲームと趣味の日々

                2024年05月19日12:00 (注:商品価格は執筆当時のものです。販売ページリンクにはアフィリエイトを含みます) Stable Diffusionベンチで35種のグラボを性能比較。生成速度やコスパからオススメGPUを徹底解説 wisteriear コメント(0) タグ :#おすすめグラボ#StableDiffusion#スポンサード_レビュー#NVIDIA_GeForce_RTX_40_レビュー##GeForce_RTX_4060_Ti_レビュー#GeForce_RTX_4070_レビュー#GeForce_RTX_4080_レビュー#GeForce_RTX_4090_レビュー スポンサードリンク 3DMarkやPCMark 10で有名なUL Solutionsのプロフェッショナルユーザー向けベンチマーク「UL Procyon」に新機能として、AI画像生成ソフト Stable Diffu

                  Stable Diffusionベンチで35種のグラボを性能比較。生成速度やコスパからオススメGPUを徹底解説 : 自作とゲームと趣味の日々
                • ONNXRuntime-Webを使ってブラウザ拡張でニューラルモデルをローカル推論しよう - Qiita

                  使えない演算があるとは,例えばwebglではRNNやLSTM, ArgMaxなどが使えません.webgpuは演算自体は基本的に全て使用可能ですが,Attentionのmaskなど一部未実装の機能があるようです.詳しくは公式GitHubレポのGPUサポート状況を参照してください. なお,Linux版Chromeでもブラウザ側で設定すればwebgpuは利用可能で,FireFoxも設定すれば全OSで利用可能です (参考: https://caniuse.com/webgpu ).この設定のハードルが一般利用ではかなり高いのですが. また,WebAssembly自体のメモリ4GB制限のために現在のところどのバックエンドであってもLLMのような巨大モデルは利用できません.この点に関しては64bitサポートを待ちましょう (参考: GitHub Issue 1,GitHub Issue 2). ser

                    ONNXRuntime-Webを使ってブラウザ拡張でニューラルモデルをローカル推論しよう - Qiita
                  • Transformers.js によるブラウザ上で動く「日→英」音声翻訳の実装|kawamou

                    Transformers.js の検証がてらローカルのブラウザで完結する音声翻訳を実装した。下記は実行結果であり、動画上マイク音声が入っていないが「日本語音声入力 → テキスト化 → 翻訳 → 英語音声出力」ができている ↓ Python の Transformers ライブラリと同等の機能を持ち、ブラウザ上で機械学習モデルを実行できる JavaScript ライブラリである。 精力的なアップデートは v3 アップデートに向けた PR を見ると分かりやすい。v3 に向け例えば WebGPU 対応も着々と進行している。 closes: WebGPU Support実装編概要今回の音声翻訳は: ① STT (Speech to Text) - Xenova/whisper-small ② Translation (日テキスト → 英テキスト) - Xenova/opus-mt-ja-en ③

                      Transformers.js によるブラウザ上で動く「日→英」音声翻訳の実装|kawamou
                    • AIモデル開発支援ツール新版「dotData Ops 1.4」、SQLデータ処理とPython学習モデルに対応 | IT Leaders

                      IT Leaders トップ > テクノロジー一覧 > AI > 新製品・サービス > AIモデル開発支援ツール新版「dotData Ops 1.4」、SQLデータ処理とPython学習モデルに対応 AI AI記事一覧へ [新製品・サービス] AIモデル開発支援ツール新版「dotData Ops 1.4」、SQLデータ処理とPython学習モデルに対応 2024年9月19日(木)IT Leaders編集部 リスト 米dotDataは2024年9月18日、AIモデル開発支援プラットフォームの新版「dotData Ops 1.4」を発表した。学習用データの前処理、特徴量の自動発見・抽出、予測スコアの算出といったAIモデルの開発・運用パイプラインに必要な機能群を提供する。新版では、データエンジニアやデータサイエンティスト向けのPython連携機能を強化。SQLでのデータ加工や特徴量抽出、Pyth

                        AIモデル開発支援ツール新版「dotData Ops 1.4」、SQLデータ処理とPython学習モデルに対応 | IT Leaders
                      • データサイエンスと機械学習(第28回):AIを使ってEURUSDの複数の先物を予測する

                        この記事では、EURUSDの1時間足時間枠から取得した1000バーのデータを使用します。 Pythonコード df = pd.read_csv("/kaggle/input/eurusd-period-h1/EURUSD.PERIOD_H1.csv") print(df.shape) df.head(10) 出力 簡単にするために、5つの変数だけのミニデータセットを作成しました。 「シグナル」列は、強気または弱気のローソク足のシグナルを表し、終値が始値より大きい場合はシグナルに1が割り当てられ、反対の場合は0が割り当てられるというロジックで作成されています。 多段階データを作成する関数ができたので、各段階を処理するモデルを宣言しましょう。 予測のための複数モデルの訓練 各タイムステップのモデルを手作業でハードコーディングするのは時間がかかり、効果的ではありません。ループ内でのコーディングが

                          データサイエンスと機械学習(第28回):AIを使ってEURUSDの複数の先物を予測する
                        • 高性能GPUがついていればCopilot+PCになってもいいのでは?

                          今年の年末商戦では、Snapdragon X Elite、Ryzen AI 300シリーズ、Core Ultra 200Vシリーズなど、Microsoftの提唱するCopilot+PCを満たす商品が全面的にプッシュされそうです。 しかしこのCopilot+PCには様々な疑問が付きまといます。前回のAI解説記事でもお話しした通り、現在NPUで実行できるアプリはほとんどないのにCopilot+PCという名前だけが先走りしている感があります。AIと言えばGPUで、NVIDIAが大変人気で実用例も多いという話は聞いたことがあると思います。GPUを積んでいてもCopilot+PCになれないのは不可思議な話です。また昨年からIntel、AMDとも”AI PC”として10 TOPS程度のNPUを搭載した製品を発売してきましたが、それらはCopilot+PCにはならないようです。今回はこういった疑問につい

                            高性能GPUがついていればCopilot+PCになってもいいのでは?
                          • MQL5とPythonで自己最適化エキスパートアドバイザーを構築する(第2回):ディープニューラルネットワークのチューニング

                            MQL5とPythonで自己最適化エキスパートアドバイザーを構築する(第2回):ディープニューラルネットワークのチューニング はじめに私たちのコミュニティのメンバーは、AIを取引戦略に取り入れることに強い関心を持っています。しかし、そのためには、特定の市場に合わせてAIモデルを適切にチューニングする必要があります。AIモデルには、パフォーマンスに大きく影響を与える調整可能なパラメータがいくつか存在し、ある市場に最適な設定が、別の市場ではうまく機能しない場合もあります。この記事では、最適化アルゴリズム、特にNelder-Meadアルゴリズムを使用して、AIモデルをカスタマイズし、デフォルト設定以上のパフォーマンスを引き出す方法を解説します。また、このアルゴリズムを活用して、MetaTrader 5端末からのデータを基にディープニューラルネットワークを微調整し、エキスパートアドバイザー(EA)

                              MQL5とPythonで自己最適化エキスパートアドバイザーを構築する(第2回):ディープニューラルネットワークのチューニング
                            • SD WebUI Forge再始動 How to install Stable Diffsion WebUI reForge with CuDNN 9.x|GJL

                              SD WebUI Forge再始動 How to install Stable Diffsion WebUI reForge with CuDNN 9.x Stable Diffusion WebUI reForgeの登場相対的に、A1111よりも低スペックPCで動作し、かつ高速に動作することで日本でも愛用者の多かった、かの「天才」lllyasviel氏によるStable Diffusion WebUI Forgeですが、先だって氏から発表があったように、以降は現在の拡張機能とほぼ互換性を失うであろうgradio 4.x上での開発に移行するとの事で、gradio 3.41.2で動作するForgeの開発は事実上停止していました。 しかし先日、引継ぎの経緯等の詳細は不明ながら、gradio 3.41.2環境でのForge開発プロジェクトの後継として、Stable Diffusion WebUI

                                SD WebUI Forge再始動 How to install Stable Diffsion WebUI reForge with CuDNN 9.x|GJL
                              • Anthropic、AI開発/実装プロセスを短縮する取り組みを加速 現在の課題と新たな取り組みへの期待 | AMP[アンプ] - ビジネスインスピレーションメディア

                                生成AIアプリケーション開発の現状 企業における生成AIアプリケーションの開発/導入には、多くのステップが必要で、費用や時間がかかりすぎることが大きな課題として浮上している。たとえば、カスタマーサポート向けのチャットボット(生成AIアプリケーション)を開発/導入する場合でも、複雑なプロセスが求められる。 この生成AIアプリの開発/導入プロセスは以下のように進行する。まず、モデル選定とトレーニングから始まる。これは、アプリの基礎となる言語モデルを選び、企業の特定のニーズに合わせて調整する過程だ。ここでは、Hugging FaceというAIプラットフォームからメタのオープンソースモデルであるLlamaベースのモデルを選択し、過去のカスタマーサポートログやFAQ(質問・回答)をデータセットとして収集。その後、PyTorchという機械学習フレームワークを使用して、特定のサポートシナリオに合わせてモ

                                  Anthropic、AI開発/実装プロセスを短縮する取り組みを加速 現在の課題と新たな取り組みへの期待 | AMP[アンプ] - ビジネスインスピレーションメディア
                                1