並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 108件

新着順 人気順

inferenceの検索結果1 - 40 件 / 108件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

inferenceに関するエントリは108件あります。 機械学習AIgithub などが関連タグです。 人気エントリには 『Control as Inference (強化学習とベイズ統計)』などがあります。
  • Control as Inference (強化学習とベイズ統計)

    東京大学松尾研究室 強化学習サマースクール2020 第5回 https://deeplearning.jp/reinforcement_cource-2020s/Read less

      Control as Inference (強化学習とベイズ統計)
    • AWSサービスのServerlessオプションの特徴・比較・まとめ・プロビジョニングとの違い -Aurora、Neptune、EMR、Redshift、MSK、SageMaker Inference、OpenSearch Service- - NRIネットコムBlog

      小西秀和です。 今回は「AWSサービスのServerlessオプション、オンデマンドモードの特徴・比較・まとめ・プロビジョニングとの違い」の記事の一部としてAWSサービスの一部でクラスターやインスタンスのプロビジョニングに対して用意されているServerlessオプションについて、主なAWSサービスごとに特徴、設定項目、料金、制限事項を見ていきたいと思います。 今回の記事の内容は次のような構成になっています。 Serverlessオプションが使える主なAWSサービス Amazon Aurora Serverless v1 Amazon Auroraの概要 Amazon Aurora Serverless v1の特徴 Amazon Aurora Serverless v1の設定項目 Amazon Aurora Serverless v1の料金 プロビジョニング型とServerlessオプショ

        AWSサービスのServerlessオプションの特徴・比較・まとめ・プロビジョニングとの違い -Aurora、Neptune、EMR、Redshift、MSK、SageMaker Inference、OpenSearch Service- - NRIネットコムBlog
      • GitHub - colinhacks/zod: TypeScript-first schema validation with static type inference

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - colinhacks/zod: TypeScript-first schema validation with static type inference
        • GitHub - gvergnaud/ts-pattern: 🎨 The exhaustive Pattern Matching library for TypeScript, with smart type inference.

          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

            GitHub - gvergnaud/ts-pattern: 🎨 The exhaustive Pattern Matching library for TypeScript, with smart type inference.
          • AWSサービスのServerlessオプション、オンデマンドモードの特徴・比較・まとめ・プロビジョニングとの違い -Serverless(Aurora、Neptune、EMR、Redshift、MSK、SageMaker Inference、OpenSearch Service)、オンデマンドモード(DynamoDB、Kinesis Data Streams)- - NRIネットコムBlog

            小西秀和です。 Amazon Aurora、Amazon Neptune、Amazon EMR、Amazon Redshift、Amazon Managed Streaming for Apache Kafka(Amazon MSK)、Amazon OpenSearch Serviceなどのインスタンスで構成されたクラスターで処理を実行するAWSサービスでは、従来、リクエストを処理するために待ち受けているインスタンスの起動時間とインスタンスサイズに応じて料金が発生する課金体系でした。 近年ではこうしたクラスター型のAWSサービスの一部にリクエストやトラフィック処理に使用した時間やリソース量の分だけ料金が発生する課金体系が「~Serverless」のような名称で追加されてきています。 例えば前述したAWSサービスにはAmazon Aurora Serverless(v1, v2)、Amazo

              AWSサービスのServerlessオプション、オンデマンドモードの特徴・比較・まとめ・プロビジョニングとの違い -Serverless(Aurora、Neptune、EMR、Redshift、MSK、SageMaker Inference、OpenSearch Service)、オンデマンドモード(DynamoDB、Kinesis Data Streams)- - NRIネットコムBlog
            • GitHub - ggerganov/llama.cpp: LLM inference in C/C++

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - ggerganov/llama.cpp: LLM inference in C/C++
              • GitHub - microsoft/hummingbird: Hummingbird compiles trained ML models into tensor computation for faster inference.

                Hummingbird is a library for compiling trained traditional ML models into tensor computations. Hummingbird allows users to seamlessly leverage neural network frameworks (such as PyTorch) to accelerate traditional ML models. Thanks to Hummingbird, users can benefit from: (1) all the current and future optimizations implemented in neural network frameworks; (2) native hardware acceleration; (3) havi

                  GitHub - microsoft/hummingbird: Hummingbird compiles trained ML models into tensor computation for faster inference.
                • Effective TypeScript › Flow Nodes: How Type Inference Is Implemented

                  In most programming languages a variable has a type and that type does not change. But one of the most interesting aspects of TypeScript's type system is that a symbol has a type at a location. Various control flow constructs can change this type: function refine(x: string | number) { // type of x is string | number here if (typeof x === 'number') { // type of x is number here. } else { // type of

                    Effective TypeScript › Flow Nodes: How Type Inference Is Implemented
                  • Type Profiler: Ambitious Type Inference for Ruby 3

                    TypeProf for IDE: Enrich Development Experience without Annotations

                      Type Profiler: Ambitious Type Inference for Ruby 3
                    • Counterfactual Cross-Validation: Stable Model Selection Procedure for Causal Inference Models(公開用)

                      勉強会リンク:https://cfml.connpass.com/event/179600/ 論文リンク:https://arxiv.org/abs/1909.05299 論文概要: 機械学習的な汎化誤差最小化の定式化に基づく因果効果予測手法が乱立傾向にあります。またそれらの手法は、多くのハイパーパラメータを有しています。そうした背景から、各環境について最適な予測手法とハイパーパラメータを選択するという手順の重要性が増している一方で、その手順に関する研究はあまり進んでいません。本研究では、観測可能なデータのみを用いてデータドリブンに、因果効果予測手法のモデル選択やハイパーパラメータチューニングを行うための方法を提案します。また、ベンチマークデータセットを用いて、既存のヒューリスティックな評価指標よりも提案手法がより良い性能を持つモデルを候補集合の中から探し当てられることを実証します。

                        Counterfactual Cross-Validation: Stable Model Selection Procedure for Causal Inference Models(公開用)
                      • TypeScript-first schema validation with static type inference

                        TypeScript-first schema validation with static type inference

                          TypeScript-first schema validation with static type inference
                        • GitHub - inlinedio/ikv-store: High-performance key-value store for ML inference. 100x faster than Redis.

                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                            GitHub - inlinedio/ikv-store: High-performance key-value store for ML inference. 100x faster than Redis.
                          • GitHub - meta-llama/llama: Inference code for Llama models

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - meta-llama/llama: Inference code for Llama models
                            • GitHub - mlc-ai/web-llm: High-performance In-browser LLM Inference Engine

                              In-Browser Inference: WebLLM is a high-performance, in-browser language model inference engine that leverages WebGPU for hardware acceleration, enabling powerful LLM operations directly within web browsers without server-side processing. Full OpenAI API Compatibility: Seamlessly integrate your app with WebLLM using OpenAI API with functionalities such as streaming, JSON-mode, logit-level control,

                                GitHub - mlc-ai/web-llm: High-performance In-browser LLM Inference Engine
                              • GitHub - cvlab-columbia/viper: Code for the paper "ViperGPT: Visual Inference via Python Execution for Reasoning"

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - cvlab-columbia/viper: Code for the paper "ViperGPT: Visual Inference via Python Execution for Reasoning"
                                • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                  Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                    Fast and Portable Llama2 Inference on the Heterogeneous Edge
                                  • GitHub - BlinkDL/RWKV-LM: RWKV is an RNN with transformer-level LLM performance. It can be directly trained like a GPT (parallelizable). So it's combining the best of RNN and transformer - great performance, fast inference, saves VRAM, fast training, "inf

                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                      GitHub - BlinkDL/RWKV-LM: RWKV is an RNN with transformer-level LLM performance. It can be directly trained like a GPT (parallelizable). So it's combining the best of RNN and transformer - great performance, fast inference, saves VRAM, fast training, "inf
                                    • GitHub - microsoft/DeepSpeed: DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective.

                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                        GitHub - microsoft/DeepSpeed: DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective.
                                      • The best place on Region: Earth for inference

                                        This post is also available in 简体中文, 日本語, 한국어, Deutsch, Français and Español. Today, Cloudflare’s Workers platform is the place over a million developers come to build sophisticated full-stack applications that previously wouldn’t have been possible. Of course, Workers didn’t start out that way. It started, on a day like today, as a Birthday Week announcement. It may not have had all the bells and

                                          The best place on Region: Earth for inference
                                        • MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る | CyberAgent Developers Blog

                                          MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る この記事は CyberAgent Developers Advent Calendar 2022 の5日目の記事です。 AI事業本部でソフトウェアエンジニア(機械学習 & MLOps領域)をしている yu-s (GitHub: @tuxedocat) です1。現在は 極予測LP という、広告ランディングページの制作をAIにより刷新するという目標のプロダクトに関わっています。 この記事では本プロダクトのMLOpsの取り組みのうち、特に深層学習モデルをデプロイして運用する基盤についての技術選定を振り返ってみます。 タイトルにあるとおり Triton Inference Server というOSSの推論基盤を導入しました。 前置き: プロダクトやチームなどの環境と経緯 本記

                                            MLOps年末反省会: Triton Inference Server を深層学習モデル推論基盤として導入したので振り返る | CyberAgent Developers Blog
                                          • How Causal Inference Findings Solve Tech Companies' Challenges

                                            日経学会2020年度春季大会の企画セッションで話した内容です。 https://cyberagent.ai/blog/pr/release_event/13050/

                                              How Causal Inference Findings Solve Tech Companies' Challenges
                                            • 新たに「Llama 2 70B」と「Stable Diffusion XL」が追加されたAIベンチマークテスト「MLPerf Inference v4.0」の結果が発表される

                                              ニューラルネットワークのパフォーマンス評価を実施する業界コンソーシアムのMLCommonsは、さまざまなシナリオでハードウェアのAI処理性能を測定できるベンチマークテスト「MLPerf Inference」を設計しています。最新の「MLPerf Inference v4.0」では、パフォーマンス指標として新たにMetaの大規模言語モデル「Llama 2 70B」と画像生成AIの「Stable Diffusion XL」が追加されました。 New MLPerf Inference Benchmark Results Highlight The Rapid Growth of Generative AI Models - MLCommons https://mlcommons.org/2024/03/mlperf-inference-v4/ Nvidia Tops Llama 2, Stabl

                                                新たに「Llama 2 70B」と「Stable Diffusion XL」が追加されたAIベンチマークテスト「MLPerf Inference v4.0」の結果が発表される
                                              • GitHub - facebookresearch/segment-anything-2: The repository provides code for running inference with the Meta Segment Anything Model 2 (SAM 2), links for downloading the trained model checkpoints, and example notebooks that show how to use the model.

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - facebookresearch/segment-anything-2: The repository provides code for running inference with the Meta Segment Anything Model 2 (SAM 2), links for downloading the trained model checkpoints, and example notebooks that show how to use the model.
                                                • GroqのLLM Inferenceが超絶速い件に対する感想 - Vengineerの妄想

                                                  はじめに Xの投稿にて、GroqのLLM Inferenceが超絶速いというのが流れてきます。 groq.com にアクセスすると、 Mixtral 8x7B-32K LIama 2 70B-4k が動きます。デフォルトは、Mixtral 8x7B-32K のようです。 とりあえず、質問してみました。 GroqのTSPがLLM推論で速い理由を2000文字程度で説明してください。 458.03 T/s 回答 Groq's Tensor Streaming Processor (TSP) is designed to accelerate machine learning workloads, including large language models (LLMs) like me, by providing a highly parallel and specialized archit

                                                    GroqのLLM Inferenceが超絶速い件に対する感想 - Vengineerの妄想
                                                  • GitHub - karpathy/llama2.c: Inference Llama 2 in one file of pure C

                                                    Have you ever wanted to inference a baby Llama 2 model in pure C? No? Well, now you can! Train the Llama 2 LLM architecture in PyTorch then inference it with one simple 700-line C file (run.c). You might think that you need many billion parameter LLMs to do anything useful, but in fact very small LLMs can have surprisingly strong performance if you make the domain narrow enough (ref: TinyStories p

                                                      GitHub - karpathy/llama2.c: Inference Llama 2 in one file of pure C
                                                    • Fireworks - Fastest Inference for Generative AI

                                                      Go from hype to high-value AIGo from generic to specialized AIGo from single model to compound AIGo from prototype to production AIThe fastest and most efficient inference engine to build production-ready, compound AI systems.

                                                        Fireworks - Fastest Inference for Generative AI
                                                      • NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ

                                                        機械学習エンジニアの吉田です。今回は機械学習モデルの推論サーバとして NVIDIA Triton Inference Server の性能を検証した話です。 (追記) 続編も書きました tech.layerx.co.jp 背景 バクラクでは請求書OCRをはじめとした機械学習モデルを開発していますが、これらの機械学習モデルは基本的にリアルタイムで推論結果を返す必要があります。 請求書OCRを例にとると、お客様が請求書をアップロードした際にその内容を解析し、請求書の金額や日付などを抽出します。 このような推論用のAPIサーバはNginx, Gunicorn/Uvicorn, FastAPIで実装し、PyTorchモデルをGPUで推論する構成となっており、SageMaker Endpointを使ってサービングしています。 バクラクの推論APIはこのような構成でリリース以降特に問題なく稼働してきて

                                                          NVIDIA Triton Inference Server の性能検証 - LayerX エンジニアブログ
                                                        • 因果推論の基礎とその罠 _Basic and Trap of Causal Inference_#白金鉱業

                                                          白金鉱業 Meetup Vol.12の登壇資料 #白金鉱業

                                                            因果推論の基礎とその罠 _Basic and Trap of Causal Inference_#白金鉱業
                                                          • SageMaker Serverless Inferenceも使っているNewsPicksの機械学習システムの構成を紹介します! - Uzabase for Engineers

                                                            こんにちは。NewsPicksエンジニアの雲越です。 NewsPicksでは、記事のレコメンドを始めとする機械学習を組み込んだシステムがいくつか動いており、中にはAmazon SageMakerを使って実装されているものもあります。 今回はそんなシステムの一つである記事分類システムが、どのようにSageMakerを使っているかについて紹介します。 どんなシステム? 学習について Training Jobを利用している背景 推論について Serverless Inference導入 CDKで推論エンドポイントを作るのをやめました 今回の対応まとめ 今後の改善 終わりに どんなシステム? NewsPicks編集部によってオリジナル記事が投稿されたり、URLピックという機能やRSSによって外部メディアの記事が取り込まれたりすると、NewsPicks内に記事が登録されます。 この際に、その記事のタ

                                                              SageMaker Serverless Inferenceも使っているNewsPicksの機械学習システムの構成を紹介します! - Uzabase for Engineers
                                                            • Introduction to Causal Inference

                                                              You’ve found the online causal inference course page. Although, the course text is written from a machine learning perspective, this course is meant to be for anyone with the necessary prerequisites who is interested in learning the basics of causality. I do my best to integrate insights from the many different fields that utilize causal inference such as epidemiology, economics, political science

                                                                Introduction to Causal Inference
                                                              • GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?

                                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                  GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?
                                                                • RAPIDS Forest Inference Library: Prediction at 100 million rows per second

                                                                  IntroductionRandom forests (RF) and gradient-boosted decision trees (GBDTs) have become workhorse models of applied machine learning. XGBoost and LightGBM, popular packages implementing GBDT models, consistently rank among the most commonly used tools by data scientists on the Kaggle platform. We see similar interest in forest-based models in industry, where they are applied to problems ranging fr

                                                                    RAPIDS Forest Inference Library: Prediction at 100 million rows per second
                                                                  • Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services

                                                                    AWS Machine Learning Blog Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker November 2022: The solution described here is not the latest best practice. The new HuggingFace Deep Learning Container (DLC) is available in Amazon SageMaker (see Use Hugging Face with Amazon SageMaker). For customer training BERT models, the recommended pattern is to use

                                                                      Fine-tuning a PyTorch BERT model and deploying it with Amazon Elastic Inference on Amazon SageMaker | Amazon Web Services
                                                                    • uber/causalml: Uplift modeling and causal inference with machine learning algorithms

                                                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                                                                        uber/causalml: Uplift modeling and causal inference with machine learning algorithms
                                                                      • GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models

                                                                        CTranslate2 is a C++ and Python library for efficient inference with Transformer models. The project implements a custom runtime that applies many performance optimization techniques such as weights quantization, layers fusion, batch reordering, etc., to accelerate and reduce the memory usage of Transformer models on CPU and GPU. The following model types are currently supported: Encoder-decoder m

                                                                          GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models
                                                                        • Workers AI: serverless GPU-powered inference on Cloudflare’s global network

                                                                          Workers AI: serverless GPU-powered inference on Cloudflare’s global network2023-09-27 This post is also available in 简体中文, 日本語, 한국어, Français, Deutsch and Español. If you're anywhere near the developer community, it's almost impossible to avoid the impact that AI’s recent advancements have had on the ecosystem. Whether you're using AI in your workflow to improve productivity, or you’re shipping AI

                                                                            Workers AI: serverless GPU-powered inference on Cloudflare’s global network
                                                                          • GitHub - CjangCjengh/MoeGoe: Executable file for VITS inference

                                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                              GitHub - CjangCjengh/MoeGoe: Executable file for VITS inference
                                                                            • NVIDIA Triton Inference Server で推論してみた - Qiita

                                                                              はじめに こんにちは。 @dcm_yamaya です。 ことしハマったキーボードは HHKB Professional HYBRID (not type-s) です。 この記事は、NTTドコモ R&D Advent Calendar 2020 7日目の記事です。 普段の業務では、画像認識やエッジコンピューティングの技術領域を担当しています。 昨年の記事 ではJetson上で画像認識モデルをTensorRT化する方法を紹介しました。 ことしはTensorRTに関連して興味があった、GTC2020で発表された NVIDIA Triton Inference Server を使って画像認識モデルの推論を試したいと思います。 「あれ、このフレームワーク前もなかったっけ?TensorRT Inference Server じゃなかったっけ?」 と思ったら、名前が変わっていました。 https://t

                                                                                NVIDIA Triton Inference Server で推論してみた - Qiita
                                                                              • Applied Causal Inference Powered by ML and AI

                                                                                An introduction to the emerging fusion of machine learning and causal inference. The book presents ideas from classical structural equation models (SEMs) and their modern AI equivalent, directed acyclical graphs (DAGs) and structural causal models (SCMs), and covers Double/Debiased Machine Learning methods to do inference in such models using modern predictive tools.

                                                                                • Amazon SageMaker Serverless Inference — サーバーレスで推論用の機械学習モデルをデプロイ可能に | Amazon Web Services

                                                                                  Amazon Web Services ブログ Amazon SageMaker Serverless Inference — サーバーレスで推論用の機械学習モデルをデプロイ可能に 2021 年 12 月、Amazon SageMaker の新しいオプションとして Amazon SageMaker Serverless Inference (プレビュー中) を導入しました。これにより、基盤となるインフラストラクチャを設定または管理しなくても、推論用の機械学習 (ML) モデルをデプロイできるようになりました。2022 年4 月 21 日(米国時間)、Amazon SageMaker Serverless Inference が一般公開 (GA) になったことをお知らせいたします。 ML 推論のユースケースが異なれば、モデルホスティングインフラストラクチャの要件も異なります。広告配信、不正検

                                                                                    Amazon SageMaker Serverless Inference — サーバーレスで推論用の機械学習モデルをデプロイ可能に | Amazon Web Services

                                                                                  新着記事