並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 39 件 / 39件

新着順 人気順

python transformers pipeline exampleの検索結果1 - 39 件 / 39件

  • WebAssemblyを用いてBERTモデルをフロントエンドで動かす - OPTiM TECH BLOG

    はじめまして。R&Dチーム所属、20.5卒の伊藤です。 普段の業務では自然言語処理と格闘していることが多いです。 今回は自然言語処理モデルとして有名なBERTをWebAssemblyを使用してフロントエンドで動かしてみた話になります。 最近、自然言語処理ライブラリとして普段お世話になっているHugging Face社のTransformersのTokenizerがRustで実装されていることを知り、それならばWebAssemblyにコンパイルして動かせるのではないかと試したみたのがきっかけです。 Tokenizerのみ動かしても実用性に乏しいため、Tokenizerから得られた結果からBERTを用いた推論をブラウザで動作させるまでを行い、備忘録がでら手順をまとめました。 どなたかの参考になれば幸いです。 8/26追記 本記事内のコードを含むリポジトリを公開しました!Dockerを使用してブ

      WebAssemblyを用いてBERTモデルをフロントエンドで動かす - OPTiM TECH BLOG
    • 2025: The year in LLMs

      31st December 2025 This is the third in my annual series reviewing everything that happened in the LLM space over the past 12 months. For previous years see Stuff we figured out about AI in 2023 and Things we learned about LLMs in 2024. It’s been a year filled with a lot of different trends. The year of “reasoning” The year of agents The year of coding agents and Claude Code The year of LLMs on th

        2025: The year in LLMs
      • Optimizing your LLM in production

        Note: This blog post is also available as a documentation page on Transformers. Large Language Models (LLMs) such as GPT3/4, Falcon, and LLama are rapidly advancing in their ability to tackle human-centric tasks, establishing themselves as essential tools in modern knowledge-based industries. Deploying these models in real-world tasks remains challenging, however: To exhibit near-human text unders

          Optimizing your LLM in production
        • openai/gpt-oss-120b · Hugging Face

          ","eos_token":"<|return|>","pad_token":"<|endoftext|>"},"chat_template_jinja":"{#-\n In addition to the normal inputs of `messages` and `tools`, this template also accepts the\n following kwargs:\n - \"builtin_tools\": A list, can contain \"browser\" and/or \"python\".\n - \"model_identity\": A string that optionally describes the model identity.\n - \"reasoning_effort\": A string that describes t

            openai/gpt-oss-120b · Hugging Face
          • CohereLabs/c4ai-command-r-plus · Hugging Face

            ","chat_template":[{"name":"default","template":"{{ bos_token }}{% if messages[0]['role'] == 'system' %}{% set loop_messages = messages[1:] %}{% set system_message = messages[0]['content'] %}{% elif false == true %}{% set loop_messages = messages %}{% set system_message = 'You are Command-R, a brilliant, sophisticated, AI-assistant trained to assist human users by providing thorough responses. You

              CohereLabs/c4ai-command-r-plus · Hugging Face
            • Emerging Architectures for LLM Applications | Andreessen Horowitz

              There are many different ways to build with LLMs, including training models from scratch, fine-tuning open-source models, or using hosted APIs. The stack we’re showing here is based on in-context learning, which is the design pattern we’ve seen the majority of developers start with (and is only possible now with foundation models). The next section gives a brief explanation of this pattern; experi

                Emerging Architectures for LLM Applications | Andreessen Horowitz
              • LLMサービングライブラリの LMDeploy と vLLM を比較した - Taste of Tech Topics

                皆さんこんにちは。 Acroquest のデータサイエンスチーム「AcroYAMALEX」を率いるチームリーダー、@tereka114です。 AcroYAMALEX では、コンペティション参加・自社製品開発・技術研究に日々取り組んでいます。チーム紹介はこちら。 本記事は、「学習推論ライブラリ・フレームワーク Advent Calendar 2025」の25日目です。 qiita.com LLMは相変わらず新しいモデルが登場し世間を賑わせています。 しかし、モデル自体が重く、計算時間がかかります。そのため、LLMの推論では計算速度が重要となります。 「vLLM」では、LLMを効率的に推論する技術を用いて、推論の高速化を実現してきました。 ※以前、本ブログでも次の記事で「vLLM」による高速化について紹介しました。 acro-engineer.hatenablog.com 今回は「vLLM」と

                  LLMサービングライブラリの LMDeploy と vLLM を比較した - Taste of Tech Topics
                • npm感覚でPython環境を構築!非PythonエンジニアがuvでPythonプロジェクト(Talk to the City)を動かす

                  uv を使った Python のパッケージ依存関係の解決方法を解説していきます。 業務やプライベートで扱う言語は Node.js がメインで、普段は npm や pnpm を使ってライブラリの依存関係を解決しています。 そんな私がある機会でTalk to the Cityを検証して欲しいと頼まれました。 Talk to the City は 2024 年の東京都知事選挙で安野たかひろ氏のチームが使ったことで注目された Python プロジェクトです。 Python の開発環境を作って README 通りに動作させてやれば良いかと進めていったところで絶望しました。 DevContainer を用いてクリーンな Python の実行環境を用意して試したのですが、2025 年 3 月 19 日現在、デモ通り動かしてもエラーが発生します。 ImportError: cannot import na

                    npm感覚でPython環境を構築!非PythonエンジニアがuvでPythonプロジェクト(Talk to the City)を動かす
                  • swift-transformers で LLM を動かしてみた - ABEJA Tech Blog

                    ABEJA でエンジニアをしている石川です。これは ABEJA アドベントカレンダー 2024 の 18 日目の記事です。 CoreML で機械学習モデルを動かす swift-transformers を試す Mistral 7B モデルを動かす swift-transformers で推論を実装する Python で動かしてみる CoreML モデルに変換 Swift で動かす パフォーマンス We Are Hiring! macOS/iOS で機械学習モデルを動かすにはいくつかの方法がありますが、Apple シリコンの能力を十分に引き出すためには CoreML を使うのが最適です。 Python 向け機械学習フレームワークである PyTorch も MPS バックエンドによって、Apple シリコンの GPU を利用することはできます。しかし、Apple の NPU (Neural P

                      swift-transformers で LLM を動かしてみた - ABEJA Tech Blog
                    • ChatGPT x LangChain で独自ドキュメントのベクターストア検索をチューニングする - GMOインターネットグループ グループ研究開発本部

                      D.Mです。 ChatGPT を開発の現場で活かしていくためにベクターストア活用の方法を検証しました。 結論ファースト A. ベクターストアに入れる元ネタドキュメントの抽出 ⇒ unstructured が使えるかも B. ベクターストアに入れる元ネタドキュメントのチャンク分け ⇒ タイトル。キーワードをメタデータで付加 C. ベクターストアに投げる質問プロンプトの最適化 ⇒ 形態素またはキーワード抽出でプロンプトを精査 D. ベクターストア検索結果の精査 ⇒ ContextualCompressionRetriever による検索結果要約とDocumentCompressorPipeline による検索結果絞り込みがよさげ 「検索結果が質問に沿ったものか精査させる」タスクをChatGPTに担当してもらうことが私の業務課題には適しているのではという気付きがありました。 E. (おまけ)ベク

                        ChatGPT x LangChain で独自ドキュメントのベクターストア検索をチューニングする - GMOインターネットグループ グループ研究開発本部
                      • Andrej Karpathy — AGI is still a decade away

                        The Andrej Karpathy episode. Andrej explains why reinforcement learning is terrible (but everything else is much worse), why model collapse prevents LLMs from learning the way humans do, why AGI will just blend into the previous ~2.5 centuries of 2% GDP growth, why self driving took so long to crack, and what he sees as the future of education. Watch on YouTube; listen on Apple Podcasts or Spotify

                          Andrej Karpathy — AGI is still a decade away
                        • SentenceTransformers Documentation — Sentence Transformers documentation

                          Getting Started Installation Install with uv Install with pip Install with Conda Install from Source Editable Install Install PyTorch with CUDA support Quickstart Sentence Transformer Cross Encoder Sparse Encoder Next Steps Migration Guide Migrating from v5.x to v5.4+ Updated import paths Renamed methods and parameters CrossEncoder.max_length property renamed to max_seq_length Trainer tokenizer pa

                          • openai/gpt-oss-20b · Hugging Face

                            ","eos_token":"<|return|>","pad_token":"<|endoftext|>"},"chat_template_jinja":"{#-\n In addition to the normal inputs of `messages` and `tools`, this template also accepts the\n following kwargs:\n - \"builtin_tools\": A list, can contain \"browser\" and/or \"python\".\n - \"model_identity\": A string that optionally describes the model identity.\n - \"reasoning_effort\": A string that describes t

                              openai/gpt-oss-20b · Hugging Face
                            • はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場

                              今回は DeepSpeed-Chat による RLHF のご紹介です。正直、データセットや計算資源の都合もあり、とりあえず動かしてみました!的な話にはなりますが、RLHF の効果が実際に確認できるか見てみたいと思います。 1. はじめに 今回は DeepSpeed-Chat1 を使って RLHF を試してみたいと思います。RLHF は Reinforcement Learning from Human Feedback の略で文字通り「人からのフィードバックを用いた強化学習」ということですね。OpenAI が InstructGPT(ChatGPT の元になったモデル)2 で使ったことで注目された手法になります。 LLM がらみで何か記事にしたいと思いつつ、日々新たな LLM が発表されている昨今に、隔月&内容が実時間から月単位で遅れ気味wの本連載です。 「どうしたもんかな。。。」と悩みに

                                はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場
                              • The Best GPUs for Deep Learning in 2023 — An In-depth Analysis

                                Deep learning is a field with intense computational requirements, and your choice of GPU will fundamentally determine your deep learning experience. But what features are important if you want to buy a new GPU? GPU RAM, cores, tensor cores, caches? How to make a cost-efficient choice? This blog post will delve into these questions, tackle common misconceptions, give you an intuitive understanding

                                  The Best GPUs for Deep Learning in 2023 — An In-depth Analysis
                                • Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers

                                  For demonstration purposes, we'll fine-tune the multilingual version of the small checkpoint with 244M params (~= 1GB). As for our data, we'll train and evaluate our system on a low-resource language taken from the Common Voice dataset. We'll show that with as little as 8 hours of fine-tuning data, we can achieve strong performance in this language. 1{}^11 The name Whisper follows from the acronym

                                    Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers
                                  • はじめての自然言語処理 ELYZA 日本語 Llama 2 指示応答モデルのファインチューニングと vLLM での推論 | オブジェクトの広場

                                    今回は Elyza さんの日本語 Llama 2 指示応答モデルをファインチューニングし、vLLM にデプロイして高速に推論してみます。70 億パラメータモデルならギリギリ Tesla T4 x 1 の構成でも float16 で動かせるかと思ったのですが、どうだったでしょうか。vLLM には OpenAI 互換の API インタフェースも備えているので、ついでに LangChain からも接続してみたり。 1. はじめに 今回は Elyza さんが公開されている大規模指示応答言語モデルである、ELYZA-japanese-Llama-2-7b-fast-instruct1 をファインチューニングして vLLM で推論してみます。 そんな訳で今回あまり書くことがなく、動かし方だけサラっと書いて「動きましたー。では良いお年を~。」で締めることにします。 しかし、時代感覚無視の隔月連載でネタを

                                      はじめての自然言語処理 ELYZA 日本語 Llama 2 指示応答モデルのファインチューニングと vLLM での推論 | オブジェクトの広場
                                    • Llama 2 is here - get it on Hugging Face

                                      Note: the performance scores shown in the table below have been updated to account for the new methodology introduced in November 2023, which added new benchmarks. More details in this post. Demo You can easily try the 13B Llama 2 Model in this Space or in the playground embedded below: To learn more about how this demo works, read on below about how to run inference on Llama 2 models. Inference I

                                        Llama 2 is here - get it on Hugging Face
                                      • Mastering Customer Segmentation with LLM | Towards Data Science

                                        Unlock advanced customer segmentation techniques using LLMs, and improve your clustering models with advanced techniques Content Table · Intro · Data · Method 1: Kmeans · Method 2: K-Prototype · Method 3: LLM + Kmeans · Conclusion Intro A customer segmentation project can be approached in multiple ways. In this article I will teach you advanced techniques, not only to define the clusters, but to a

                                          Mastering Customer Segmentation with LLM | Towards Data Science
                                        • Introducing RWKV - An RNN with the advantages of a transformer

                                          ChatGPT and chatbot-powered applications have captured significant attention in the Natural Language Processing (NLP) domain. The community is constantly seeking strong, reliable and open-source models for their applications and use cases. The rise of these powerful models stems from the democratization and widespread adoption of transformer-based models, first introduced by Vaswani et al. in 2017

                                            Introducing RWKV - An RNN with the advantages of a transformer
                                          • Technology Trends for 2024

                                            This has been a strange year. While we like to talk about how fast technology moves, internet time, and all that, in reality the last major new idea in software architecture was microservices, which dates to roughly 2015. Before that, cloud computing itself took off in roughly 2010 (AWS was founded in 2006); and Agile goes back to 2000 (the Agile Manifesto dates back to 2001, Extreme Programming t

                                              Technology Trends for 2024
                                            • ControlNet in 🧨 Diffusers

                                              Ever since Stable Diffusion took the world by storm, people have been looking for ways to have more control over the results of the generation process. ControlNet provides a minimal interface allowing users to customize the generation process up to a great extent. With ControlNet, users can easily condition the generation with different spatial contexts such as a depth map, a segmentation map, a s

                                                ControlNet in 🧨 Diffusers
                                              • Transformers.js v3 の概要|npaka

                                                以下の記事が面白かったので、簡単にまとめました。 ・Transformers.js v3: WebGPU Support, New Models & Tasks, and More… 1. Transformers.js v3「Transformers.js v3」は、HuggingFaceが開発した機械学習ライブラリ「Transformers」のJavaScript版の最新版です。 主な特徴は以下の通りです。 ・WebGPUサポート : 従来のWASMと比べて最大100倍高速 ・新しい量子化フォーマット(dtype) : より効率的なモデル実行が可能に ・対応アーキテクチャの拡大 : 120のアーキテクチャをサポート ・事前学習済みモデルの追加 : 120以上のモデルが利用可能 ・マルチプラットフォーム対応 : Node.js、Deno、Bunで動作 2. インストール(1) パッケージ

                                                  Transformers.js v3 の概要|npaka
                                                • Building A Generative AI Platform

                                                  After studying how companies deploy generative AI applications, I noticed many similarities in their platforms. This post outlines the common components of a generative AI platform, what they do, and how they are implemented. I try my best to keep the architecture general, but certain applications might deviate. This is what the overall architecture looks like. This is a pretty complex system. Thi

                                                    Building A Generative AI Platform
                                                  • Accelerating Generative AI with PyTorch: Segment Anything, Fast – PyTorch

                                                    Blog Accelerating Generative AI with PyTorch: Segment Anything, Fast This post is the first part of a multi-series blog focused on how to accelerate generative AI models with pure, native PyTorch. We are excited to share a breadth of newly released PyTorch performance features alongside practical examples of how these features can be combined to see how far we can push PyTorch native performance.

                                                      Accelerating Generative AI with PyTorch: Segment Anything, Fast – PyTorch
                                                    • GitHub - taishi-i/awesome-ChatGPT-repositories: A curated list of resources dedicated to open source GitHub repositories related to ChatGPT and OpenAI API

                                                      awesome-chatgpt-api - Curated list of apps and tools that not only use the new ChatGPT API, but also allow users to configure their own API keys, enabling free and on-demand usage of their own quota. awesome-chatgpt-prompts - This repo includes ChatGPT prompt curation to use ChatGPT better. awesome-chatgpt - Curated list of awesome tools, demos, docs for ChatGPT and GPT-3 awesome-totally-open-chat

                                                        GitHub - taishi-i/awesome-ChatGPT-repositories: A curated list of resources dedicated to open source GitHub repositories related to ChatGPT and OpenAI API
                                                      • LangChainにオープンな言語モデルを組み込んでアレコレしてみる (3) ~チャットボット~ - Qiita

                                                        from langchain import HuggingFacePipeline, PromptTemplate, LLMChain from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline from transformers import StoppingCriteria from transformers import StoppingCriteriaList from langchain.memory import ConversationBufferMemory import torch def model_setup(model_id:str): # モデル&トークナイザーのダウンロード print(f"!!! Downloading Model from {model_id} !!!") mo

                                                          LangChainにオープンな言語モデルを組み込んでアレコレしてみる (3) ~チャットボット~ - Qiita
                                                        • AWS Inf1上でBERTモデルの推論を走らせる―モデルコンパイルから速度比較まで|朝日新聞社 メディア研究開発センター

                                                          今回のテックブログは、BERTの系列ラベリングをサンプルに、Inferentia、GPU、CPUの速度・コストを比較した結果を紹介します。Inf1インスタンス上でのモデルコンパイル・推論の手順についてのお役立ちチュートリアルも必見です。 AWS Inf1とは こんにちは。メディア研究開発センター (通称M研) の田口です。今回はAWSのInf1インスタンス上でBERTモデルを動かす際の流れをご紹介したいと思います。 さて、みなさんは機械学習モデルの推論をどこで走らせていますか? BERTのようなサイズの大きいモデルを走らせる場合、コスト上問題なければTPU・GPUを使いたいですよね。とはいえ、できるだけコストは抑えたいのでCPUを選択すると「推論速度が…」という悩みがでてきます。そこでM研では、GPU・CPUに代わる選択肢としてInferentiaというチップを搭載したAWS Inf1の検

                                                            AWS Inf1上でBERTモデルの推論を走らせる―モデルコンパイルから速度比較まで|朝日新聞社 メディア研究開発センター
                                                          • Version 1.0

                                                            Version 1.0# For a short description of the main highlights of the release, please refer to Release Highlights for scikit-learn 1.0. Legend for changelogs Major Feature something big that you couldn’t do before. Feature something that you couldn’t do before. Efficiency an existing feature now may not require as much computation or memory. Enhancement a miscellaneous minor improvement. Fix somethin

                                                              Version 1.0
                                                            • Incredibly Fast BLOOM Inference with DeepSpeed and Accelerate

                                                              To reproduce the benchmark results simply add --benchmark to any of these 3 scripts discussed below. Solutions First checkout the demo repository: git clone https://github.com/huggingface/transformers-bloom-inference cd transformers-bloom-inference In this article we are going to use 3 scripts located under bloom-inference-scripts/. The framework-specific solutions are presented in an alphabetical

                                                                Incredibly Fast BLOOM Inference with DeepSpeed and Accelerate
                                                              • The 4 Advanced RAG Algorithms You Must Know to Implement

                                                                Welcome to Lesson 5 of 12 in our free course series, LLM Twin: Building Your Production-Ready AI Replica. You’ll learn how to use LLMs, vector DVs, and LLMOps best practices to design, train, and deploy a production ready “LLM twin” of yourself. This AI character will write like you, incorporating your style, personality, and voice into an LLM. For a full overview of course objectives and prerequi

                                                                • Building LLM-Powered Web Apps with Client-Side Technology · Ollama Blog

                                                                  Building LLM-Powered Web Apps with Client-Side Technology October 13, 2023 This is a guest blog post by Jacob Lee, JS/TS maintainer at @LangChainAI, formerly co-founder & CTO at @Autocode, engineer on Google photos. The initial version of this blog post was a talk for Google’s internal WebML Summit 2023, which you can check out here: It’s no secret that for a long time machine learning has been mo

                                                                    Building LLM-Powered Web Apps with Client-Side Technology · Ollama Blog
                                                                  • Build and deploy ML inference applications from scratch using Amazon SageMaker | Amazon Web Services

                                                                    Artificial Intelligence Build and deploy ML inference applications from scratch using Amazon SageMaker As machine learning (ML) goes mainstream and gains wider adoption, ML-powered inference applications are becoming increasingly common to solve a range of complex business problems. The solution to these complex business problems often requires using multiple ML models and steps. This post shows y

                                                                      Build and deploy ML inference applications from scratch using Amazon SageMaker | Amazon Web Services
                                                                    • ローカルLLM実装(GoogleColabolatory編)

                                                                      はじめに はじめまして。データアナリティクスラボ株式会社 データソリューション事業部の平野です。 私は社内のラボチームに所属しており、生成AIに関する研究・勉強に取り組んでいます。 目的 昨今自分のローカルなPCやサーバー上で動かせるオープンソースのLLM(Large Language Model:大規模言語モデル)として様々なLLMがリリースされており、現状LLMで最高峰の性能であるChatGPTやGeminiに匹敵するほど性能が高いオープンソースのLLMも徐々に出てきています。 それに伴って、今後個人あるいは企業でオープンソースのLLMを利用したLLMシステム構築の需要が高まってくることが考えられます。 そこで、本記事ではオープンソースのLLM(以後ローカルLLM)を用いて一般的かつ簡易的なLLMシステムであるChatbot構築の手順をおさらいするものになります。 ※詳細記事 ・ローカ

                                                                        ローカルLLM実装(GoogleColabolatory編)
                                                                      • A non-beginner Data Engineering Roadmap — 2025 Edition

                                                                        Me after years using python.Before starting this post, I want to acknowledge that soft and hard skills are equally important. Data people exist to deliver business value, or more broadly read facts from a pool of ever-growing data. But, even with a bunch of posts talking about soft skills, at the end of the day, we're being paid for the technical skills we have, and the ability we have to deliver

                                                                          A non-beginner Data Engineering Roadmap — 2025 Edition
                                                                        • GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI

                                                                          ComfyUI-Gemini_Flash_2.0_Exp (⭐+172): A ComfyUI custom node that integrates Google's Gemini Flash 2.0 Experimental model, enabling multimodal analysis of text, images, video frames, and audio directly within ComfyUI workflows. ComfyUI-ACE_Plus (⭐+115): Custom nodes for various visual generation and editing tasks using ACE_Plus FFT Model. ComfyUI-Manager (⭐+113): ComfyUI-Manager itself is also a cu

                                                                            GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI
                                                                          • Improving Diffusers Package for High-Quality Image Generation | Towards Data Science

                                                                            Overcoming token size limitations, custom model loading, LoRa support, textual inversion support, and more Stable Diffusion WebUI from AUTOMATIC1111 has proven to be a powerful tool for generating high-quality images using the Diffusion model. However, while the WebUI is easy to use, data scientists, machine learning engineers, and researchers often require more control over the image generation p

                                                                              Improving Diffusers Package for High-Quality Image Generation | Towards Data Science
                                                                            • The Realistic Guide to Mastering AI Agents in 2026

                                                                              Paul: Today’s spotlight: Paolo Perrone, master of turning tech into scroll-stopping content. This one’s packed, let’s go 👀 ↓ I’m going to be honest with you. Most AI agent tutorials are garbage. They show you how to copy-paste LangChain code, build a demo that breaks the moment you try anything real, and leave you feeling like you learned something. Three months later, you try to build something

                                                                                The Realistic Guide to Mastering AI Agents in 2026
                                                                              • Getting Started with Sentiment Analysis using Python

                                                                                Sentiment analysis is the automated process of tagging data according to their sentiment, such as positive, negative and neutral. Sentiment analysis allows companies to analyze data at scale, detect insights and automate processes. In the past, sentiment analysis used to be limited to researchers, machine learning engineers or data scientists with experience in natural language processing. However

                                                                                  Getting Started with Sentiment Analysis using Python
                                                                                1