並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 267件

新着順 人気順

Qwenの検索結果1 - 40 件 / 267件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

Qwenに関するエントリは267件あります。 AI人工知能LLM などが関連タグです。 人気エントリには 『MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう』などがあります。
  • MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう

    MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう2026.03.14 21:0070,619 かみやまたくみ とりあえずこれでいいやつ(令和最新版)。 2026年2月末〜3月上旬にかけてアリババがリリースしたオープンウェイトの大規模言語モデル(ローカルLLM)「Qwen3.5」シリーズが話題です。 実際触ってみたのですが、従来の同クラスのモデルから性能が大幅に向上しており、日本語での回答も読みやすい。ライセンスはApache 2.0で商用利用も可、何より無料でダウンロードできると、破格のAI。 ローカルLLMはChatGPTのようなメインストリームとは性質が異なるオルタナ的AIで、自分のPCでセットアップする必要があるものの、ダウンロードは無料。コスト面やプライバシー面でアドバンテージがあります。始めてみたい・いいモデルを探しているという人はQ

      MacBookで動くし、ぶっ壊れ性能。いま最強のローカルLLM「Qwen3.5」を解説しちゃう
    • 第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに

      第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに 中国Alibabaが4月29日(現地時間)に発表した、大規模言語モデル「Qwen」の最新版となる「Qwen3」シリーズが話題だ。フラッグシップモデルの「Qwen3-235B-A22B」は「DeepSeek-R1」の半分未満のパラメータ数ながら、OpenAIのo1やo3-mini、GoogleのGemini 2.5 Proなど他のトップモデルと並ぶ性能を達成したという。「Qwen3-4B」は小さなモデルでありながらも「GPT-4o」を多くの項目で上回るとしている。 公開した全てのモデルがオープンウェイトであるため、フラグシップの235B-A22B以外はデスクトップ向けハイエンドGPUなどで動作さ

        第2のDeepSeekショック? オープンな中国LLM「Qwen3」シリーズが破格の性能で話題 最大モデルはOpenAI o1やGemini 2.5 Proに匹敵、たった4BでもGPT-4oレベルに
      • Qwen3はローカルLLMの世界を変えたかも - きしだのHatena

        Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれでいいのでは、という感じもします。 4BでもGPT-4oを越えているという話もありますが、確かに単純な用途ではGPT-4oの代わりにしてもいいなと場面も割とありそうな出力です。さすがにちょっと込み入ったものだと4oだけど。 1.7Bなど小さいモデルも既存のモデルより使えるものになっていて、ローカルLLMの世界を変えそう。 解説動画も撮りました。 週間ニュースのまとめはじめました。 サイズとしては0.6B, 1.7B, 4B, 8B, 14B, 32Bと、MoEモデルの30B-A3B, 235B-A22Bです。 30B-A3Bが賢いというベンチマークだけど、コーディング用途だと14Bや32Bのほうがいいかも。MacならMLXで30B-A3Bは めちゃ速くていいけど。という感じでどのサイズにも

          Qwen3はローカルLLMの世界を変えたかも - きしだのHatena
        • Claude 4.5 Opus匹敵「Qwen3.6-27B」無償公開、前世代397Bを圧倒

            Claude 4.5 Opus匹敵「Qwen3.6-27B」無償公開、前世代397Bを圧倒
          • Qwen3-TTSに自分の声でしゃべらせる - きしだのHatena

            Qwen3-TTSというテキストto音声モデルが出ていて、どうせ日本語はしゃべれんのだろう?って思ってたけど案外しゃべれるし、自分の音声のクローンもできるようなので、試してみました。 Qwen3-TTS Family is Now Open Sourced: Voice Design, Clone, and Generation! 手順などはGitHubに。 https://github.com/QwenLM/Qwen3-TTS 基本的にはpip installするだけ pip install -U qwen-tts GPU対応でPyTorchを使うなら--upgrade --force-reinstalを付けてインストールする必要があります。 https://pytorch.org/get-started/locally/ flash-attnを入れたほうがいいということだけど、Wind

              Qwen3-TTSに自分の声でしゃべらせる - きしだのHatena
            • AIっぽくない実写風画像を作れる画像生成AI「Qwen-Image-2512」が登場、無料で使えて日本語での指示も可能

              AlibabaのAI研究チームであるQwenが画像生成AIモデル「Qwen-Image-2512」を2025年12月31日に公開しました。Qwen-Image-2512はAI生成画像っぽくない実写風画像を生成できることを大きな特長としています。すでにモデルをダウンロードしてローカルで実行可能になっていたので、実際に使ってみました。 Qwen-Image-2512: Finer Details, Greater Realism https://qwen.ai/blog?id=qwen-image-2512 従来のQwen-Image(左)とQwen-Image-2512(右)で同じプロンプトから生成した画像が以下。従来のQwen-Imageだと美顔フィルターを適用したような見た目になってAIっぽさがにじみ出していましたが、Qwen-Image-2512では顔も照明の当たり具合もリアルになって

                AIっぽくない実写風画像を作れる画像生成AI「Qwen-Image-2512」が登場、無料で使えて日本語での指示も可能
              • 約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ - 国立情報学研究所 / National Institute of Informatics

                2026/04/03 約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開 ~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ 大学共同利用機関法人 情報・システム研究機構 国立情報学研究所 (NIIエヌアイアイ、所長:黒橋くろはし 禎夫さだお、東京都千代田区) 大規模言語モデル研究開発センター(LLMC)は、同センターが主宰するLLM研究開発コミュニティ「LLM-jp」の活動の中で大規模言語モデル(LLM)のフルスクラッチ学習を実施し、約86億パラメータ(*1)の「LLM-jp-4 8Bモデル」と約320億パラメータのMoEモデル(*2)「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで一般公開しました。公開モデルの学習では、オープンソー

                  約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ - 国立情報学研究所 / National Institute of Informatics
                • 9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた (1/5)

                  2026年2月から3月にかけ、Alibaba傘下のQwenチームがLLM「Qwen3.5」シリーズを順次公開した。2月16日にフラッグシップのQwen3.5-397B-A17B(397Bパラメータ、うちアクティブ17B)を皮切りに、2月24日にMediumシリーズ(27B dense、35B-A3B、122B-A10B)、3月2日にSmallシリーズ(0.8B、2B、4B、9B)と段階的に展開。全モデルがApache 2.0ライセンスで、商用利用も無償で可能だ。 今回フォーカスするのは、このSmallシリーズの頂点に立つ9Bモデルだ。「9Bごときで何ができる」と思うかもしれないが、ベンチマークでは120Bを超える既存モデルを複数の指標で上回っている。なぜ9Bなのにそれほど強いのだろうか。鍵はアーキテクチャの刷新にある。 Qwen3.5の技術的な新しさ LLMのアーキテクチャといえば、長らく

                    9Bなのに120B超え!? Qwen3.5-9BがローカルAIの常識を変えた (1/5)
                  • 【西川和久の不定期コラム】 さらばgpt-oss。VRAM 16GBあれば動作し、画像も理解してくれる「Qwen3.5」登場!

                      【西川和久の不定期コラム】 さらばgpt-oss。VRAM 16GBあれば動作し、画像も理解してくれる「Qwen3.5」登場!
                    • ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)

                      ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27) TL;DR ・RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。 ・Artificial Analysis の Intelligence Index 上では、 Qwen3.5-27B (42) > o3-pro (41) > Qwen3.5-35B-A3B (37) という並びになっている。 ・実際のコーディング体験でも、長めのタスクのやり切り/コードの一貫性/プロンプト耐性の3点で 27B が 35B-A3B を上回ると感じたため、「常用エンジン」は 27B を採用。 ・TypeScript + Canvas で Pong / Breakout / Tetris の3本をワンショット生成し

                        ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)
                      • グーグル「Nano Banana」級にすごい。無料の画像生成AI「Qwen-Image-Edit-2509」

                        sponsored FortiSASEがセキュリティ対策の「すき間」を埋める 危機はエッジから現れる 今こそ検討すべきVPNからSASEへの移行 sponsored MSI「MPG B860I EDGE TI WIFI」レビュー 知識と経験が問われるMini-ITXでのホワイトミニゲーミングPC自作。基板まで白いIntel B860搭載マザーボード選びの最適解が見つかった sponsored 日本マイクロソフトのハッカソン「GitHub Copilot Quest」をレポート レガシーアプリをGitHub Copilotでハックせよ! 若手SIerらがモダナイゼーションチャレンジ sponsored 2026年こそ健康的な生活を送りたい貴方! 今回のセールでスマートウォッチ買いましょう さらにイヤホンも! 年末年始はスマートウォッチを始める大チャンス! バッテリー長持ちが魅力のファーウェイ

                          グーグル「Nano Banana」級にすごい。無料の画像生成AI「Qwen-Image-Edit-2509」
                        • AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena

                          AIプログラムの開発、つまり、AIにコードを書かせるのではなくて、LLMを呼び出したりRAGを実装したりエージェントを作ったりといったAIを組み込むプログラミングの演習をしたいときに、参加者のPCに十分なリソースを前提とできないことは多いと思います。 Java AIプログラミング記事でQwen3 1.7B Q4_K_Mを選んだ 先月gihyo.jpの連載で、「JavaでAIプログラミングをはじめよう」という記事を出しました。 「JavaでAIプログラミングをはじめよう」という短期連載をgihyo.jpで出しました - きしだのHatena そのときに、読者のPCにGPUが載ってたりMacであることだったりは前提にできないので、なるべく必要なリソースが少ないモデルを選ぶ必要があって、最終的にQwen3 1.7BのQ4_K_Mを選びました。初回に、LM Studioとあわせた導入方法を載せてま

                            AIプログラムの開発演習に使う低消費リソースローカルLLMはQwen3 1.7B Q4がベスト - きしだのHatena
                          • Qwen3 Coderがかなり使える件について

                            はじめに 1週間くらい前にリリースされたQwen3 CoderがOpenRouterにてqwen3-coder:freeとして使えるので試してみた。 Hugging Faceでいえばこのモデル ちなみにQwenはAlibabaが開発しているオープンソースのLLMモデル。 結論から言うと相当使える、無料でこれ(ただしRate Limitあり)というのは単純にヤバい。 使い方 Claude-Code風に使いたい場合は、qwen-codeライブラリを利用する(このライブラリはちなみにまんまgemini-cliの実装を利用している) インストール方法

                              Qwen3 Coderがかなり使える件について
                            • 【西川和久の不定期コラム】 ブラウザだけで即ローカルLLM。WebGPUでGemma-4やQwen 3.5を試す

                                【西川和久の不定期コラム】 ブラウザだけで即ローカルLLM。WebGPUでGemma-4やQwen 3.5を試す
                              • 【西川和久の不定期コラム】 人間なら半日の作業が2時間に。ローカルLLM「Qwen3 Coder Next」で爆速開発

                                  【西川和久の不定期コラム】 人間なら半日の作業が2時間に。ローカルLLM「Qwen3 Coder Next」で爆速開発
                                • 画像認識AIモデル「Qwen3-VL」の軽量版が登場したので使ってみた、低いVRAM使用量で高性能を実現

                                  Qwen3-VLの軽量版であるQwen3-VL-4BおよびQwen3-VL-8Bが公開されました。これらのモデルは、Qwen3-VLの全機能が保持されており、従来のモデルに比べて大幅にVRAM使用量を削減しつつ、Qwen2.5-VL-72Bに匹敵する性能を発揮するとのことで試しにローカルPCにインストールして使ってみました。 Qwen https://qwen.ai/home Introducing the compact, dense versions of Qwen3-VL — now available in 4B and 8B pairs, each with both Instruct and Thinking variants. ✅ Lower VRAM usage ✅ Full Qwen3-VL capabilities retained ✅ Strong performan

                                    画像認識AIモデル「Qwen3-VL」の軽量版が登場したので使ってみた、低いVRAM使用量で高性能を実現
                                  • Qwen3-TTSってなんだ?〜3秒の音声でボイスクローンできる最新AIを日本語環境で完全攻略〜 - Qiita

                                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事の対象読者 Pythonの基本文法を理解している方 音声合成(TTS)に興味があるが、まだ試したことがない方 ローカルでAI音声生成を動かしてみたい方 MacからWindowsに移行して、GPU環境を構築したばかりの方 この記事で得られること Qwen3-TTSの概念と他のTTSとの違いの理解 日本語GUIでQwen3-TTSを動かす環境構築手順 Whisperによる自動文字起こしを統合した効率的なワークフロー RTX 5090(Blackwell)での動作確認済み設定 この記事で扱わないこと Pythonの環境構築方法(con

                                      Qwen3-TTSってなんだ?〜3秒の音声でボイスクローンできる最新AIを日本語環境で完全攻略〜 - Qiita
                                    • cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face

                                      DeepSeek-R1-Distill-Qwen-32B-Japanese Model Description This is a Japanese finetuned model based on deepseek-ai/DeepSeek-R1-Distill-Qwen-32B. Usage from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer model = AutoModelForCausalLM.from_pretrained("cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese", device_map="auto", torch_dtype="auto") tokenizer = AutoTokenizer.from_pretrained

                                        cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese · Hugging Face
                                      • グーグルNano Banana級に便利 無料で使える画像生成AI「Qwen-Image-Edit-2509」の実力 (1/4)

                                        画像生成AIでの一貫性のある表現を巡る各社の競争が激しくなる中、9月に公開されたアリババの画像生成AI「Qwen-Image-Edit-2509」の性能が注目されています。グーグルの「Nano Banana(Gemini 2.5 Flash Image)」の競合モデルです。オープンモデルなので、ローカルPC上でも動作可能というのが最大の利点です。特定の人物の服や小物を総入れ替えしたり、人物の背景やポーズを入れ替えたりと、様々なことができます。 ※記事配信先の設定によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください アリババの最新画像生成モデル 「Qwen-Image-Edit-2509」は、アリババが展開する画像生成AI「Qwen Image」シリーズの1つです。8月に「Qwen-Image-Edit」をリリースしたばかりでしたが、3枚までの複

                                          グーグルNano Banana級に便利 無料で使える画像生成AI「Qwen-Image-Edit-2509」の実力 (1/4)
                                        • Qwen3 の概要|npaka

                                          以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3本日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

                                            Qwen3 の概要|npaka
                                          • 初の“長考”できる国産フルスクラッチLLM「PLaMo 3.0 Prime」 Qwen3-235Bやgpt-oss-120bに肉薄 PFN

                                            初の“長考”できる国産フルスクラッチLLM「PLaMo 3.0 Prime」 Qwen3-235Bやgpt-oss-120bに肉薄 PFN Preferred Networksは3月19日、既存モデルを下敷きにせず、ゼロベースで構築した大規模言語モデル「PLaMo 3.0 Prime」のβ版をリリースした。中国産モデル「DeepSeek R-1」などの開発手法を参考に、同様の形で開発したモデルとしては国内で初めて、長考によってクオリティーの高い回答(reasoning)が可能な機能を搭載した。現在、無償利用を前提にモニター企業を募っている。 ベンチマークでは日本語・英語による指示への追従性能や対話能力で「Qwen3-235B-A22B-Thinking-2507」や「gpt-oss-120b」(長考の程度は3段階で中)に勝り、医療・法令分野も肉薄。ただし数学や、英語ツールの利用性能のうち、

                                              初の“長考”できる国産フルスクラッチLLM「PLaMo 3.0 Prime」 Qwen3-235Bやgpt-oss-120bに肉薄 PFN
                                            • Qwen3-235BやQwen3-30B、Qwen3 Coder Flashは長コンテキストでの性能劣化が激しいのでは - きしだのHatena

                                              Qwen3のアップデートがいろいろ出ていて、ベンチマークですごい結果を出したりしています。 けど、実際に使うと全然そんな性能が出てる気しないです。 これたぶん、コンテキストが長くなったときの性能劣化が激しいんじゃないかと思います。 なので、ベンチマークや、ちょっとプロンプト一発投げて返答を見ると性能よさそうに見えるんだけど、実際に使うとダメということになるんだと思います。 Qwen3 30Bアップデートとコーディングモデル Qwen3のアップデートは、先日の235Bに続いて、30B-A3Bのnon-thinkingモデルと、それをベースにしたコーディングモデルが出ていました。 Qwen/Qwen3-30B-A3B-Instruct-2507 · Hugging Face Qwen/Qwen3-Coder-30B-A3B-Instruct · Hugging Face 235Bについては、な

                                                Qwen3-235BやQwen3-30B、Qwen3 Coder Flashは長コンテキストでの性能劣化が激しいのでは - きしだのHatena
                                              • プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 - Qiita

                                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。 僕は普段からローカルでAIモデルを動かすのが好きなんですけど、今回はLMStudioを使ってQwen3を自分のマシンで動かしてみました。クラウドAPIも便利ですけど、やっぱり自分のPCで動かせると、プライバシーの心配もないし、コスト管理もしやすいんですよね。それに、オフ

                                                  プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 - Qiita
                                                • 数学を解ける言語モデル「Qwen2-Math」が登場、GPT-4o超えの数学性能

                                                  中国のAI研究チームが数学特化の大規模言語モデル「Qwen2-Math」を公開しました。Qwen2-MathはGPT-4oやGemini-1.5-Proなどのクローズドソースの大規模言語モデルをしのぐ数学性能を備えています。 Introducing Qwen2-Math | Qwen https://qwenlm.github.io/blog/qwen2-math/ QwenLM/Qwen2-Math: A series of math-specific large language models of our Qwen2 series. https://github.com/QwenLM/Qwen2-Math Qwen2-Mathは、AlibabaグループのAI研究チーム「Qwen Team」が開発した大規模言語モデルで、数学問題の正答率の高さが特徴です。Qwen2-Mathは非常に高い

                                                    数学を解ける言語モデル「Qwen2-Math」が登場、GPT-4o超えの数学性能
                                                  • iPhoneやMacで重量級画像生成AIをローカル実行できる「Draw Things」を使ってみたよレビュー、Qwen Imageのような大型モデルも実行可能

                                                    「Draw Things」はiPhone・iPad・macOSに対応した無料の画像生成AIアプリで、多様なモデルを用いてローカルで生成処理を実行できます。Qwen Imageなどの大型モデルもiPhoneでローカル動作させられるとのことなので、実際に使ってみました。 Draw Things: AI-assisted Image Generation https://drawthings.ai/ 「Draw Things: Offline AI Art」をApp Storeで https://apps.apple.com/jp/app/draw-things-offline-ai-art/id6444050820 Draw ThingsはStable Diffusionの登場で画像生成AIに対する注目が一気に高まった2022年に開発されたアプリです。GIGAZINEでも登場初期にレビュー済み

                                                      iPhoneやMacで重量級画像生成AIをローカル実行できる「Draw Things」を使ってみたよレビュー、Qwen Imageのような大型モデルも実行可能
                                                    • オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能

                                                      中国・Alibabaグループが開発する大規模言語モデル(LLM)「Qwen」の研究チームが、コード生成や補完、数学の推論タスクに特化したLLM「Qwen2.5-Coder」の新モデルを2024年11月12日にリリースしました。Qwen2.5-Coderのコーディング機能はGPT-4oに匹敵し、パラメータ数も最大320億で、M2搭載MacBook Pro上でも実行できたことが報告されています。 Qwen2.5-Coder Series: Powerful, Diverse, Practical. | Qwen https://qwenlm.github.io/blog/qwen2.5-coder-family/ Qwen2.5-Coderは2024年10月にテクニカルレポートが発表されており、この時にパラメータ数15億(1.5B)のモデルと70億(7B)のモデルがオープンソースで公開されてい

                                                        オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能
                                                      • Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表

                                                        Alibabaの大規模言語モデル「Qwen」の研究チームが、コーディングに特化したエージェントモデル「Qwen3-Coder」を発表しました。パラメータ数4800億・アクティブパラメータ数350億のモデル「Qwen3-Coder-480B-A35B-Instruct」は、Claude Sonnet 4に匹敵する最先端の結果を達成しています。 Qwen3-Coder: Agentic Coding in the World | Qwen https://qwenlm.github.io/blog/qwen3-coder/ GitHub - QwenLM/Qwen3-Coder: Qwen3-Coder is the code version of Qwen3, the large language model series developed by Qwen team, Alibaba Cl

                                                          Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表
                                                        • Qwen3 Swallow

                                                          更新履歴2026-02-20: 初期バージョン(v0.2)を公開(v0.1は欠番となります)。2026-02-23: GPTQの量子化モデルで繰り返し生成が多く発生する傾向が見られるため、GPTQ版のモデルの公開を停止しました。性能8BモデルQwen3 Swallow 8B RLの性能を以下のLLMと比較しました。評価には大規模言語モデル評価フレームワークであるswallow-evaluation-instructを用いました。なお、この評価結果はSwallow LLM Leaderboard v2でもご覧いただけます(その他のLLMを比較に追加できます)。 Llama 3.1 Swallow 8B Instruct(Swallowチームが構築した最新の非推論型モデル)DeepSeek-R1-Distill-Llama-8B(DeepSeek R1をLlama 3.1 8Bに蒸留した推論型

                                                            Qwen3 Swallow
                                                          • Qwen3-Swallow & GPT-OSS-Swallow

                                                            はじめに 東京科学大学 修士2年の藤井です。 本日(2026/02/20)、Swallow LLM Projectから、Qwen3-Swallow-v0.2、GPT-OSS-Swallow-v0.1をリリースさせていただきました。これらのモデルは、それぞれAlibaba Qwen3とOpenAI GPT-OSSから日本語、英語、数学、コード、科学分野のデータセットを用いて、継続事前学習(Continual Pre-Training)、SFT(Supervised Fine-Tuning) を行い、その後、数学データセットを用いてRLVR(Reinforcement Learning with Verifiable Rewards) を行ったモデルになります。 従来のSwallowモデル同様に日本語能力の強化がなされていますが、本モデルは、Qwen3やGPT-OSSなどのTopクラスの性能を

                                                              Qwen3-Swallow & GPT-OSS-Swallow
                                                            • わずか数秒録音したサンプル音声でテキストを読み上げてくれる無料ツール「Voicebox」/Alibaba製の「Qwen3 TTS」をWindowsで手軽に体験【レビュー】

                                                                わずか数秒録音したサンプル音声でテキストを読み上げてくれる無料ツール「Voicebox」/Alibaba製の「Qwen3 TTS」をWindowsで手軽に体験【レビュー】
                                                              • Qwen、8GB環境で動く軽量AIモデル OpenAIに迫る衝撃性能

                                                                中国アリババグループのQwenチームは3月2日、AIモデルQwenシリーズ最新世代「Qwen3.5」小規模版を公開した。9B、4B、2B、0.8Bの4種類。モデルはオープンウェイトとして提供され、Hugging Faceなどからダウンロードできる。モデルはApache 2.0ライセンスで公開されており、商用利用も可能だ。 公表されたベンチマークスコアでは、Qwen3.5-9Bが一部項目でOpenAIの「GPT-OSS-120B」に迫る、あるいは上回るスコアを示す分野も見られた。特にGPQA DiamondやC-Eval、MMMLUなど知識・推論系ベンチマークで健闘している。 🚀 Introducing the Qwen 3.5 Small Model Series Qwen3.5-0.8B · Qwen3.5-2B · Qwen3.5-4B · Qwen3.5-9B ✨ More int

                                                                  Qwen、8GB環境で動く軽量AIモデル OpenAIに迫る衝撃性能
                                                                • Qwen3.6-35B-A3Bでコーディングエージェントを試してみる。小規模なら十分いける - きしだのHatena

                                                                  Qwen3.6-35B-A3Bが昨日出ていました。性能が高いといわれるQwen3.5-27Bをベンチマークで上回ってるということでコーディングエージェントを試したら、かなり実用的だった。 Qwen3.6-35B-A3B: Agentic Coding Power, Now Open to All コーディングエージェントでも、変更指示に適切に対応して、安定したコード操作で、gitでのコミットなども行って、セッションを新しくしてもコードを把握して作業を行えていた。つまり、基本的なところの問題がなかった。 コンテキストが伸びると繰り返しが出てくるようなのと、ちょっと仕様の把握やコーディングが甘いところがありそうなので、小規模であまり難しくないものとはなりそうだけど、そういった制約を踏まえて使えばかなり実用的。 16GB VRAM以上のGPUがあったり32GB以上のMacなど統合メモリなPCがあ

                                                                    Qwen3.6-35B-A3Bでコーディングエージェントを試してみる。小規模なら十分いける - きしだのHatena
                                                                  • キャラクターを維持したまま別のシチュエーションに描き直せる画像編集AI「Qwen-Image-Edit」が登場、文字の描き直しや「被写体の回転」も可能

                                                                    中国のIT企業・アリババ(阿里巴巴)のAI開発チームが、画像生成AI「Qwen-Image」に基づいて画像編集タスクを拡張し、キャラクターの元の見た目を維持したまま別の情景を描き出すことができる「Qwen-Image-Edit」を発表しました。 Qwen-Image-Edit: Image Editing with Higher Quality and Efficiency | Qwen https://qwenlm.github.io/blog/qwen-image-edit/ 🚀 Excited to introduce Qwen-Image-Edit! Built on 20B Qwen-Image, it brings precise bilingual text editing (Chinese & English) while preserving style, and su

                                                                      キャラクターを維持したまま別のシチュエーションに描き直せる画像編集AI「Qwen-Image-Edit」が登場、文字の描き直しや「被写体の回転」も可能
                                                                    • コスパの高いAIモデル「Qwen3-Next」登場、従来より10倍高速で同等以上の性能を実現

                                                                      中国の大手テクノロジー企業「Alibaba」のAI研究チームが低コストかつ高性能なAIモデル「Qwen3-Next」を開発して無料公開しました。Qwen3-Nextは従来モデルと比べて10分の1以下のコストでトレーニングされており、入力トークンが多い状況では10倍以上高速な推論処理が可能。それでいて、性能は従来モデルと同等以上で、一部のテストではGoogleのGemini-2.5-Flash-Thinkingを上回っているとアピールされています。 Qwen3-Next: Towards Ultimate Training & Inference Efficiency https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list Qwen3-Nex

                                                                        コスパの高いAIモデル「Qwen3-Next」登場、従来より10倍高速で同等以上の性能を実現
                                                                      • 新しいR1で蒸留されたDeepSeek-R1-0528-Qwen3-8Bを試す

                                                                        あ、ユーザーが日本語で挨拶してきた。 なんか良いですねw 生成し直してみても お、朝から日本語で挨拶が来た。ユーザーは多分日本の会社や学校関係かも? という調子なので、フランクな感じな味付けなんですね。 javascriptプログラミング 出力が長いこともあり具体的な内容は省略します。 テトリスを作成するには、以下のステップを考えます。 ゲームボードの作成: 通常は10列×20行ですが、テキストベースで表示するのではなく、HTML/CSSを使ってブロックを配置します。 テトロミノの種類と形状: 7つのテトロミノ(I, J, L, O, S, T, Z)とその回転形を定義します。 ゲームの制御: ユーザーがブロックを操作して落下させ、満タンした行を消去し、新しいブロックが床に当たるまで続ける仕組みです。 スコアリングとゲームオーバーの判定。 thinkタグ内は日本語で生成は14秒ほどと簡潔な

                                                                          新しいR1で蒸留されたDeepSeek-R1-0528-Qwen3-8Bを試す
                                                                        • Qwen3.5の小規模モデル(4B / 2B / 0.8B)がいろいろ使えてすごい - きしだのHatena

                                                                          Qwen3.5の小規模モデル、4B / 2B / 0.8Bについて試してみます。 画像認識精度の高さもあって、かなり便利に使えそうです。 LM Studio CommunityのGGUFで、Q4_K_Mを試しています。0.8BについてはQ8_0。 画像エンコーダーの影響で2BはQ4_K_MとQ8_0のサイズがあまり変わらないので、Q8_0で試してもよかった。 (9Bに関しては別枠で) Thinkingのオフ 今回、コーディング以外ではThinkingをオフにしてます。 LM Studioで動かす場合だと、35Bと9BはThinkingのON/OFFに対応したモデルが出てるけど、それ以外はプロンプトテンプレートでenable_thinkingで切り替える必要があります。 現状で、0.8Bと2BはデフォルトでOFF、4BはデフォルトでONなので、4BでThinkingをOFFにするには次の指定

                                                                            Qwen3.5の小規模モデル(4B / 2B / 0.8B)がいろいろ使えてすごい - きしだのHatena
                                                                          • Qwen3、GLM、GPT-ossなどクソデカ言語モデルを試したところGLM-4.5-Airがお気に入り - きしだのHatena

                                                                            Mac Studioを借りたのでいろいろクソデカ言語モデルを試したところ、GLM-4.5-Airがいいなとなってます。 試したモデルこちら。 モデル パラメータ数 アクティブ thinking 画像 時期 URL GPT-oss 120B 120B 5B o x 2025/8 OpenAI hf link Qwen3 235B-A22B-2507-thinking 235B 22B o x 2025/8 Alibaba hf link Qwen3-VL 235B-A22B-thinking 235B 22B o o 2025/9 Alibaba hf link Qwen3-Next-80B 80B 3B o x 2025/9 alibaba hf link Qwen3 Coder 480B 480B 35B x x 2025/7 alibaba hf link Qwen3 Coder 30

                                                                              Qwen3、GLM、GPT-ossなどクソデカ言語モデルを試したところGLM-4.5-Airがお気に入り - きしだのHatena
                                                                            • GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億

                                                                              中国のAlibabaが開発する大規模言語モデル(LLM)ファミリーのQwenに、「Qwen3」が登場しました。Qwen3には2つの混合エキスパート(MoE)モデルと、6つのDenseモデルが含まれており、パラメーターサイズは6億から2350億までと非常に幅広いです。 Qwen3: Think Deeper, Act Faster | Qwen https://qwenlm.github.io/blog/qwen3/ GitHub - QwenLM/Qwen3: Qwen3 is the large language model series developed by Qwen team, Alibaba Cloud. https://github.com/QwenLM/Qwen3 Alibaba unveils Qwen3, a family of 'hybrid' AI reasonin

                                                                                GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億
                                                                              • gpt-oss-20bを凌駕する軽量AI「GLM-4.7-Flash」、3秒の音声からボイスクローンを生成できて商用利用可の音声AI「Qwen3-TTS」、など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                                この1週間の気になる生成AI技術・研究をいくつかピックアップして解説する今回の「生成AIウィークリー」(第129回)は、3秒の音声でボイスクローンを生成する多言語対応の音声合成AIモデル「Qwen3-TTS」や、2D映像から4次元(3D空間+時間)で再構築・追跡するGoogle開発AIモデル「D4RT」を取り上げます。 また、役割と声質を同時に指定できるNVIDIA開発の音声対話AI「PersonaPlex」や、gpt-oss-20bを凌駕する性能の中国発軽量AI「GLM-4.7-Flash」をご紹介します。 そして、生成AIウィークリーの中でも特に興味深いAI技術や研究にスポットライトを当てる「生成AIクローズアップ」では、AIが数学の未解決問題「エルデシュ問題」を次々と解決している状況が記録されている、フィールズ賞受賞者テレンス・タオが管理するGitHubページを別の単体記事で取り上げ

                                                                                  gpt-oss-20bを凌駕する軽量AI「GLM-4.7-Flash」、3秒の音声からボイスクローンを生成できて商用利用可の音声AI「Qwen3-TTS」、など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                                • DeepSeekにほぼ並ぶ性能を実現したオープンソースのAIモデル「QWQ-32B」をQwenが公開、誰でも無料で動かせるデモページも公開中

                                                                                  Alibaba CloudのAI研究チームであるQwenが、AIモデル「QWQ-32B」を2025年3月6日にリリースしました。320億パラメーターのモデルでありながら6710億パラメーターのDeepSeek-R1と同等の性能を持つとされています。 QwQ-32B: Embracing the Power of Reinforcement Learning | Qwen https://qwenlm.github.io/blog/qwq-32b/ DeepSeek-R1は強化学習(RL)を活用することで従来の事前トレーニングおよび事後トレーニングの方法を超えて高いパフォーマンスを発揮しています。あまりにも性能が高かったため、2025年1月にDeepSeek-R1が登場した際にはNVIDIAの時価総額が91兆円も下がるなど大きな混乱を引き起こしました。 DeepSeekはなぜこんな大騒ぎにな

                                                                                    DeepSeekにほぼ並ぶ性能を実現したオープンソースのAIモデル「QWQ-32B」をQwenが公開、誰でも無料で動かせるデモページも公開中

                                                                                  新着記事