並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

modelscope apiの検索結果1 - 16 件 / 16件

  • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

    複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIのEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした要約結果をClaude3 Sonnet

      Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
    • Qwen3 の概要|npaka

      以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3本日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

        Qwen3 の概要|npaka
      • Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表

        Alibabaの大規模言語モデル「Qwen」の研究チームが、コーディングに特化したエージェントモデル「Qwen3-Coder」を発表しました。パラメータ数4800億・アクティブパラメータ数350億のモデル「Qwen3-Coder-480B-A35B-Instruct」は、Claude Sonnet 4に匹敵する最先端の結果を達成しています。 Qwen3-Coder: Agentic Coding in the World | Qwen https://qwenlm.github.io/blog/qwen3-coder/ GitHub - QwenLM/Qwen3-Coder: Qwen3-Coder is the code version of Qwen3, the large language model series developed by Qwen team, Alibaba Cl

          Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表
        • Gemini 3.1 Pro超えの中国製AIモデル「MiniMax M2.7」が無料公開される

          中国に拠点を置くAI開発企業のMiniMaxが2290億パラメーターの自社製AIモデル「MiniMax M2.7」をHugging FaceやModelScopeで無料公開しました。当該モデルは2026年3月18日に発表されていたもので、エージェント性能の高さがアピールされています。 GitHub - MiniMax-AI/MiniMax-M2.7 · GitHub https://github.com/MiniMax-AI/MiniMax-M2.7 We're delighted to announce that MiniMax M2.7 is now officially open source. With SOTA performance in SWE-Pro (56.22%) and Terminal Bench 2 (57.0%). You can find it on Hugg

            Gemini 3.1 Pro超えの中国製AIモデル「MiniMax M2.7」が無料公開される
          • 手軽に最新LLM!OllamaとQwen3でローカルAI環境を構築する方法 - Qiita

            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? こんにちわ、kaitoです。最近、AIの世界がまた一段と面白くなってきたよな。特に、ローカル環境でサクッと大規模言語モデル(LLM)を動かせるツールが出てきてから、俺たちの開発スタイルも変わりつつある。 今回は、巷で噂のQwen3っていうLLMを、俺のマシンで動かしてみた話をしようと思う。しかも、手軽に使えるOllamaと、APIテストでお世話になってるApidogを組み合わせてみたんだ。クラウドAPIも便利だけど、やっぱり自分のPCで動かすと、なんかこう、手に馴染む感じがしていいんだよな。プライバシーも守れるし、オフラインでも使えるっ

              手軽に最新LLM!OllamaとQwen3でローカルAI環境を構築する方法 - Qiita
            • 【ローカルLLM】Qwen3を使ってみた話【中国最新AI】|Catapp-Art3D

              はじめにOllamaで大規模言語モデルQwen3が利用可能になったので利用してみました。日本語も公式対応しています。 ただし、筆者の主力GPUであるRTX 3060はFramepack「叡智」版のテストに利用しているので、GTX 1660ti+1650上でのQwen3 8B版の動作確認です。 上記ページをQwen3 8B版で日本語要約しました。 Thought for 22 seconds このドキュメントは、Qwenチームが最新の大規模言語モデル「Qwen3」を発表した内容をまとめています。以下に要約します: 【モデル概要】 Qwen3は、2350億パラメータの大規模モデル(Qwen3-235B-A22B)と、300億パラメータのMoEモデル(Qwen3-30B-A3B)を含むファミリーです。また、4B、8B、14B、32Bなど、さまざまなサイズの密集型モデルも提供され、すべてApach

                【ローカルLLM】Qwen3を使ってみた話【中国最新AI】|Catapp-Art3D
              • Gemma4より高性能な中華AI「Qwen3.6-35B-A3B」がオープンモデルとして公開される

                中国のAI企業・AlibabaのAI研究チームであるQwen(Tongyi Lab)が2026年4月2日に「Qwen3.6-Plus」を発表し、シリーズ最初のオープンモデル「Qwen3.6-35B-A3B」を2026年4月15日に公開しました。Qwen3.6-35B-A3Bは効率性が高く優れたエージェントコーディング性能を発揮するモデルで、Googleのオープンモデル群であるGemma 4よりも高性能とアピールされています。 Qwen3.6-35B-A3B: Agentic Coding Power, Now Open to All https://qwen.ai/blog?id=qwen3.6-35b-a3b Qwen3.6-35B-A3B on my laptop drew me a better pelican than Claude Opus 4.7 https://simonwi

                  Gemma4より高性能な中華AI「Qwen3.6-35B-A3B」がオープンモデルとして公開される
                • QwQ-32B: Embracing the Power of Reinforcement Learning

                  March 6, 2025 · 4 min · 742 words · Qwen Team | Translations:简体中文 QWEN CHAT Hugging Face ModelScope DEMO DISCORD Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve the reasoning capabilities of models. For instance, DeepSeek R1 has achieved s

                  • GitHub - hiyouga/LlamaFactory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)

                    [25/10/26] We support Megatron-core training backend with mcore_adapter. See PR #9237 to get started. [25/08/22] We supported OFT and OFTv2. See examples for usage. [25/08/20] We supported fine-tuning the Intern-S1-mini models. See PR #8976 to get started. [25/08/06] We supported fine-tuning the GPT-OSS models. See PR #8826 to get started. Full Changelog [25/07/02] We supported fine-tuning the GLM

                      GitHub - hiyouga/LlamaFactory: Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)
                    • anotherjesse/zeroscope-v2-xl – Run with an API on Replicate

                      Run time and cost This model costs approximately $0.15 to run on Replicate, or 6 runs per $1, but this varies depending on your inputs. It is also open source and you can run it on your own computer with Docker. This model runs on Nvidia A100 (80GB) GPU hardware. Predictions typically complete within 107 seconds. The predict time for this model varies significantly based on the inputs. A watermark

                        anotherjesse/zeroscope-v2-xl – Run with an API on Replicate
                      • Qwen2.5: A Party of Foundation Models!

                        We have a new blog! View this page at qwen.ai.This page will automatically redirect in 5 seconds. If you are not redirected automatically, please click the button below. GITHUB HUGGING FACE MODELSCOPE DEMO DISCORD Introduction#In the past three months since Qwen2’s release, numerous developers have built new models on the Qwen2 language models, providing us with valuable feedback. During this peri

                        • Alibaba発のOpenClaw風AIエージェント「CoPaw」がオープンソース化される、MCP対応でClawHubのスキルも利用可能

                          AlibabaのAI部門が開発したパーソナルAIアシスタント「CoPaw」がオープンソース化されました。CoPawはWindows・macOS・Linuxにインストール可能で、ローカルAIモデルを実行して各種タスクを実行させられます。また、ClawHubで公開されているスキルを導入して自分専用にカスタムすることもできます。 CoPaw — Works for you, grows with you. https://copaw.agentscope.io/ 1/4 We are thrilled to announce that CoPaw is now open source! After an incredible wave of feedback, our team has completely overhauled the engine to give you full contr

                            Alibaba発のOpenClaw風AIエージェント「CoPaw」がオープンソース化される、MCP対応でClawHubのスキルも利用可能
                          • Tongyi DeepResearch: A New Era of Open-Source AI Researchers

                            September 16, 2025 · 12 min · 2515 words · DeepResearch Team, Tongyi Lab | Translations:中文 GITHUB HUGGINGFACE MODELSCOPE SHOWCASE From Chatbot to Autonomous Agent#We are proud to present Tongyi DeepResearch, the first fully open‑source Web Agent to achieve performance on par with OpenAI’s DeepResearch across a comprehensive suite of benchmarks. Tongyi DeepResearch demonstrates state‑of‑the‑art res

                            • 「Qwen3.5 Mediumモデル」を試す

                              🚀 Qwen 3.5 Medium モデルシリーズの紹介 Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B ✨ より高い知能、より少ない計算リソース。 Qwen3.5-35B-A3B は現在、Qwen3-235B-A22B-2507 および Qwen3-VL-235B-A22B を上回っています — より優れたアーキテクチャ、データ品質、RL が知能を前進させることを思い出させます。パラメータ数の増大だけがすべてではありません。 Qwen3.5-122B-A10B および 27B は、中規模モデルと最先端モデルとのギャップをさらに縮め続けています — 特に、より複雑なエージェントシナリオにおいて顕著です。 Qwen3.5-Flash は、35B-A3B に準拠したホストされたプロダクションバージョンで、以下

                                「Qwen3.5 Mediumモデル」を試す
                              • 「Qwen3.6-35B-A3B」を試す

                                UnslothからGGUFがもう出てる。 Qwen3.6-35B-A3B が今やローカルで実行可能になりました!💜 このモデルは、ほぼすべてのベンチマークで最も強力な中規模LLMです。 Unsloth Dynamic GGUFs を使用して 23GB RAM で実行可能です。 実行する GGUFs: https://huggingface.co/unsloth/Qwen3.6-35B-A3B-GGUF ガイド: https://unsloth.ai/docs/models/qwen3.6 公式ブログ Dia によるまとめ。 このページの内容ざっくり言うと、「めちゃ効率いいデカめのオープンソースAIモデルを出したよ、その名は Qwen3.6‑35B‑A3B」って話だよ。 1. そもそも Qwen3.6‑35B‑A3B って何? ざっくり分解すると: 「Qwen3.6‑35B‑A3B」は A

                                  「Qwen3.6-35B-A3B」を試す
                                • GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI

                                  ComfyUI-Gemini_Flash_2.0_Exp (⭐+172): A ComfyUI custom node that integrates Google's Gemini Flash 2.0 Experimental model, enabling multimodal analysis of text, images, video frames, and audio directly within ComfyUI workflows. ComfyUI-ACE_Plus (⭐+115): Custom nodes for various visual generation and editing tasks using ACE_Plus FFT Model. ComfyUI-Manager (⭐+113): ComfyUI-Manager itself is also a cu

                                    GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI
                                  1