並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 73件

新着順 人気順

github ollama python apiの検索結果1 - 40 件 / 73件

  • ローカルRAGを手軽に構築できるMCPサーバを作りました

    はじめに 最近話題のMCP(Model Context Protocol)記事です。MCPに関しては、同僚の李さんが素晴らしい記事を書いてくださいましたので、MCP自体の概要に関しては以下記事参照ください(お約束)。 今回は、LLMの代表的なユースケースとも言えるRAG(Retrieval-Augmented Generation)です。RAGはドキュメントから関連情報を検索し、AIの回答生成に活用する技術で、専門知識や最新情報を必要とするタスクに使われます。以前にTanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築という記事でローカルRAGの構築について説明したので詳しくはそちらを参照してください。簡単なRAGの構成図としては以下となります(記事より引用)。 今回は、このRAGをMCPを使って実現します。つくるMCPサーバの中身としてはPostgreSQLでベクトル

      ローカルRAGを手軽に構築できるMCPサーバを作りました
    • Apple SiliconでAIやっている人に朗報です。vllm-mlxが凄い。 - Qiita

      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近インパクトの大きいApple Silicon向けフレームワークが出現しました。「vllm-mlx」です。 一言で言うとvllmライクなインターフェースをApple Silicon向けに提供するもので、MacのGPU(Metal/MPS)アクセラレーションによるテキスト、画像、ビデオ、オーディオに対応してます。既存のmlx,mlx-lm,mlx-vlm,mlx-audioを全てvllmライクなインターフェース対応にします。今回はこのvllm-mlxの使い方を紹介します。 1. vllm-mlxの概要 特長: ・マルチモーダル - テキ

        Apple SiliconでAIやっている人に朗報です。vllm-mlxが凄い。 - Qiita
      • 歴代チャットボットと最近のLLMのまとめ - Qiita

        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? LLMs The History of Chatbots ELIZA (1966) 初期の人工知能プログラムのひとつ。 ルールベースの簡単なパターンマッチングで返答していた。 心理療法士の会話を模したELIZA(DOCTOR)が有名。 PARRY (1972) PARRYは偏執病的統合失調症患者をシミュレートしようとしたもの。 ELIZA(DOCTOR)と通信し話題となった。 Jabberwacky (1982, 1988, 1997) ユーモラスな人間同士の自然な会話をシミュレートすることを目的としていた。 ユーザーとの会話の大規模な

          歴代チャットボットと最近のLLMのまとめ - Qiita
        • 【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい

          8月19日、海外の技術情報メディアTheRegisterが「自分で作ればGitHub Copilotは不要」と題した記事を公開した。この記事では、オープンソースのAIコードアシスタント「Continue」を中心に、どのようにしてLLM(大規模言語モデル)をローカル環境で実行し、IDEに統合するかについて解説している。 Continueをインストールする前提条件 Continueをインストールし、動作させるには、以下の前提条件を満たす必要がある。 マシン要件: 動作に必要なマシン: 近年のプロセッサを搭載したシステムであれば動作するが、最適なパフォーマンスを得るためにはNvidia、AMD、またはIntelのGPU(6GB以上のvRAMを推奨)が望ましい。Apple Silicon搭載のMacでも動作するが、16GB以上のメモリを推奨する。 Ollamaモデルランナー: Ollamaモデルラ

            【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい
          • Vimの操作感を愛おしむ人たちへ: Zedで広がる新たな可能性 - ROUTE06 Tech Blog

            ソフトウェア開発の世界は日々進化していますね。その中で、私たち開発者が使うツールは、まさに職人の道具のように大切なもの。常により良い方法を探し求めているのは、皆さん同じではないでしょうか。 そんな私たちの前に現れたのが、Zedです。このエディタ、一見するとただの新顔に思えるかもしれません。でも、その中身は、私のようなVimmerの心をしっかりと掴みました。なぜならZedは、Vimの精神や操作感を大切にしながら、現代のテクノロジーを駆使して作られているからです。 私は1年ほど前からZedを使い始め、すぐにルックやデザイン、全ての動作が期待通りかつ、速く完了する様子に魅了され、使い続けています。 筆者のZedのキャプチャ 機能的にはVSCodeが優れているし、AI Code EditorのCursorも盛り上がっていますが、もっと速く、たくさんコードを書きたい開発者の方にはZedという選択肢が

              Vimの操作感を愛おしむ人たちへ: Zedで広がる新たな可能性 - ROUTE06 Tech Blog
            • ローカル環境でコード生成を使いたい 〜Continue+Llama.cpp+ELYZA-japanese-CodeLlamaを試してみた〜 - GMOインターネットグループ グループ研究開発本部

              2024.01.12 ローカル環境でコード生成を使いたい 〜Continue+Llama.cpp+ELYZA-japanese-CodeLlamaを試してみた〜 ご覧頂きありがとうございます。グループ研究開発本部 AI 研究開発室の N.M.と申します。 ChatGPTをはじめAIに関する大きなムーブメントの起きた激動の2023年が終わり、2024年が始まりました。我々AI研究開発室も日々AI技術を追いかけています。昨年から話題になることの多いGitHub Copilotもその一つであり、特にコードの補完は非常に使い勝手もよく開発や解析のサポートに使うことができます。今回はなるべくローカルに閉じた状態で近しい環境が作れないか試してみたことを紹介します。最後までご覧いただければ幸いです。 TL;DR VSCodeのExtensionであるContinueとELYZA-japanese-Cod

              • OpenClawライクなソフトをまとめてみた

                OpenClawが310K starsを超え、AIパーソナルアシスタント界隈が盛り上がっています。OpenClaw以外にも「Claw系」と呼ばれる派生プロジェクトや、独立系のCLIコーディングエージェントが数多く登場しています。 この記事では、OpenClaw的なソフト(パーソナルAIアシスタント&CLIコーディングエージェント)を個人的にまとめました。自分が使っているものや調査で見つけたものを、カテゴリ別に紹介します。 OpenClaw OpenClawは、オーストリアのソフトウェアエンジニアPeter Steinbergerが2025年11月に週末プロジェクトとして作ったパーソナルAIアシスタントです。もともと「Clawdbot」という名前でしたが、Anthropicから商標の指摘を受けて「Moltbot」→「OpenClaw」と改名した経緯があります。 メッセージングアプリ(Disc

                  OpenClawライクなソフトをまとめてみた
                • AIがペネトレーションテストを自動化する時代が来た——2026年の主要ツールまとめ

                  AIペンテストツールが急に増えた 最近、タイムラインにAIペネトレーションテストの話がやたら出てくる。 1年前はPentestGPTぐらいしかなかった。それが2025年の後半から急に増えて、2026年2月の時点でオープンソースだけで8つ以上、商用サービスも5つ以上ある。 なんでこんなに急に増えたのか。まず、LLMがかなり賢くなって、セキュリティツールとの連携の仕方が固まってきた。NmapやMetasploit、SqlmapといったツールをAIエージェントが自分で選んで回せるようになった。つまり、作る側の準備が整った。 もう1つは、テストしなきゃいけないコードが一気に増えたこと。バイブコーディングで、プログラミングの経験があまりなくてもプロダクトを作れるようになった。そのぶん、セキュリティの穴があるアプリも増えている。人間のペンテスターだけじゃとても回らない。ツールを作れるようになった側と、

                    AIがペネトレーションテストを自動化する時代が来た——2026年の主要ツールまとめ
                  • VSCodeの時代は終わった?次世代エディタ Zed Editor 完全ガイド

                    体感でも明らかに違います。VSCodeで「重い」と感じていたプロジェクトを開いても、Zedではサクサク動きます。ノートPCのバッテリー持ちにも大きく影響するポイントです。 Zed Editorのメリット 1. 圧倒的なパフォーマンス Rustで書かれたネイティブアプリケーションなので、Electronの重さとは無縁です。大規模なコードベースを開いても、検索やファイル切り替えが瞬時に完了します。 2. ネイティブAI統合 VSCodeではGitHub CopilotやCursorなどの拡張に頼る必要がありますが、ZedにはAI機能がビルトインで搭載されています。 Agent Panel: AIがファイル編集・ターミナル操作・リンター実行まで自律的に行うエージェント機能 Edit Predictions (Zeta): オープンソースの予測モデルによるコード補完 Inline Assistan

                      VSCodeの時代は終わった?次世代エディタ Zed Editor 完全ガイド
                    • Qwen3 の概要|npaka

                      以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3本日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

                        Qwen3 の概要|npaka
                      • Clineを使用した次世代AIコーディング。もうCursorは要らない? - Qiita

                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? AI コーディングとは ChatGPT や Claude, Perplexity など の AI にコードを生成してもらうことは既に一般化しているかと思います。各サービスの Web サイトにチャット形式でやり取りしてコードを生成し、それをエディターなどにコピーアンドペーストして実行できて便利です。 しかし、直接 VSCode で AI とやり取りできたらもっと便利ではないでしょうか?ブラウザとエディタを何度も行き来し、コピーアンドペーストを繰り返す必要がなくなり、差分だけ提示されたのをどうマージすればいいのか考える必要もなくなります。

                          Clineを使用した次世代AIコーディング。もうCursorは要らない? - Qiita
                        • 一日でできる! オリジナルのローカルLLMの作り方【データ合成からLM Studioまで】|Holy_fox

                          はじめにこの記事では効率的な合成データ生成からそのデータを学習したモデルのGGUF変換、OllamaやLM Studioでの推論まで行います。 データ合成にはSDG LOOM、学習にはUnsloth Studio、推論にはLM Studioを用います。 これを理解すれば誰でもオリジナルのLLMを作成することができます。 今回は「小説生成ローカルモデル」を例に挙げて作成を行います。 それでは初めて行きましょう。 合成データの作り方このステップでは、LLMを用いた合成データを作ります。 オリジナルのLLMを作成するにあたって、1番大事なのは合成データです。 どのようなデータを作り、そしてそれを用いてどのような大規模言語モデルを目指すのかを決定するのがこのフェーズになります。 合成データを作るにあたって、以下の3つの点が大切だと個人的に思っています。 ・データの品質 ・コストパフォーマンス そし

                            一日でできる! オリジナルのローカルLLMの作り方【データ合成からLM Studioまで】|Holy_fox
                          • Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」 - Qiita

                            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」を作った はじめに 研究活動をしていると「今日何をしていたっけ?」「あのタスクに何時間費やしたっけ?」と疑問に思うことがよくあります。 いちいち記録するのは面倒だし、かといって全画面録画を見返すのも現実的ではありません。 そこで、Windowsの画面を一定間隔でキャプチャし、AIに「今何をしているか」を解析させ、Markdown形式の日報を自動生成するツール Miru-Log を自作しました。 Windows 10/11 で動作します。 このアイデ

                              Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」 - Qiita
                            • gpt-oss の使い方|npaka

                              以下の記事が面白かったので、簡単にまとめました。 ・Welcome GPT OSS, the new open-source model family from OpenAI! 1. gpt-oss「gpt-oss」は、OpenAIによる待望のオープンウェイトリリースであり、強力なReasoning、エージェントタスク、そして多様な開発者ユースケース向けに設計されています。117Bのパラメータを持つ大規模モデル「gpt-oss-120b」と、21Bのパラメータを持つ小規模モデル「gpt-oss-20b」の2つのモデルで構成されています。どちらも「MoE」(Mixture-of-Experts) であり、MXFP4を使用することで、リソース使用量を抑えながら高速推論を実現します。大規模モデルは単一のH100 GPUに収まり、小規模モデルは16GBのメモリ内で動作し、コンシューマーハードウェア

                                gpt-oss の使い方|npaka
                              • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

                                Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

                                  GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
                                • オープンソースのRAG UI「kotaemon」を試す

                                  2024/11/01追記 GraphRAGの実装に、nano-graphragが追加されたようです。 https://x.com/kagamih/status/1852282744694587509 MSのGraphRAGよりもコンパクトに使えると思うので、個人的にはそちらをオススメします(まだ試していませんが) nano-graphragを元にしたLightRAGについては以下にまとめてます。 https://zenn.dev/kun432/scraps/1f28e5d20dfdf5 あと下に書いてる不具合も確かもう直ってると思うけど、実際に試していないのと、nano-graphragのほうがいいかなと思うので、もはや本記事はobsoleteということで。 2024/09/03追記 ちょっとX経由で見に来ていただいた方が増えているようなのであらかじめ注意。 kotaemonで普通のRAG

                                    オープンソースのRAG UI「kotaemon」を試す
                                  • 8GBメモリでOK!Raspberry Pi 5で使える日本語対応ローカルLLM一覧 - uepon日々の備忘録

                                    以前のエントリなどでも触れていましたが、Raspberry Pi 5(8GB RAM)でリアルタイム対話可能な日本語LLMは実現可能となりつつあります。それも、特別なハードウェアを使用することなしにです。 これは、1B〜3Bパラメータのモデルでもかなり優秀になってきているからです。そのなかでもGemma3:1b、TinySwallow-1.5B(日本語特化)、Qwen2.5:1.5b〜3bといったモデルが有力な候補となるでしょう。 (7Bクラスは動作はしますがかなり遅く実用性に難あり) また、プラットフォーム的な話としては、llama.cppはOllamaより10〜20%高速ですが、セットアップの容易さではOllamaが優れています。Ollamaで試してみて、更なる高速化が必要となればllama.cppに乗り換えるというのがいいかもしれません。 今回想定しているハードウェア・OSの要件 R

                                      8GBメモリでOK!Raspberry Pi 5で使える日本語対応ローカルLLM一覧 - uepon日々の備忘録
                                    • バグバウンティにおけるLLMの活用事例 - blog of morioka12

                                      1. 始めに こんにちは、morioka12 です。 本稿では、バグバウンティの脆弱性調査で使われている LLM の活用事例について少し紹介します。 1. 始めに 免責事項 2. LLM の活用事例 SimonW「LLM」 3. Recon CewlAI Subwiz ffufai Crawl4AI Athena WARC-GPT 4. Browser Extension Nuclei AI Extension 5. Web Proxy Plugin Shift (Caido) Caido403Bypasser (Caido) BurpGPT (Burp Suite) Add: Montoya API (Burp Suite) Hackvertor 6. ChatGTP Plugin PentestGPT Bug Hunter GPT Bounty Plz 7. 講演動画 Bug Boun

                                        バグバウンティにおけるLLMの活用事例 - blog of morioka12
                                      • 型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog

                                        はじめに こちらはABEJAアドベントカレンダー2024 12日目の記事です。 こんにちは、ABEJAでデータサイエンティストをしている坂元です。最近はLLMでアプローチしようとしていたことがよくよく検証してみるとLLMでは難しいことが分かり急遽CVのあらゆるモデルとレガシーな画像処理をこれでもかというくらい詰め込んだパイプラインを実装することになった案件を経験して、LLMでは難しそうなことをLLM以外のアプローチでこなせるだけの引き出しとスキルはDSとしてやはり身に付けておくべきだなと思うなどしています(LLMにやらせようとしていることは大抵難しいことなので切り替えはそこそこ大変)。 とはいうものの、Agentの普及によってより複雑かつ高度な推論も出来るようになってきています。弊社の社内外のプロジェクト状況を見ていても最近では単純なRAG案件は減りつつあり、計画からアクションの実行、結果

                                          型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog
                                        • Announcing .NET 10 - .NET Blog

                                          Today, we are excited to announce the launch of .NET 10, the most productive, modern, secure, intelligent, and performant release of .NET yet. It’s the result of another year of effort from thousands of developers around the world. This release includes thousands of performance, security, and functional improvements across the entire .NET stack-from languages and developer tools to workloads-enabl

                                            Announcing .NET 10 - .NET Blog
                                          • 2025: The year in LLMs

                                            31st December 2025 This is the third in my annual series reviewing everything that happened in the LLM space over the past 12 months. For previous years see Stuff we figured out about AI in 2023 and Things we learned about LLMs in 2024. It’s been a year filled with a lot of different trends. The year of “reasoning” The year of agents The year of coding agents and Claude Code The year of LLMs on th

                                              2025: The year in LLMs
                                            • GitHub - microsoft/data-formulator: 🪄 Create rich visualizations with AI

                                              [12-08-2025] Data Formulator 0.5.1 — Connect more, visualize more, move faster 🔌 Community data loaders: Google BigQuery, MySQL, Postgres, MongoDB 📊 New chart types: US Map & Pie Chart (more to be added soon) ✏️ Editable reports: Refine generated reports with Chartifact in markdown style. demo ⚡ Snappier UI: Noticeably faster interactions across the board [11-07-2025] Data Formulator 0.5: Vibe w

                                                GitHub - microsoft/data-formulator: 🪄 Create rich visualizations with AI
                                              • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                                Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                                  GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                                • Wasm-agents: AI agents running in your browser

                                                  One of the main barriers to a wider adoption and experimentation with open-source agents is the dependency on extra tools and frameworks that need to be installed before the agents can be run. In this post, we introduce the Wasm agents blueprint, aimed at showing how to write agents as HTML files, which can just be opened and run in a browser, without the need for any extra dependencies. This is s

                                                    Wasm-agents: AI agents running in your browser
                                                  • Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】

                                                    はじめに:この記事について この記事はModel Context Protocol (MCP)という、2024年11月にAnthropicが発表した新しいAIエージェント接続プロトコルについて、その基本概念から実践的な活用方法まで包括的に解説します。特にMicrosoftのAzure AI Foundryとの連携を中心に、具体的なハンズオン手順を通じてMCPの可能性と実用性を探ります。 また、本記事は2部構成となっております。 Part2は以下です。 この記事で学べること MCPの基本概念とアーキテクチャを理解できる クラウドとローカル環境の両方でMCPを実装する方法を学べる Azure AI Foundryとの連携手順を通じて実践的なスキルを身につけられる エンタープライズ環境でのMCP活用におけるセキュリティ考察を理解できる MCP登場から約4ヶ月の2025年3月現在、MCPは急速に業

                                                      Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】
                                                    • March 2025 (version 1.99)

                                                      Update 1.99.1: The update addresses these security issues. Update 1.99.2: The update addresses these issues. Update 1.99.3: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the March 2025 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key highligh

                                                        March 2025 (version 1.99)
                                                      • GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                                        🚀 Effortless Setup: Install seamlessly using Docker or Kubernetes (kubectl, kustomize or helm) for a hassle-free experience with support for both :ollama and :cuda tagged images. 🤝 Ollama/OpenAI API Integration: Effortlessly integrate OpenAI-compatible APIs for versatile conversations alongside Ollama models. Customize the OpenAI API URL to link with LMStudio, GroqCloud, Mistral, OpenRouter, and

                                                          GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
                                                        • Firebase Studio lets you build full-stack AI apps with Gemini | Google Cloud Blog

                                                          Millions of developers use Firebase to engage their users, powering over 70 billion instances of apps every day, everywhere — from mobile devices and web browsers, to embedded platforms and agentic experiences. But full-stack development is evolving quickly, and the rise of generative AI has transformed not only how apps are built, but also what types of apps are possible. This drives greater comp

                                                            Firebase Studio lets you build full-stack AI apps with Gemini | Google Cloud Blog
                                                          • 1.15GBで8Bモデルが動く「1-bit Bonsai」をMacで試した|kazu@生成AI×教育 / 谷 一徳 | AI Academy

                                                            こんにちは、kazuです。 先日PrismMLから発表された1-bit Bonsai 8Bを自分のMac(M3 Pro / 36GB)で試してみました。 結論から言うと、たった1.15GBのモデルで生成速度65tok/sec。通常の8Bモデル(16GB前後)の1/14のサイズとは思えない速さです。 この記事では、Macへの導入手順と実際の使用感を紹介します。 1-bit BonsaiとはPrismMLというCaltech発のAIラボが開発した、全重みを1ビットで表現したLLMです。 通常のLLMは16ビット(FP16)で重みを保持しますが、Bonsaiは各重みを -1, +1 の2値だけで表現します。1ビット重みにより掛け算を大幅に減らせる構造で、メモリもエネルギーも大幅に削減されます。現時点の速度向上は主にメモリフットプリントの削減によるもので、1ビット構造のフル活用は今後に期待されてい

                                                              1.15GBで8Bモデルが動く「1-bit Bonsai」をMacで試した|kazu@生成AI×教育 / 谷 一徳 | AI Academy
                                                            • Qwen3.5 Smallシリーズ完全ガイド — 0.8Bから9Bまで、ローカルLLMの新時代が来た|zephel01

                                                              はじめに:なぜ今「小さいモデル」が熱いのか2026年2月、Alibaba CloudのQwenチームがQwen3.5を発表しました。注目を集めたのは397Bパラメータの巨大なフラッグシップモデルだけではありません。同時にリリースされた「Smallシリーズ」——0.8B、2B、4B、9Bの4つの小型モデルが、ローカルLLMの世界に静かな衝撃を与えています。 さらに、量子化の最適化で知られるUnslothがDay Zeroアクセスを得て、これらのモデルのGGUF量子化版を即座に公開。3〜4bit量子化によって、手元のノートPCやコンシューマGPUで実用的に動かせる世界が現実のものになりました。 この記事では、Qwen3.5 Smallシリーズの技術的な革新から、各サイズの具体的なユースケース、そしてUnslothの量子化による実用的なVRAM要件まで、ローカルLLMに関心のあるすべての人に向け

                                                                Qwen3.5 Smallシリーズ完全ガイド — 0.8Bから9Bまで、ローカルLLMの新時代が来た|zephel01
                                                              • GitHub - danny-avila/LibreChat: Enhanced ChatGPT Clone: Features Agents, DeepSeek, Anthropic, AWS, OpenAI, Responses API, Azure, Groq, o1, GPT-5, Mistral, OpenRouter, Vertex AI, Gemini, Artifacts, AI model switching, message search, Code Interpreter, lang

                                                                🖥️ UI & Experience inspired by ChatGPT with enhanced design and features 🤖 AI Model Selection: Anthropic (Claude), AWS Bedrock, OpenAI, Azure OpenAI, Google, Vertex AI, OpenAI Responses API (incl. Azure) Custom Endpoints: Use any OpenAI-compatible API with LibreChat, no proxy required Compatible with Local & Remote AI Providers: Ollama, groq, Cohere, Mistral AI, Apple MLX, koboldcpp, together.ai

                                                                  GitHub - danny-avila/LibreChat: Enhanced ChatGPT Clone: Features Agents, DeepSeek, Anthropic, AWS, OpenAI, Responses API, Azure, Groq, o1, GPT-5, Mistral, OpenRouter, Vertex AI, Gemini, Artifacts, AI model switching, message search, Code Interpreter, lang
                                                                • Thonny用のCopilotを作った話、教育用のローカルLLM vibe coding 環境の制作|tokoroten

                                                                  ThonnyというPythonの教育用の環境はご存じでしょうか。Python 3.10がインクルードされており、エラーも分かりやすく、インタラクティブなシェルもあり、教育現場をはじめとして幅広い環境で使われています。RasberryPiには標準搭載されていたりします。 とはいえ昨今のプログラミング環境は、VSCodeでGithub Copilot でエージェントをぶん回したり、Clineだったり、Claude Codeだったりといった、AIによるvive codingによって生産性が爆増しています。 しかし、いずれの環境も有償であり、クレジットカードを持っていないと使えないという問題があります。そしてクレジットカードを持ち、自らの意志で自由に使うには18歳以上である必要があります。 そのため、現代の環境では vibe coding を子供たちが自由に行うことができないという問題があります。

                                                                    Thonny用のCopilotを作った話、教育用のローカルLLM vibe coding 環境の制作|tokoroten
                                                                  • Pydantic AI

                                                                    Pydantic AI: Python Agent Framework for GenAI Pydantic AI: Python Agent Framework for GenAI Pydantic AI Installation: Setup and Requirements Pydantic AI Support: Slack Channels & GitHub Pydantic AI Error Handling & Troubleshooting Pydantic AI Gateway Documentation Pydantic Evals Pydantic Graph Integrations Related Packages Examples API Reference Project GenAI Agent Framework, the Pydantic way Pyda

                                                                      Pydantic AI
                                                                    • Strands Agents – オープンソース AI エージェント SDK の紹介 | Amazon Web Services

                                                                      Amazon Web Services ブログ Strands Agents – オープンソース AI エージェント SDK の紹介 本稿は 2025 年 5 月 16 日 に AWS Open Source Blog で公開された “Introducing Strands Agents, an Open Source AI Agents SDK” を翻訳したものです。 2025 年 5 月 16 日、Strands Agents のリリースを発表でき、嬉しく思います。Strands Agents は、わずか数行のコードで AI エージェントを構築・実行するモデル駆動型アプローチを採用したオープンソース SDK です。Strands は、シンプルなエージェントのユースケースから複雑なものまで、そしてローカル開発から本番環境でのデプロイまで対応します。AWS の複数チームが既に本番環境で A

                                                                        Strands Agents – オープンソース AI エージェント SDK の紹介 | Amazon Web Services
                                                                      • GitHub - kossisoroyce/timber: Ollama for classical ML models. AOT compiler that turns XGBoost, LightGBM, scikit-learn, CatBoost & ONNX models into native C99 inference code. One command to load, one command to serve. 336x faster than Python inference.

                                                                        Compile classical ML models to native C. Serve them in microseconds. Documentation · Changelog · PyPI · Technical Paper · Agent Skill Timber takes a trained ML model — XGBoost, LightGBM, scikit-learn, CatBoost, or ONNX (tree ensembles, linear models, SVMs) — runs it through a multi-pass optimizing compiler, and emits a self-contained C99 inference artifact with zero runtime dependencies. A built-i

                                                                          GitHub - kossisoroyce/timber: Ollama for classical ML models. AOT compiler that turns XGBoost, LightGBM, scikit-learn, CatBoost & ONNX models into native C99 inference code. One command to load, one command to serve. 336x faster than Python inference.
                                                                        • ローカルLLMで動くAIコーディングエージェントをPySide6で作った話 - Qiita

                                                                          はじめに 「プロジェクトの目標を日本語で入力するだけで、Pythonファイルの設計・実装・テスト・デバッグまで全部やってくれるツールがあったら便利じゃないか?」 そんな発想から生まれたのが Agentic Coder です。 GitHub CopilotやChatGPTのようなクラウドベースのAIツールとは根本的に異なり、このアプリは完全にローカル環境で動作します。APIキーは不要、インターネット接続も不要(モデルダウロード時のみ)、コードが外部サーバーに送信されることもありません。Ollamaを通じてローカルLLMを呼び出し、すべての処理をあなたのマシン上で完結させます。 この記事では、Agentic Coderの目的・仕組み・設計思想について解説します。 なぜクラウドAIではなくローカルLLMなのか クラウドベースのAIコーディングツールには優れたものが多くありますが、いくつかの根本的

                                                                            ローカルLLMで動くAIコーディングエージェントをPySide6で作った話 - Qiita
                                                                          • 【47個】ローカル用コーディングエージェントツールの一覧を作ってみた

                                                                            この記事の文章は 60% くらい AI が書いてますが、細かい言葉尻や内容の正誤は人間がチェックし修正した上で公開しています。 本記事は airCloset Advent Calendar 2025 の2日目の記事のはずでしたが、諸事情により遅刻しました。2日目にして遅刻する大失態……。 このアドベントカレンダーにはエンジニアを始めとして、弊社社員による様々な記事が投稿されるので、もしよければ他の記事もご覧ください。 1日目は弊社CTO辻による「2025年AIエージェント元年の振り返りと、2026年エンジニアが歩むべき道 」でした。 はじめに コーディングエージェントツールっていっぱいあるのはわかっているけど実際何があるの?とよく思っていたので、アドカレを良い機会とし調べて一覧を作ってみました。使ってないツールについても記載しているので、人によるファクトチェック済みの Deepresear

                                                                              【47個】ローカル用コーディングエージェントツールの一覧を作ってみた
                                                                            • Deep Research再現実装をDeep Research以上に詳しく検証してみた - AKARI Tech Blog

                                                                              はじめに こんばんは! 今週のAKARI Tech Blogは、DX Solution 事業本部 Dev の許が担当いたします。 先日OpenAIが「Deep Research」を公開し、その驚異的な文献調査能力が話題となりましたね! 皆様使っていますでしょうか。 これまでひいこら言いながらインターネット検索していた時代と比べると、「Deep Research お願いします!」で、それなりの分析レポートが出てくることに隔世の感を感じますね。 これだけ性能の良いものが出てきた以上、仕組みが気になるところ。できることなら、自分たちでも再現実装してみたい! しかし例によってOpenAIは実装をオープンにはしてくれない……。 そこで登場するのが、Deep ResearchのOSS再現プロジェクトたち! まずは Deep ResearchにOpenな再現実装について聞いてみましょうか。 ChatGP

                                                                                Deep Research再現実装をDeep Research以上に詳しく検証してみた - AKARI Tech Blog
                                                                              • ローカルでLLMを動かす6つの簡単な方法 + α

                                                                                ローカルでLLMを実行する6つの簡単な方法 + α 1. LM Studio 対応OS:Windows、Linux、MacOS LM Studioは、大規模言語モデルをローカルで実行・管理するために設計されたパワフルなデスクトップアプリケーションです。様々なオープンソースLLMのダウンロード、実行、チャットのための使いやすいインターフェースを提供しています。LM Studio 0.3.5の新機能:ヘッドレスモード、オンデマンドモデルローディング、MLX Pixtralサポート!これらの機能により、GUIなしでモデルを実行し、必要に応じてモデルをロードしてリソースを節約し、最新のAI技術を活用できるようになりました。 LM Studio 0.3.5の新機能:ヘッドレスモード、オンデマンドモデルローディング、MLX Pixtralサポート! 2. GPT4ALL ⭐70.6K 対応OS:Win

                                                                                  ローカルでLLMを動かす6つの簡単な方法 + α
                                                                                • Web search · Ollama Blog

                                                                                  Web search September 24, 2025 A new web search API is now available in Ollama. Ollama provides a generous free tier of web searches for individuals to use, and higher rate limits are available via Ollama’s cloud. This web search capability can augment models with the latest information from the web to reduce hallucinations and improve accuracy. Web search is provided as a REST API with deeper tool

                                                                                    Web search · Ollama Blog