並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 99件

新着順 人気順

ollama github pythonの検索結果1 - 40 件 / 99件

  • とほほのローカルAI入門 - とほほのWWW入門

    docker run -it --name hf python:3.14 bash apt update apt -y install vim pip install transformers torch from transformers import pipeline pipe = pipeline(task="text-generation", model="distilgpt2") print(pipe("Hello")) Can I Run AI locally? 概要 https://www.canirun.ai/ WebGPU などの技術を用いてアクセス元 PC のスペックを調べ、スペックに応じたモデルをリストアップしてくれるサイトです。 ダウンロードサイズやメモリ消費量・速度などの目安も提示してくれます。 Llama.cpp 概要 LLaMa, Mistral, Gemma

    • ローカルRAGを手軽に構築できるMCPサーバを作りました

      はじめに 最近話題のMCP(Model Context Protocol)記事です。MCPに関しては、同僚の李さんが素晴らしい記事を書いてくださいましたので、MCP自体の概要に関しては以下記事参照ください(お約束)。 今回は、LLMの代表的なユースケースとも言えるRAG(Retrieval-Augmented Generation)です。RAGはドキュメントから関連情報を検索し、AIの回答生成に活用する技術で、専門知識や最新情報を必要とするタスクに使われます。以前にTanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築という記事でローカルRAGの構築について説明したので詳しくはそちらを参照してください。簡単なRAGの構成図としては以下となります(記事より引用)。 今回は、このRAGをMCPを使って実現します。つくるMCPサーバの中身としてはPostgreSQLでベクトル

        ローカルRAGを手軽に構築できるMCPサーバを作りました
      • Apple SiliconでAIやっている人に朗報です。vllm-mlxが凄い。 - Qiita

        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 最近インパクトの大きいApple Silicon向けフレームワークが出現しました。「vllm-mlx」です。 一言で言うとvllmライクなインターフェースをApple Silicon向けに提供するもので、MacのGPU(Metal/MPS)アクセラレーションによるテキスト、画像、ビデオ、オーディオに対応してます。既存のmlx,mlx-lm,mlx-vlm,mlx-audioを全てvllmライクなインターフェース対応にします。今回はこのvllm-mlxの使い方を紹介します。 1. vllm-mlxの概要 特長: ・マルチモーダル - テキ

          Apple SiliconでAIやっている人に朗報です。vllm-mlxが凄い。 - Qiita
        • 歴代チャットボットと最近のLLMのまとめ - Qiita

          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? LLMs The History of Chatbots ELIZA (1966) 初期の人工知能プログラムのひとつ。 ルールベースの簡単なパターンマッチングで返答していた。 心理療法士の会話を模したELIZA(DOCTOR)が有名。 PARRY (1972) PARRYは偏執病的統合失調症患者をシミュレートしようとしたもの。 ELIZA(DOCTOR)と通信し話題となった。 Jabberwacky (1982, 1988, 1997) ユーモラスな人間同士の自然な会話をシミュレートすることを目的としていた。 ユーザーとの会話の大規模な

            歴代チャットボットと最近のLLMのまとめ - Qiita
          • ローカルLLMの脆弱性があるんか?〜CVE-2024-50050から学ぶ「自分だけで使ってるから安全」の落とし穴〜 - Qiita

            2.3 RCE(Remote Code Execution)とは 攻撃者がリモートから任意のコードを実行できる脆弱性のこと。これが成立すると、あなたのマシンで攻撃者が好き放題にコマンドを叩ける。ローカルLLMの脆弱性の多くはこのRCEに分類される。 2.4 デシリアライズ(Deserialization)とは プログラムが保存・送信用に変換(シリアライズ)したデータを、元のオブジェクトに復元する処理のこと。Pythonのpickle.loads()が代表例。この復元処理に悪意あるデータを食わせると、任意のコードが実行される——これが今回の脆弱性の多くに共通する根本原因だ。 これらの用語が押さえられたら、実際にどんな脆弱性が報告されているのか見ていこう。 3. ローカルLLM脆弱性が生まれた背景 3.1 「速度優先」で生まれたエコシステム ローカルLLMのエコシステムは、2023年のLlam

              ローカルLLMの脆弱性があるんか?〜CVE-2024-50050から学ぶ「自分だけで使ってるから安全」の落とし穴〜 - Qiita
            • 【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい

              8月19日、海外の技術情報メディアTheRegisterが「自分で作ればGitHub Copilotは不要」と題した記事を公開した。この記事では、オープンソースのAIコードアシスタント「Continue」を中心に、どのようにしてLLM(大規模言語モデル)をローカル環境で実行し、IDEに統合するかについて解説している。 Continueをインストールする前提条件 Continueをインストールし、動作させるには、以下の前提条件を満たす必要がある。 マシン要件: 動作に必要なマシン: 近年のプロセッサを搭載したシステムであれば動作するが、最適なパフォーマンスを得るためにはNvidia、AMD、またはIntelのGPU(6GB以上のvRAMを推奨)が望ましい。Apple Silicon搭載のMacでも動作するが、16GB以上のメモリを推奨する。 Ollamaモデルランナー: Ollamaモデルラ

                【海外で話題】GitHub Copilotは不要だ、自分で作ればいい — オープンソースのAIコードアシスタント「Continue」がすごい
              • ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ

                はじめに 自宅PC編 会社サーバ編 感想等 執筆者:佐藤友昭 ※ 「ディスアグリゲーテッドコンピューティングとは何か?」連載記事一覧はこちら はじめに 作業ログや検討メモ、参照した定型論文や書籍、ネット上の記事、視聴した講演やウェビナーのメモ等、日常を記録する情報は日々増えていく。これらの情報はできれば後に役立てたいと思うが、筆者の場合、なかなか上手くいかない。自分の外部記憶を紐解いてみると、記録したことすら忘れてしまっている項目が大半である。本稿では、ローカルLLMとRAGを用いて自分の外部記憶にいろいろと質問できるようにする方法を入門的に紹介する。決してベストプラクティス的な内容ではない。 自宅PC編 まずは、普段自宅で使用しているLinux PCを実験台として使えそうか試してみてから会社のサーバに適用してみることにする。 第一の要件は、ローカル環境で動作することである。情報の性質によ

                  ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ
                • Raspberry Pi 5でローカルLLM”DeepSeek-R1″を動かしてみる | YouTuber イチケン 公式ブログ

                  2025年1月20日、DeepSeekが開発したDeepSeek-R1が発表されました。オープンソースであり推論モデルが公開されているため個人のPCをはじめとしたローカル環境上で動作させることができます。 今回は色々な意味で世間を騒がせているDeepSeek-R1をRaspberry Pi 5の上で動かして、手のひらサイズのローカルLLMを体験してみたいと思います。 なお、本記事は動画の内容をさらに発展させた内容になっています。動画の方もぜひあわせてご覧ください。 今回作成するもの ローカルLLMを触るのは初めてなので、とりあえずシンプルにLLMと対話するまでを目標とします。 要件 今回達成すべき要件を以下のように定義しました。 Raspberry Pi 5(8GBモデル)上で動作する。 DeepSeek-R1と日本語で対話できるUI(最低限CUIで、できればGUIで)。 Windows環

                  • Vimの操作感を愛おしむ人たちへ: Zedで広がる新たな可能性 - ROUTE06 Tech Blog

                    ソフトウェア開発の世界は日々進化していますね。その中で、私たち開発者が使うツールは、まさに職人の道具のように大切なもの。常により良い方法を探し求めているのは、皆さん同じではないでしょうか。 そんな私たちの前に現れたのが、Zedです。このエディタ、一見するとただの新顔に思えるかもしれません。でも、その中身は、私のようなVimmerの心をしっかりと掴みました。なぜならZedは、Vimの精神や操作感を大切にしながら、現代のテクノロジーを駆使して作られているからです。 私は1年ほど前からZedを使い始め、すぐにルックやデザイン、全ての動作が期待通りかつ、速く完了する様子に魅了され、使い続けています。 筆者のZedのキャプチャ 機能的にはVSCodeが優れているし、AI Code EditorのCursorも盛り上がっていますが、もっと速く、たくさんコードを書きたい開発者の方にはZedという選択肢が

                      Vimの操作感を愛おしむ人たちへ: Zedで広がる新たな可能性 - ROUTE06 Tech Blog
                    • OpenClawライクなソフトをまとめてみた

                      OpenClawが310K starsを超え、AIパーソナルアシスタント界隈が盛り上がっています。OpenClaw以外にも「Claw系」と呼ばれる派生プロジェクトや、独立系のCLIコーディングエージェントが数多く登場しています。 この記事では、OpenClaw的なソフト(パーソナルAIアシスタント&CLIコーディングエージェント)を個人的にまとめました。自分が使っているものや調査で見つけたものを、カテゴリ別に紹介します。 OpenClaw OpenClawは、オーストリアのソフトウェアエンジニアPeter Steinbergerが2025年11月に週末プロジェクトとして作ったパーソナルAIアシスタントです。もともと「Clawdbot」という名前でしたが、Anthropicから商標の指摘を受けて「Moltbot」→「OpenClaw」と改名した経緯があります。 メッセージングアプリ(Disc

                        OpenClawライクなソフトをまとめてみた
                      • ローカル環境でコード生成を使いたい 〜Continue+Llama.cpp+ELYZA-japanese-CodeLlamaを試してみた〜 - GMOインターネットグループ グループ研究開発本部

                        2024.01.12 ローカル環境でコード生成を使いたい 〜Continue+Llama.cpp+ELYZA-japanese-CodeLlamaを試してみた〜 ご覧頂きありがとうございます。グループ研究開発本部 AI 研究開発室の N.M.と申します。 ChatGPTをはじめAIに関する大きなムーブメントの起きた激動の2023年が終わり、2024年が始まりました。我々AI研究開発室も日々AI技術を追いかけています。昨年から話題になることの多いGitHub Copilotもその一つであり、特にコードの補完は非常に使い勝手もよく開発や解析のサポートに使うことができます。今回はなるべくローカルに閉じた状態で近しい環境が作れないか試してみたことを紹介します。最後までご覧いただければ幸いです。 TL;DR VSCodeのExtensionであるContinueとELYZA-japanese-Cod

                        • AIがペネトレーションテストを自動化する時代が来た——2026年の主要ツールまとめ

                          AIペンテストツールが急に増えた 最近、タイムラインにAIペネトレーションテストの話がやたら出てくる。 1年前はPentestGPTぐらいしかなかった。それが2025年の後半から急に増えて、2026年2月の時点でオープンソースだけで8つ以上、商用サービスも5つ以上ある。 なんでこんなに急に増えたのか。まず、LLMがかなり賢くなって、セキュリティツールとの連携の仕方が固まってきた。NmapやMetasploit、SqlmapといったツールをAIエージェントが自分で選んで回せるようになった。つまり、作る側の準備が整った。 もう1つは、テストしなきゃいけないコードが一気に増えたこと。バイブコーディングで、プログラミングの経験があまりなくてもプロダクトを作れるようになった。そのぶん、セキュリティの穴があるアプリも増えている。人間のペンテスターだけじゃとても回らない。ツールを作れるようになった側と、

                            AIがペネトレーションテストを自動化する時代が来た——2026年の主要ツールまとめ
                          • VSCodeの時代は終わった?次世代エディタ Zed Editor 完全ガイド

                            体感でも明らかに違います。VSCodeで「重い」と感じていたプロジェクトを開いても、Zedではサクサク動きます。ノートPCのバッテリー持ちにも大きく影響するポイントです。 Zed Editorのメリット 1. 圧倒的なパフォーマンス Rustで書かれたネイティブアプリケーションなので、Electronの重さとは無縁です。大規模なコードベースを開いても、検索やファイル切り替えが瞬時に完了します。 2. ネイティブAI統合 VSCodeではGitHub CopilotやCursorなどの拡張に頼る必要がありますが、ZedにはAI機能がビルトインで搭載されています。 Agent Panel: AIがファイル編集・ターミナル操作・リンター実行まで自律的に行うエージェント機能 Edit Predictions (Zeta): オープンソースの予測モデルによるコード補完 Inline Assistan

                              VSCodeの時代は終わった?次世代エディタ Zed Editor 完全ガイド
                            • Qwen3 の概要|npaka

                              以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3本日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

                                Qwen3 の概要|npaka
                              • Clineを使用した次世代AIコーディング。もうCursorは要らない? - Qiita

                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? AI コーディングとは ChatGPT や Claude, Perplexity など の AI にコードを生成してもらうことは既に一般化しているかと思います。各サービスの Web サイトにチャット形式でやり取りしてコードを生成し、それをエディターなどにコピーアンドペーストして実行できて便利です。 しかし、直接 VSCode で AI とやり取りできたらもっと便利ではないでしょうか?ブラウザとエディタを何度も行き来し、コピーアンドペーストを繰り返す必要がなくなり、差分だけ提示されたのをどうマージすればいいのか考える必要もなくなります。

                                  Clineを使用した次世代AIコーディング。もうCursorは要らない? - Qiita
                                • 一日でできる! オリジナルのローカルLLMの作り方【データ合成からLM Studioまで】|Holy_fox

                                  はじめにこの記事では効率的な合成データ生成からそのデータを学習したモデルのGGUF変換、OllamaやLM Studioでの推論まで行います。 データ合成にはSDG LOOM、学習にはUnsloth Studio、推論にはLM Studioを用います。 これを理解すれば誰でもオリジナルのLLMを作成することができます。 今回は「小説生成ローカルモデル」を例に挙げて作成を行います。 それでは初めて行きましょう。 合成データの作り方このステップでは、LLMを用いた合成データを作ります。 オリジナルのLLMを作成するにあたって、1番大事なのは合成データです。 どのようなデータを作り、そしてそれを用いてどのような大規模言語モデルを目指すのかを決定するのがこのフェーズになります。 合成データを作るにあたって、以下の3つの点が大切だと個人的に思っています。 ・データの品質 ・コストパフォーマンス そし

                                    一日でできる! オリジナルのローカルLLMの作り方【データ合成からLM Studioまで】|Holy_fox
                                  • Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」 - Qiita

                                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」を作った はじめに 研究活動をしていると「今日何をしていたっけ?」「あのタスクに何時間費やしたっけ?」と疑問に思うことがよくあります。 いちいち記録するのは面倒だし、かといって全画面録画を見返すのも現実的ではありません。 そこで、Windowsの画面を一定間隔でキャプチャし、AIに「今何をしているか」を解析させ、Markdown形式の日報を自動生成するツール Miru-Log を自作しました。 Windows 10/11 で動作します。 このアイデ

                                      Windows操作ログをローカルLLMで解析し、自動で日報を作るツール「Miru-Log」 - Qiita
                                    • gpt-oss の使い方|npaka

                                      以下の記事が面白かったので、簡単にまとめました。 ・Welcome GPT OSS, the new open-source model family from OpenAI! 1. gpt-oss「gpt-oss」は、OpenAIによる待望のオープンウェイトリリースであり、強力なReasoning、エージェントタスク、そして多様な開発者ユースケース向けに設計されています。117Bのパラメータを持つ大規模モデル「gpt-oss-120b」と、21Bのパラメータを持つ小規模モデル「gpt-oss-20b」の2つのモデルで構成されています。どちらも「MoE」(Mixture-of-Experts) であり、MXFP4を使用することで、リソース使用量を抑えながら高速推論を実現します。大規模モデルは単一のH100 GPUに収まり、小規模モデルは16GBのメモリ内で動作し、コンシューマーハードウェア

                                        gpt-oss の使い方|npaka
                                      • jupyter notebookよりもMarimoが便利そう - Qiita

                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? データ分析・機械学習においてjupyter notebookは広く利用されています。EDAやモデルの学習、教育など多くのユースケース利用されてきましたが、notebookは以下のようなデメリットがあります。 Jupyter Notebookのつらみ 再現性の担保が難しい 共有されたnotebookを実行してもエラーが出て上手くいかない https://marimo.io/blog/introducing-marimo JetBrainsがGithub上の1千万のnotebookを分析したところ、36%のnotebookに再現性がなかった

                                        • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

                                          Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

                                            GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
                                          • オープンソースのRAG UI「kotaemon」を試す

                                            2024/11/01追記 GraphRAGの実装に、nano-graphragが追加されたようです。 https://x.com/kagamih/status/1852282744694587509 MSのGraphRAGよりもコンパクトに使えると思うので、個人的にはそちらをオススメします(まだ試していませんが) nano-graphragを元にしたLightRAGについては以下にまとめてます。 https://zenn.dev/kun432/scraps/1f28e5d20dfdf5 あと下に書いてる不具合も確かもう直ってると思うけど、実際に試していないのと、nano-graphragのほうがいいかなと思うので、もはや本記事はobsoleteということで。 2024/09/03追記 ちょっとX経由で見に来ていただいた方が増えているようなのであらかじめ注意。 kotaemonで普通のRAG

                                              オープンソースのRAG UI「kotaemon」を試す
                                            • 8GBメモリでOK!Raspberry Pi 5で使える日本語対応ローカルLLM一覧 - uepon日々の備忘録

                                              以前のエントリなどでも触れていましたが、Raspberry Pi 5(8GB RAM)でリアルタイム対話可能な日本語LLMは実現可能となりつつあります。それも、特別なハードウェアを使用することなしにです。 これは、1B〜3Bパラメータのモデルでもかなり優秀になってきているからです。そのなかでもGemma3:1b、TinySwallow-1.5B(日本語特化)、Qwen2.5:1.5b〜3bといったモデルが有力な候補となるでしょう。 (7Bクラスは動作はしますがかなり遅く実用性に難あり) また、プラットフォーム的な話としては、llama.cppはOllamaより10〜20%高速ですが、セットアップの容易さではOllamaが優れています。Ollamaで試してみて、更なる高速化が必要となればllama.cppに乗り換えるというのがいいかもしれません。 今回想定しているハードウェア・OSの要件 R

                                                8GBメモリでOK!Raspberry Pi 5で使える日本語対応ローカルLLM一覧 - uepon日々の備忘録
                                              • ローカルLLMを使ってRAGシステムを組み最新の論文を追いやすくする試み

                                                arXivには1日あたり全体では800件ほどの論文が投稿されます。Quantum Physicsカテゴリだけでも50~100件ほどです。これだけの量を自力で追うのは現実的ではないでしょう。そこで、投稿論文をLLMで要約してRAGのナレッジベースに蓄積し、全体の動向を把握しやすくするシステムを実験的に構築しました。正直前の記事と思いっきり内容が被っているのですが、1つ1つの論文を詳しく読むというよりも、全体の動向を把握することに重点を置いたシステムであるという点では違いがあります。 この記事のコードはGitHubで公開しています。 システム全体図 このシステムはDocker Compose上で動作させることを想定しています。主要なコンテナは3つ(RAGFlow, Ollama, Python worker)です。この他に補助的なコンテナ(ElasticSearchやMySQL)もいくつか動い

                                                  ローカルLLMを使ってRAGシステムを組み最新の論文を追いやすくする試み
                                                • GitHub - google/langextract: A Python library for extracting structured information from unstructured text using LLMs with precise source grounding and interactive visualization.

                                                  Precise Source Grounding: Maps every extraction to its exact location in the source text, enabling visual highlighting for easy traceability and verification. Reliable Structured Outputs: Enforces a consistent output schema based on your few-shot examples, leveraging controlled generation in supported models like Gemini to guarantee robust, structured results. Optimized for Long Documents: Overcom

                                                    GitHub - google/langextract: A Python library for extracting structured information from unstructured text using LLMs with precise source grounding and interactive visualization.
                                                  • バグバウンティにおけるLLMの活用事例 - blog of morioka12

                                                    1. 始めに こんにちは、morioka12 です。 本稿では、バグバウンティの脆弱性調査で使われている LLM の活用事例について少し紹介します。 1. 始めに 免責事項 2. LLM の活用事例 SimonW「LLM」 3. Recon CewlAI Subwiz ffufai Crawl4AI Athena WARC-GPT 4. Browser Extension Nuclei AI Extension 5. Web Proxy Plugin Shift (Caido) Caido403Bypasser (Caido) BurpGPT (Burp Suite) Add: Montoya API (Burp Suite) Hackvertor 6. ChatGTP Plugin PentestGPT Bug Hunter GPT Bounty Plz 7. 講演動画 Bug Boun

                                                      バグバウンティにおけるLLMの活用事例 - blog of morioka12
                                                    • 型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog

                                                      はじめに こちらはABEJAアドベントカレンダー2024 12日目の記事です。 こんにちは、ABEJAでデータサイエンティストをしている坂元です。最近はLLMでアプローチしようとしていたことがよくよく検証してみるとLLMでは難しいことが分かり急遽CVのあらゆるモデルとレガシーな画像処理をこれでもかというくらい詰め込んだパイプラインを実装することになった案件を経験して、LLMでは難しそうなことをLLM以外のアプローチでこなせるだけの引き出しとスキルはDSとしてやはり身に付けておくべきだなと思うなどしています(LLMにやらせようとしていることは大抵難しいことなので切り替えはそこそこ大変)。 とはいうものの、Agentの普及によってより複雑かつ高度な推論も出来るようになってきています。弊社の社内外のプロジェクト状況を見ていても最近では単純なRAG案件は減りつつあり、計画からアクションの実行、結果

                                                        型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog
                                                      • Announcing .NET 10 - .NET Blog

                                                        Today, we are excited to announce the launch of .NET 10, the most productive, modern, secure, intelligent, and performant release of .NET yet. It’s the result of another year of effort from thousands of developers around the world. This release includes thousands of performance, security, and functional improvements across the entire .NET stack-from languages and developer tools to workloads-enabl

                                                          Announcing .NET 10 - .NET Blog
                                                        • GitHub - ochyai/vibe-local: Free AI coding environment: Ollama + Python

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - ochyai/vibe-local: Free AI coding environment: Ollama + Python
                                                          • Google Colab ✖ OpenAI GPT-OSS 20Bモデルのファインチューニング完全ガイド - Sun wood AI labs.2

                                                            🚀 はじめに このチュートリアルでは、OpenAIの最新モデルGPT-OSS 20BをGoogle Colab L4 GPU(22GB VRAM)でファインチューニングする方法を解説します。UnslothライブラリとLoRAを使用することで、効率的にモデルを訓練できます。 OpenAI gpt-oss をファインチューニングできるnotebookを日本語化してみた!!! *後ほど記事にしてだしまーす!! https://t.co/ZuPbcKi4jT pic.twitter.com/5Ji93tmiKA — Maki@Sunwood AI Labs. (@hAru_mAki_ch) August 9, 2025 📢 最新情報 新機能: UnslothがOpenAIのGPT-OSSモデルのトレーニングに対応! Text-to-Speech (TTS)モデルのサポートも追加 新しいDyna

                                                              Google Colab ✖ OpenAI GPT-OSS 20Bモデルのファインチューニング完全ガイド - Sun wood AI labs.2
                                                            • 2025: The year in LLMs

                                                              31st December 2025 This is the third in my annual series reviewing everything that happened in the LLM space over the past 12 months. For previous years see Stuff we figured out about AI in 2023 and Things we learned about LLMs in 2024. It’s been a year filled with a lot of different trends. The year of “reasoning” The year of agents The year of coding agents and Claude Code The year of LLMs on th

                                                                2025: The year in LLMs
                                                              • PLaMo翻訳CLI: ローカル環境での多言語翻訳を実現するコマンドラインツール - Preferred Networks Tech Blog

                                                                先日(2025年5月27日)、Preferred Networksは「PLaMo翻訳」を発表しました。このモデルは、翻訳タスクに特化した大規模言語モデルであり、PLaMo Community License(ライセンス文、解説記事)のもとで一般公開(Hugging Face)されています。この度、このモデルをより手軽にローカル環境で利用できるようにするためのコマンドラインツール「PLaMo翻訳CLI」をOSSとして公開*1しました。 plamo-translate-cli: https://github.com/pfnet/plamo-translate-cli *1: プログラムコード・ツール自体はOSSライセンスですが、内部で利用するPLaMo翻訳モデルがPLaMo Community Licenseであるため、合わせて利用する際にはモデルライセンスの制約が加わることにご注意ください。

                                                                  PLaMo翻訳CLI: ローカル環境での多言語翻訳を実現するコマンドラインツール - Preferred Networks Tech Blog
                                                                • GitHub - microsoft/data-formulator: 🪄 Create rich visualizations with AI

                                                                  [12-08-2025] Data Formulator 0.5.1 — Connect more, visualize more, move faster 🔌 Community data loaders: Google BigQuery, MySQL, Postgres, MongoDB 📊 New chart types: US Map & Pie Chart (more to be added soon) ✏️ Editable reports: Refine generated reports with Chartifact in markdown style. demo ⚡ Snappier UI: Noticeably faster interactions across the board [11-07-2025] Data Formulator 0.5: Vibe w

                                                                    GitHub - microsoft/data-formulator: 🪄 Create rich visualizations with AI
                                                                  • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                                                    Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                                                      GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                                                    • Wasm-agents: AI agents running in your browser

                                                                      One of the main barriers to a wider adoption and experimentation with open-source agents is the dependency on extra tools and frameworks that need to be installed before the agents can be run. In this post, we introduce the Wasm agents blueprint, aimed at showing how to write agents as HTML files, which can just be opened and run in a browser, without the need for any extra dependencies. This is s

                                                                        Wasm-agents: AI agents running in your browser
                                                                      • Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】

                                                                        はじめに:この記事について この記事はModel Context Protocol (MCP)という、2024年11月にAnthropicが発表した新しいAIエージェント接続プロトコルについて、その基本概念から実践的な活用方法まで包括的に解説します。特にMicrosoftのAzure AI Foundryとの連携を中心に、具体的なハンズオン手順を通じてMCPの可能性と実用性を探ります。 また、本記事は2部構成となっております。 Part2は以下です。 この記事で学べること MCPの基本概念とアーキテクチャを理解できる クラウドとローカル環境の両方でMCPを実装する方法を学べる Azure AI Foundryとの連携手順を通じて実践的なスキルを身につけられる エンタープライズ環境でのMCP活用におけるセキュリティ考察を理解できる MCP登場から約4ヶ月の2025年3月現在、MCPは急速に業

                                                                          Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】
                                                                        • Apple IntelligenceのFoundation Modelsを使うローカル翻訳アプリ - Qiita

                                                                          Apple Intelligenceのデバイス内LLMであるFoundation Modelsを使う翻訳アプリケーションをリリースしました。この経験を通じて知ることができたApple Intelligenceの利点と欠点、制限、そして可能性について記載しておきたいと思います。あんまり書いている人いませんしね。 アプリケーション Pre-Babel Lens アプリケーションの名前は Pre-Babel Lens 日本語の名称はプレバベルです。 動作環境はApple Intelligenceを有効にしたMac。私の開発環境はMacBook M2 16GBモデルです。M1でも16GBモデルなら軽々動くとは思います。 Pre-Babel Lensは、DeepL風の2ペインで翻訳を行うアプリケーションです。この記事を書いている時点の最新版 v 0.5.0では、⌘+Cの二回押しで選択テキストを翻訳す

                                                                            Apple IntelligenceのFoundation Modelsを使うローカル翻訳アプリ - Qiita
                                                                          • March 2025 (version 1.99)

                                                                            Update 1.99.1: The update addresses these security issues. Update 1.99.2: The update addresses these issues. Update 1.99.3: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the March 2025 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key highligh

                                                                              March 2025 (version 1.99)
                                                                            • Weird Lexical Syntax

                                                                              I just learned 42 programming languages this month to build a new syntax highlighter for llamafile. I feel like I'm up to my eyeballs in programming languages right now. Now that it's halloween, I thought I'd share some of the spookiest most surprising syntax I've seen. The languages I decided to support are Ada, Assembly, BASIC, C, C#, C++, COBOL, CSS, D, FORTH, FORTRAN, Go, Haskell, HTML, Java,

                                                                                Weird Lexical Syntax
                                                                              • GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                                                                🚀 Effortless Setup: Install seamlessly using Docker or Kubernetes (kubectl, kustomize or helm) for a hassle-free experience with support for both :ollama and :cuda tagged images. 🤝 Ollama/OpenAI API Integration: Effortlessly integrate OpenAI-compatible APIs for versatile conversations alongside Ollama models. Customize the OpenAI API URL to link with LMStudio, GroqCloud, Mistral, OpenRouter, and

                                                                                  GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
                                                                                • AIコーディング時代、Pythonに厳格な型付けは必要? 作者グイド・ヴァンロッサム氏にGitHubが聞いた

                                                                                  2025年8月時点のOctoverseでは、GitHub上で最も使われる言語は「TypeScript」がPythonを抜いて首位になったが(参考)、Python自体も2025年に前年比49%成長し、AI(人工知能)や科学、教育分野の標準言語の地位を維持している。 この結果について、同氏は「非常に驚いた」としつつ「TIOBE Index」など他の人気指標と異なるデータが出たことを指摘。下記の見解が挙がったという。 同氏は「TypeScriptはPythonによく似た型システムを取り入れた。今JavaScriptを書くなら、TypeScriptを使うのが論理的に正しい。これらの言語は人間に人気がある。今後も人気は続くだろう」と述べている。 ここから、同氏が述べる「人間(開発者)に人気がある」ことの詳細、Pythonの成り立ち、型システムを含む言語の発展へと話がつながっていく。 C言語とシェルス

                                                                                    AIコーディング時代、Pythonに厳格な型付けは必要? 作者グイド・ヴァンロッサム氏にGitHubが聞いた