タグ

LLMに関するenemyoffreedomのブックマーク (79)

  • Opus4.7の登場により、Claude Codeの開発者と公式が「これはもうやめろ」と言い始めた6つのこと - Qiita

    2026年4月16日、AnthropicがClaude Opus 4.7をリリースしました。 同時に公式ブログ「Best Practices for Using Claude Opus 4.7 with Claude Code」が公開され、Claude Code作者のBoris CherneyもXで「6つの新技」を投下しています。 両方を通してAnthropic公式が言っているのは「これまでのClaude Codeの使い方は、今日でやめろ」です。 4.6までは正解だった作法が、4.7では逆効果になることもあるようです ↓Claud CodeはもはやただのAIコーディングツールではなく、誰もがアプリで稼げるようになる収益化ツールです! よければこちらのツイートも見てみてください! 「ペアプロ(細かく指示する)」のはもうやめろ 4.6までの「細かく指示するほど賢く動く」という感覚は、4.7では

    Opus4.7の登場により、Claude Codeの開発者と公式が「これはもうやめろ」と言い始めた6つのこと - Qiita
    enemyoffreedom
    enemyoffreedom 2026/04/25
    Claudeに限らず、LLMがより賢く自律的に動けるようになったので、縛りが多すぎるとかえって性能が発揮できない感は。あれはLLM本来の力を抑え込むための拘束具なのよ
  • LLMを1つだけ使うのは8GBの無駄遣いだった

    LLMを1つだけ使うのは8GBの無駄遣いだった RTX 4060 8GBでローカルLLMを動かす。多くの人が「一番大きいモデルを1つ載せる」という運用をしている。Qwen2.5-32B Q4_K_Mは約20GBのモデルだが、ngl=60で部分オフロードすればVRAM 7.6GBで動く。残りはCPU/RAM。VRAMのほぼ全てを1つのモデルに使い切る運用だ。 この運用は効率的に見えて、実は非効率だ。 RouteLLM(arXiv:2406.18665, Ong et al., ICLR 2025)は強いモデルと弱いモデルを組み合わせてルーティングすることで、品質を落とさずコストを2倍以上削減できることを示した。FrugalGPT(arXiv:2305.05176, Chen et al.)はLLMカスケードでGPT-4相当の精度を98%のコスト削減で達成。Hybrid LLM(arXiv:2

    LLMを1つだけ使うのは8GBの無駄遣いだった
    enemyoffreedom
    enemyoffreedom 2026/04/24
    タスクの質によってモデルを(自動で)切り替える運用
  • Reasoning Models Don't Always Say What They Think

    enemyoffreedom
    enemyoffreedom 2026/04/24
    2025年5月の論文。Reasoning系モデルの思考過程ログ出力は割と嘘をつくらしい
  • llama.cppでローカルLLM(Ubuntu 24.04 + llama.cpp + gpt-oss:20b)|えのきこ

    はじめにProxmox+Ubunut24.04でRTX 5060 Tiを認識させ、llama.cppでgpt-oss-20Bを動かします。 環境・PC : Minisforum MS-01 ・グラボ : NVIDIA RTX 5060 Ti ※OCuLink接続 ・ハイパーバイザ : Proxmox 8.3.1 ・OS : Ubuntu 24.04 OS準備ハイパーバイザがグラボを認識しているか確認pveでlspciを実行。01:00.0と01:00.1にグラボがあることがわかる。 root@pve:~# lspci 00:00.0 Host bridge: Intel Corporation 12th Gen Core Processor Host Bridge/DRAM Registers (rev 02) 00:01.0 PCI bridge: Intel Corporation 1

    llama.cppでローカルLLM(Ubuntu 24.04 + llama.cpp + gpt-oss:20b)|えのきこ
  • GPT-OSS:20BをOCuLink接続またはPCIe接続したグラボで動かしてみた(A1000、RTX 3090、RTX 5060 Ti)|えのきこ

    GPT-OSS:20BをOCuLink接続またはPCIe接続したグラボで動かしてみた(A1000、RTX 3090、RTX 5060 Ti) この記事を書いたきっかけがgpt-oss-20Bの高速化だったので、速度を確認してみます。また、OCuLink or PCIeでも差分を確認してみます。 構成OCuLink利用機器(グラボなし場合もこの機器) CPU:Core i9 12900H メモリ:64 GB PCIe利用機器 CPU:Ryzen 7 5700X 8core メモリ:32GB 動作確認グラボなしグラボなしでのリソース使用状況。 ・CPU 98% ・RAM 17.1GB ・GPU なし ・VRAM なし ・10.67 t/s ※2545Tokensで238.446秒 グラボがないのでlspciにはグラボの姿はない。※グラボを接続したら01:00.xに入る。 root@pve:~#

    GPT-OSS:20BをOCuLink接続またはPCIe接続したグラボで動かしてみた(A1000、RTX 3090、RTX 5060 Ti)|えのきこ
  • Add Claude 4 Sonnet

    enemyoffreedom
    enemyoffreedom 2025/05/23
    CursorのモデルにClaude 4 SonnetとOpus追加
  • Qwen3 の概要|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・Qwen3: Think Deeper, Act Faster 1. Qwen3日 (2025年4月28日) 、「Qwen3」をリリースしました。「Qwen3-235B-A22B」は、「DeepSeek-R1」「o1」「o3-mini」「Grok-3」「Gemini-2.5-Pro」などの他のトップティアモデルと比較して、コーディング、数学、一般的な機能などのベンチマーク評価で競争力のある結果を達成しています。さらに、小型のMoEである「Qwen3-30B-A3B」は、10倍のアクティブパラメータを持つ「QwQ-32B」を凌駕し、「Qwen3-4B」のような小さなモデルでさえ、「Qwen2.5-72B-Instruct」の性能に匹敵します。 2つのMoEモデルをオープンウェイト化しています。「Qwen3-235B-A22B」は、総パラメ

    Qwen3 の概要|npaka
  • Qwen3はローカルLLMの世界を変えたかも - きしだのHatena

    Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれでいいのでは、という感じもします。 4BでもGPT-4oを越えているという話もありますが、確かに単純な用途ではGPT-4oの代わりにしてもいいなと場面も割とありそうな出力です。さすがにちょっと込み入ったものだと4oだけど。 1.7Bなど小さいモデルも既存のモデルより使えるものになっていて、ローカルLLMの世界を変えそう。 解説動画も撮りました。 週間ニュースのまとめはじめました。 サイズとしては0.6B, 1.7B, 4B, 8B, 14B, 32Bと、MoEモデルの30B-A3B, 235B-A22Bです。 30B-A3Bが賢いというベンチマークだけど、コーディング用途だと14Bや32Bのほうがいいかも。MacならMLXで30B-A3Bは めちゃ速くていいけど。という感じでどのサイズにも

    Qwen3はローカルLLMの世界を変えたかも - きしだのHatena
  • 生成AIを活用したシステム開発の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - |日本総研

    現在、大規模言語モデル(LLM)に代表される生成AIがシステム開発の領域において注目を浴びており、システム開発プロセス全体の効率化から、特定の業務における自動化まで、その応用範囲は広がり続けている。レポートでは、生成AIを用いたシステム開発についての現状を整理し、生成AIによって今後のシステム開発がどのように変化していくか考察したものである。 第1章では、生成AIがシステム開発において具体的にどのような場面(ユースケース)で活用できるかを述べ、ユースケースに対応した具体的な生成AIサービスとして、汎用的な生成AI(OpenAI社のChatGPTGoogle社のGeminiなど)やエンジニアアシスタント型の生成AI(GitHub Copilot, Cursorなど)を紹介している。 第2章では、ITベンダやSIerでの事例を中心に、各企業におけるシステム開発領域での生成AI活用の動向につ

    生成AIを活用したシステム開発の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - |日本総研
    enemyoffreedom
    enemyoffreedom 2025/04/10
    2024年9月のレポート
  • LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」 - AIDB

    記事では、LLMの知識を狙い撃ちして編集する手法(Knowledge Editing:知識編集)について整理します。 知識編集はモデル全体を再学習させることない効率的なアプローチと言われており、信頼性の向上や、パーソナライズされたエージェントの開発に役立つとのことです。なお、有名な手法としてはLoRAなどが含まれます。 背景、知識編集の概要、3つのフェーズ、評価方法、今回行われた実験と結果、そして応用例について紹介します。 記事の関連研究: ハーバード研究者などがLLMを創造的にすべく考案した、大喜利データセットでユーモアラスにチューニングする手法『LCoT』 LLMにナレッジグラフ(知識グラフ)を連携させることで、タスク遂行能力を大幅に向上させるフレームワーク『Graph Neural Prompting(GNP)』 LLMにベートーヴェンなど特定の人物の行動や感情を模倣させる、イタ

    LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」 - AIDB
    enemyoffreedom
    enemyoffreedom 2025/04/02
    2024年1月の記事
  • 生成AI/LLM技術最新トレンド|①モデルから知識を”忘却”する技術Unlearningとその限界 ②敵対的攻撃を劇的に減少させるシンプルなアプローチ | DOORS DX

    モデルから知識を“忘却”する技術Unlearningとその限界 人間の脳にとって「忘却」は神経の健全性を維持するために必要な機能です。同様に機械学習モデルにとっても、学習したが機能に必須でないデータを削除(=忘却)することはシステムの安全性や一貫性の確保のために不可欠なのだそうです。 今回は、モデルから知識を削除する手段の一つとして知識の「Unlearning」に焦点を当てた論文を2つご紹介します。 LLMは大規模言語モデルというだけあり、非常に大量のデータを訓練データとして学習を行います。この大量のデータの中に、例えば機密情報、個人情報、著作権で保護されたコンテンツ、有害な情報…など、あまりLLMに学習させたくない情報が混じってしまっていた場合、どうしたらよいでしょうか。 モデルからそれらの影響を取り除くには、例えば以下のような手段が考えられます。 訓練データから不要なデータを抜き、モデ

    生成AI/LLM技術最新トレンド|①モデルから知識を”忘却”する技術Unlearningとその限界 ②敵対的攻撃を劇的に減少させるシンプルなアプローチ | DOORS DX
    enemyoffreedom
    enemyoffreedom 2025/04/02
    2024年9月の記事
  • OpenAI「GPT-4.5」がチューリングテストに合格したと、カリフォルニア大の研究チームが発表

    sponsored 想像よりもはるかに小さい ウワサの“机に乗る”AIスパコン「NVIDIA DGX Spark」が、編集部に届きました。 sponsored JN-VC236Fをレビュー 約1.6万円の23.6型湾曲フルHDディスプレー、3000Rのゆる~いカーブはお買い得? sponsored FortiSASEがセキュリティ対策の「すき間」を埋める 危機はエッジから現れる 今こそ検討すべきVPNからSASEへの移行 sponsored MSI「MPG B860I EDGE TI WIFI」レビュー 知識と経験が問われるMini-ITXでのホワイトミニゲーミングPC自作。基板まで白いIntel B860搭載マザーボード選びの最適解が見つかった sponsored 日マイクロソフトのハッカソン「GitHub Copilot Quest」をレポート レガシーアプリをGitHub Copi

    OpenAI「GPT-4.5」がチューリングテストに合格したと、カリフォルニア大の研究チームが発表
  • Attention Is All You Need - Wikipedia

    論文中のトランスフォーマーモデルの主要構成要素の図解 『Attention Is All You Need』[1]は、Googleで働く8人の科学者によって執筆された、2017年の機械学習モデルのTransformerを発表した学術出版研究論文である[2][3]。「注意こそが必要とされる全てだ」という日語で表記されることもある[4]。 この論文は、Bahdanauらが2014年に提案した注意機構に基づく、トランスフォーマーとして知られる新しいディープラーニングアーキテクチャを導入した[5]。トランスフォーマーのアプローチは、GPTに基づくもののような大規模言語モデルの主要なアーキテクチャとなっているため、現代の人工知能における基礎的な論文とみなされている[6][7][8]。当時、研究の焦点は機械翻訳のためのSeq2seq技術の改善にあったが、著者たちは論文中でさらに進んで、質問応答や、現

    Attention Is All You Need - Wikipedia
  • Googleが公開わずか数日でGemini 2.5 Proを無料ユーザーにも開放

    Googleが発表したばかりの次世代推論AIモデル「Gemini 2.5 Pro Experimental」を、Geminiの無料ユーザー向けに提供すると発表しました。GoogleはGemini 2.5 Proを「最もインテリジェントなAIモデル」と呼んでいますが、あくまで無料ユーザー向けに提供されるのは「Experimental(実験版)」とあるように正式版ではなく実験版です。 Google surprisingly rolling out Gemini 2.5 Pro to all users https://9to5google.com/2025/03/29/gemini-2-5-pro-experimental-free/ Google’s new experimental AI model, Gemini 2.5 Pro, is now available to free use

    Googleが公開わずか数日でGemini 2.5 Proを無料ユーザーにも開放
  • Windows/Radeon での Ollama のサポート状況 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

    Windows/Radeon での Ollama のサポート状況 - Qiita
  • Llama 3.3 Swallow 70B v0.4 – Swallow LLM

    合成テキストに含まれる「繰り返し」の除去 8Bモデルを用いたアブレーション実験の際は、合成テキストを用いた継続事前学習は特に問題なく完了しました。しかし、70Bモデルの継続事前学習に用いたところ、ロス・スパイクが頻発して学習が不安定になりました。 そこで合成テキストを再度精査したところ、 \\_\\_\\_... のような同一文字列の「繰り返し」を含む文書がごくわずかに(10万件につき数件程度)存在することが判明しました。 これらの文書をn-gramに基づくルールで除去すると、ロス・スパイクは発生しなくなりました。 この事実だけで繰り返しがロス・スパイクの原因と断定はできませんが、先行研究 (OLMo Team, 2025) では繰り返しが一因となり得ると指摘されています。 したがって、合成テキストを構築する際は、繰り返しを含む文書の除去など、品質確認と修正を行うのがよいという教訓を得まし

    Llama 3.3 Swallow 70B v0.4 – Swallow LLM
    enemyoffreedom
    enemyoffreedom 2025/03/26
    「Llama 3.3をベースに日本語の能力を強化した大規模言語モデル」
  • Llama 3.3 Swallow: 高性能な日本語LLM

    はじめに 日(2025/03/10)、Swallow ProjectよりLlama-3.3-Swallow-70B-v0.4とLlama-3.3-70B-Instruct-v0.4をリリースさせていただきました。 今回リリースしたLlama-3.3-Swallow-70B-v0.4は日語理解・生成タスク(アカデミックタスク)において、Qwen2.5-72Bの平均スコアをわずかに上回り、同程度の能力をベンチマーク評価上示しました。また、Llama-3.3-70B-Instruct-v0.4は、前回リリースした Llama-3.1-Swallow-70B-Instruct-v0.3よりもわずかに高いJapanese MT-Benchの性能を示しており、GPT-4oやQwen2.5-72B-Instructには及ばないものの高い性能を示しています。 公式ページより 公式ページより Llama

    Llama 3.3 Swallow: 高性能な日本語LLM
  • 言語モデルの物理学 - ジョイジョイジョイ

    言語モデルの物理学 (Physics of Language Models) とは、FAIR (Meta) の Zeyuan Allen-Zhu が提唱した、言語モデルの研究を進めるためのコンセプトです。ざっくり言うと、「あのモデルはこう」とか「そのモデルはこのモデルよりもこう」というような博物学的な知識を深めるのではなく、17世紀にケプラーやニュートンが物理学において行ったような原理に基づいた研究を進め、「言語モデルはなぜこのような振る舞いをするのか」という問いに答えられるようになるべきという考え方です。 言語モデルの物理学の特徴は大きく2つあります。 第一は、ウェブから収集したコーパスを使わず、きっちりコントロールされたデータセットを使って言語モデルを訓練するということ。ウェブは誰も全体像を理解できないほど複雑で、ノイズにまみれています。物の物理学でも空気抵抗や摩擦があると、「鉄球は

    言語モデルの物理学 - ジョイジョイジョイ
    enemyoffreedom
    enemyoffreedom 2025/03/24
    「つまり、言語モデルにおいては、「A から B が取り出せる」ならば「B から A が取り出せる」という対称律が成立しません」 BERTは双方向をうたっているがこの辺どの程度改善されてるのかね
  • Cursorを使った文章執筆は、AIファーストな環境整備から始まる - 本しゃぶり

    なぜCursorを使うと執筆が捗るのか? それはAIファーストな環境では、自律的に情報を探索してくれるからだ。 執筆のパラダイムシフトは既に始まっている。 文章執筆でAIエディタを活用するには 最近、CursorなどのAIエディタによる文章執筆が注目を集めているが、「実際にどう使えば執筆が捗るのか」というイメージが湧かない人も多いだろう。いくら便利だと言われても、具体的な活用法が見えなければ結局は普通のエディタとの違いが分からない。ではどうしたら執筆に活用できるのか。 俺自身はこの2年間、AIを文章執筆に活かす方法を模索してきた。そしてようやく3つの要素が揃ったことで執筆環境が一変したと確信した。 EvernoteからObsidianに移行し、すべての情報をMarkdown形式で一元管理 音声入力でアイデアを一気に吐き出し、AIに修正・整理させる手法 Cursorの登場により、Markdo

    Cursorを使った文章執筆は、AIファーストな環境整備から始まる - 本しゃぶり
    enemyoffreedom
    enemyoffreedom 2025/03/24
    令和のテキストデータ料理学か。いにしえのそれも便利だったが、どこまでいっても原理的にセマンティックな検索・加工はできなかったのが、今や容易にできる上になんなら要約やら推論までしてくれる
  • 今日の論文2023/05/26:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models - izmyonの日記

    Chain-of-Thought Prompting Elicits Reasoning in Large Language Models arxiv.org Wei, Jason, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, and Denny Zhou. "Chain of thought prompting elicits reasoning in large language models." arXiv preprint arXiv:2201.11903 (2022). ©The Authors License: Creative Commons Attribution 4.0 International License(CC-BY) 記事は、原著の内容に基づき筆者が要約または翻訳したものです。以下

    今日の論文2023/05/26:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models - izmyonの日記