タグ

sigCのブックマーク (1,820)

  • Opus4.7の登場により、Claude Codeの開発者と公式が「これはもうやめろ」と言い始めた6つのこと - Qiita

    2026年4月16日、AnthropicがClaude Opus 4.7をリリースしました。 同時に公式ブログ「Best Practices for Using Claude Opus 4.7 with Claude Code」が公開され、Claude Code作者のBoris CherneyもXで「6つの新技」を投下しています。 両方を通してAnthropic公式が言っているのは「これまでのClaude Codeの使い方は、今日でやめろ」です。 4.6までは正解だった作法が、4.7では逆効果になることもあるようです ↓Claud CodeはもはやただのAIコーディングツールではなく、誰もがアプリで稼げるようになる収益化ツールです! よければこちらのツイートも見てみてください! 「ペアプロ(細かく指示する)」のはもうやめろ 4.6までの「細かく指示するほど賢く動く」という感覚は、4.7では

    Opus4.7の登場により、Claude Codeの開発者と公式が「これはもうやめろ」と言い始めた6つのこと - Qiita
    sigC
    sigC 2026/04/28
    驚き屋の宣伝注意/何ならBorisは4.6でも似たような使い方(仕様を固めまくって一発正解出力)していたはず。唯一変わったのはサブエージェント削減ぐらい。
  • その生産性向上、現場が静かに支払っているコストの話

    はじめに Claude Code をはじめとする AI コーディング支援ツールの高度化により、マークダウンで構造化された仕様書を AI に渡して実装を進める、いわゆる仕様駆動型の開発スタイルが広まりつつあります。 実装速度は目に見えて向上し、かつてであれば数日かかった作業が数時間で完了するケースも珍しくありません。 一方で、現場で開発に携わっていると、速度向上だけでは説明しきれない違和感が蓄積していきます。残業は減った、納期も守れている、上層部からの評価も悪くない。 それなのに、現場の開発者の間に静かな疲労感が漂っている ― そんな状況を見聞きすることが増えてきました。 この記事では、AI 駆動開発が当たり前になりつつある現在において、生産性向上の裏側で起きている構造的な課題を整理します。課題の整理にとどまらず、開発者・マネジメント・経営それぞれが明日から変えられることを具体的に提示するこ

    その生産性向上、現場が静かに支払っているコストの話
    sigC
    sigC 2026/04/22
    上層部が(AIを指揮して)コードまで作ればいいとか、みんなその層のマインドになればいいと言う人が多いけど、今度はその層が疲弊して崩壊するだけでは(その時点では下は崩壊しているのでもういない)。
  • ソフトウェアや知能が安くなったときに起きること - 🐴 (馬)

    1830年頃、わずかな夜の明かりを得るためには、約3時間の労働が必要でした。しかし1992年ごろにはそれが1秒にも満たない労働ですむようになったと言われています。ロウソクから白熱電球、蛍光灯へという技術的発展が、光を劇的に安くしたのです。 そうして光が安くなったとき、人は同じ量の光を単に安く買って終わり――ということにはなりませんでした。 人々は、かつて置こうとも思わなかった場所にまで光を置き、街路、工場、看板といった、社会のあらゆる場所に安くなった光を敷き詰めていきました。そうして、工場は曇りや雨の日にも稼働することができるようになったり、深夜営業や夜の読書といった新しい活動が可能になったのです。 そこで儲けたのは、光を提供した会社だけではなく、それをうまく使った会社でした。 では、ソフトウェアや知能が安くなったとき、私たちはそれをどのように使うのでしょうか。 生成AIによる大きな変化は

    ソフトウェアや知能が安くなったときに起きること - 🐴 (馬)
    sigC
    sigC 2026/04/21
    話中でも触れられている「物理的ボトルネック」が最も厄介かもしれない。銅にケイ素にレアメタル、そして電気や水が代表的か。そして何より人間。/知能の低廉化の結果、高校進学が趣味の領域になったりして。
  • AIにおける「スポンジ人間」化を回避せよ 山本龍彦氏 - 日本経済新聞

    ポイント○「人間中心」を「見せかけの倫理」にしない○人間がAIの盾となる逆転現象も起きる○哲学・倫理と技術を統合した教育実現を世界の人工知能AI)法やAI倫理原則は、こぞって「人間中心」を掲げる。経済協力開発機構(OECD)のAI原則は、尊厳や自律を含む「人間中心の価値観」を重視し、欧州連合(EU)のAI法はみずからの目的を「人間中心で信頼できるAIの受容促進」(1条)と定めている。日のA

    AIにおける「スポンジ人間」化を回避せよ 山本龍彦氏 - 日本経済新聞
    sigC
    sigC 2026/04/17
    X経由。スポンジというか「肉の壁」「サンドバッグ」「車のバンパー(もしくはクラッシャブルゾーン)」というのが正しいんじゃないか?というコメントには同意すると共に、記事そのものも頷ける内容。
  • GitHubが明かす、「マルチエージェントシステム」失敗の要因と設計のプラクティス

    GitHubは2026年2月24日(米国時間)、マルチエージェントシステムが失敗する要因とその対策となる3つの設計パターンを解説した。 AIコーディング支援ツール「GitHub Copilot」や同社内での自動化、マルチエージェントの統合管理など、AI人工知能)エージェントに関する多様な取り組みを通じて得られた知見やノウハウを基に解説したものだ。 マルチエージェント構成が難しい理由 GitHubによると、単一のAIエージェントでタスクの全工程を処理するのが難しい以下のようなケースにおいて、マルチエージェント構成を採用しているという。 コードベースのメンテナンスと依存関係の更新 コード品質の自動チェックとリファクタリング 仕様駆動による機能実装 イシューとプルリクエスト(Pull Requests)のトリアージ だが、複数のAIエージェントを導入すると、共有されている状態(ステート)の不整

    GitHubが明かす、「マルチエージェントシステム」失敗の要因と設計のプラクティス
    sigC
    sigC 2026/04/14
    「エージェントはチャットインタフェースではなく、コードとして扱うべきだ」に強く同意。分散処理型インタプリタとして考えると色々わかりやすくなる。
  • Claudeトークン消費を抑えて5倍使う: 「原始人」口調が80%削減

    [注意]AIに書かせた記事をそのまま私の方でレビューして掲載しています。 Claudeマーケットプレイスにだしたらまた更新するかも?よろしくおねがいします。 @追記: 2026年4月18日 Claudeのマーケットプレイスに無事公開されました🎉 genshijin@v1.3.0を公開しました。マルチエージェント対応やセキュリティ対応、ベンチマーク更新などを含めています TL;DR caveman: Claude Code向けの英語圧縮スキル。冠詞やフィラーを消してトークン約68%削減 genshijin(原始人): cavemanの日語最適化版。敬語・クッション言葉・冗長助詞を消してトークン約80%削減 cavemanよりさらに38%少ないトークンで同じ技術的内容を伝達できる なぜそんなことが可能なのか? Claudeのトークナイザと日語の言語構造に秘密がある はじめに:あなたのCl

    Claudeトークン消費を抑えて5倍使う: 「原始人」口調が80%削減
    sigC
    sigC 2026/04/14
    以前からLLMへの指示はいずれプログラミング言語的になると思っていたけど、もうこういう実装例が出てきているんだなぁ。元々プログラミング言語特に高級言語は簡略化定式化された自然言語だし。
  • The peril of laziness lost | The Observation Deck

    In his classic Programming Perl — affectionately known to a generation of technologists as "the Camel Book" — Larry Wall famously wrote of the three virtues of a programmer as laziness, impatience, and hubris: If we’re going to talk about good software design, we have to talk about Laziness, Impatience, and Hubris, the basis of good software design. We’ve all fallen into the trap of using cut-and-

    sigC
    sigC 2026/04/13
    LLM Agent でコードの作成・ソフトウェアの開発が圧倒的に速くなったら、その空いた時間にさらにそれを詰め込むようになった。そしてその量を誇る。詰め込みまくった先には何があるのか、おそらく悲観的な。
  • エンジニアだからといって生成AIですぐに成果を出せるわけではない──AI時代に必要な“肌感覚”とは?

    4つのタイプで見る、生成AIとの相性とは? トヨタコネクティッドでは、生成AIが登場する以前から、車載ボイスエージェントの開発を通じて、音声認識形態素解析、意図理解といった技術に取り組んできた。だが、初めてChatGPTを試した檀野氏は、「これまで自分たちが書いてきたプログラムコードや自然言語処理のロジックの多くは、もはや書く必要がなくなるのではないか」と感じたという。 トヨタコネクティッド株式会社 先行企画部 檀野 隆一氏 そこで2023年からR&Dを開始。1年目、まずはアンケート結果の分類作業を自動化できないかと試した。2年目にはコードの生成能力が高まってきたことから、仕様書からAPIを生成してみた。そして3年目となる去年は、フィジカルAIの可能性を探るために、ロボットアームと生成AIを掛け合わせてみるなど、さまざまな試行錯誤を重ねてきた。 その中で檀野氏は、生成AIの進化の速さを痛

    エンジニアだからといって生成AIですぐに成果を出せるわけではない──AI時代に必要な“肌感覚”とは?
    sigC
    sigC 2026/04/09
  • グッドハートの法則(Goodhart's Law)とは?

    「指標が目標になると、それは“良い指標”ではなくなる」という逆説的な法則のこと。もともとは経済政策の現場で知られてきたが、教育評価や業績管理など、目標を数値化する場面でも応用されることが多い。AI機械学習の文脈でも、評価指標に関する議論などで言及されることがある。 連載目次 用語解説 グッドハートの法則(Goodhart's law)とは、「ある指標が目標になると、その時点でその指標は“良い指標”ではなくなる」(When a measure becomes a target, it ceases to be a good measure.)という法則である。もともとは、イギリスの経済学者チャールズ・グッドハート(Charles Goodhart)氏が1975年に発表した、経済政策に関する論文の中で提示された原則だが、近年では経済、教育、評価、AI機械学習など、さまざまな分野で広く応用さ

    グッドハートの法則(Goodhart's Law)とは?
    sigC
    sigC 2026/04/07
  • GitHub - NVIDIA/garak: the LLM vulnerability scanner

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - NVIDIA/garak: the LLM vulnerability scanner
    sigC
    sigC 2026/03/29
  • GitHub - 0din-ai/ai-scanner: AI model safety scanner built on NVIDIA garak

    An open-source web application for AI model security assessments, built with Ruby on Rails and NVIDIA garak. Scanner helps organizations test their AI systems for vulnerabilities before deployment — similar to penetration testing for traditional software. 📖 Full documentation → 179 community probes across 35 vulnerability families, aligned with the OWASP LLM Top 10 Multi-target scanning — test AP

    GitHub - 0din-ai/ai-scanner: AI model safety scanner built on NVIDIA garak
    sigC
    sigC 2026/03/29
  • J-POPはアニメの下請けになったのか?|みの

    1. なぜ「音楽そのもの」を語ると怒られるのか一つの楽曲を巡って、これほどまでに「正解の語り方」を求められる時代があっただろうか。最近公開した4の批評動画に寄せられた反応を分析していると、僕たちはいつの間にか、音楽を聴く際の「ある強力なルール」に支配されていることに気づかされる。 サカナクションの山口一郎氏が放った「音楽ジャーナリズムは死んでいる」という言葉への回答として、僕は「怪獣」「ライラック」「AIZO」「アイドル」の批評動画を立て続けに公開した。焦点に据えたのは、和声の動きやリズムの設計、アレンジの選択、サウンドの文法、そして歌詞の表現。今の時代を象徴する楽曲を、純粋に音楽として解剖するのが狙いだ。 しかし、公開のたびにコメント欄へ押し寄せたのは、これまでにない種類の反応であった。 「原作を無視して批評するな」「アニメを観てから語れ」「タイアップの文脈を無視している」。 当初は一

    J-POPはアニメの下請けになったのか?|みの
    sigC
    sigC 2026/03/17
    アニメがなんだじゃないけど昔はアニメ側から「全然アニメの内容に合ってない主題歌」への批判が強かった時代があるというのも頭の隅に入れておくと、昔のように完全に分割した方がみんな幸せなんじゃないかなぁとも
  • GitHub - garrytan/gstack: Use Garry Tan's exact Claude Code setup: 15 opinionated tools that serve as CEO, Designer, Eng Manager, Release Manager, Doc Engineer, and QA

    Hi, I'm Garry Tan. I'm President & CEO of Y Combinator, where I've worked with thousands of startups including Coinbase, Instacart, and Rippling when the founders were just one or two people in a garage — companies now worth tens of billions of dollars. Before YC, I designed the Palantir logo and was one of the first eng manager/PM/designers there. I cofounded Posterous, a blog platform we sold to

    GitHub - garrytan/gstack: Use Garry Tan's exact Claude Code setup: 15 opinionated tools that serve as CEO, Designer, Eng Manager, Release Manager, Doc Engineer, and QA
    sigC
    sigC 2026/03/16
    何かもう言葉もない。何で人間なんて存在しているんですかね?
  • 44TB HDD実現の新技術「Mozaic 4+」。2033年には100TBへ、Seagateの挑戦

    44TB HDD実現の新技術「Mozaic 4+」。2033年には100TBへ、Seagateの挑戦
    sigC
    sigC 2026/03/16
    HDDもHDDで技術革新が進んでいるんだなぁ……というか記録部分を一瞬だけレーザーでピンポイント加熱して構造を弱めている隙に書き込むとかあの箱の中でなんてことしてるんですか。
  • 【100均ガジェット分解】(75)ダイソーの「ボイスコントロールライト」|tomorrow56 (ThousanDIY)

    記事は月刊I/O 2025年6月号に掲載された記事をベースに、内容を追記・修正をして再構成したものです。 ダイソーで音声を認識しON/OFFができる「ボイスコントロールライト」が発売されましたので、早速分解してみます。 パッケージの外観 パッケージと製品の外観ダイソーの「ボイスコントロールライト」は1個300円(税別)、色々な形のものが販売されており、今回は星形のものを分解しました。 パッケージ裏面の使用方法によると、「スマートライト」と呼びかけると音声認識を開始、「ライトを消して」でLEDが消灯、「ライトを点けて」でLEDが点灯します。 パッケージ裏面の使用方法ブランドと輸入元は「ダイソー」、型番は「ルームライト2587」です。 パッケージの輸入業者表示体の分解パッケージの内容パッケージの内容は「体」のみです。体の正面下にはUSB Standard-Aポートに直接差し込むためのU

    【100均ガジェット分解】(75)ダイソーの「ボイスコントロールライト」|tomorrow56 (ThousanDIY)
    sigC
    sigC 2026/03/16
    雑誌の I/O ってまだあったんか。
  • 「ジブリ風」も生成NG 著作権守る技術、ソニーGが開発 - 日本経済新聞

    ソニーグループの人工知能AI)研究開発部門であるソニーAIが、生成AIがつくる音楽や映像の著作権侵害を防ぎ、創作者が対価を得られる仕組みにつながる技術を開発した。まだ研究開発段階のため「社内の事業への応用は未定」(ソニーG)としている。ソニーGの機械学習分野のDistinguished Engineer、光藤祐基氏は「コンテンツホルダーでありテクノロジー企業でもあるソニーが、率先して開発してい

    「ジブリ風」も生成NG 著作権守る技術、ソニーGが開発 - 日本経済新聞
    sigC
    sigC 2026/03/15
    そもそもこの技術は絵を模倣させない方向に「学習させる」ことで成り立っているのだが、そもそも生成AI反対派の人たちは学習させること自体を拒んでなかったっけと。いいんかなこれ?
  • LLVMに対する32ビット定数除算の改善

    初めに LLVMはコンパイラ基盤で、抽象的なCPU命令を表す中間表現LLVM-IRに対して最適化を行ったり、ターゲットCPU用のアセンブリ言語コードを生成したりする機能を持ちます。 今回、符号無し32ビット変数xに対するx/7のような定数除算についてLLVMの最適化を改善するプルリクエスト[SelectionDAG] Optimize 32-bit udiv with 33-bit magic constants on 64-bit targetsがllvm:mainにマージされました。LLVMはC/C++/Rust/Swiftなど様々な言語のコンパイラ実装に利用されているため、それらの言語の最適化に寄与します。 何がどう改善されたのか たとえば入力値retを7, 19, 107で割りながら10億回更新するCのコードbench.cがclang-18 -O2でx64 (Xeon w9-349

    LLVMに対する32ビット定数除算の改善
    sigC
    sigC 2026/03/11
    四則演算でも除算だけは他3つと異なり未だコンピューターにとっては大変な部分なので……とはいえ64bitと32bitではマジックナンバーは当然違うよね、というのがまだ解決されていなかったというのに驚く。
  • AIがオープンソースの「鍵」を壊す日――chardet騒動の本質|情報の灯台

    月間1億3,000万ダウンロードを超えるPythonライブラリが、AIで丸ごと書き換えられた。ライセンスごと。オープンソースの根幹を揺るがす問いが、いま目の前にある。 5日間で書き換えられた12年Pythonの文字エンコーディング検出ライブラリchardetに、激震が走っている。 メンテナーのダン・ブランチャードが3月4日(現地時間)、バージョン7.0をリリースした。これだけなら日常的なアップデートだ。だが中身は、日常とはほど遠かった。AnthropicのClaude Codeを使い、コードベースを一から書き直したうえで、ライセンスをLGPL(準コピーレフト)からMIT(寛容型)に変更したのだ。 chardetはPythonエコシステムの「インフラ」と呼べる存在だ。requestsをはじめとする無数のプロジェクトが依存し、PyPIでの月間ダウンロード数は約1億3,800万回に達する。その根

    AIがオープンソースの「鍵」を壊す日――chardet騒動の本質|情報の灯台
    sigC
    sigC 2026/03/09
    「誰でもソフトウェアを自由に使い、作り、流通させる世界」というのがFSFの目的であったのだが、「使い、作り」の部分が今までのやり方を完全にぶち壊す方法で現れた今FSFの意義とは。流通させなくていいんだものね。
  • なぜAIは組織を速くしないのか 令和の腑分け

    2026年2月26日「開発生産性のその先へ、AI生産性について語りたい」発表資料 https://forkwell.connpass.com/event/384640/

    なぜAIは組織を速くしないのか 令和の腑分け
    sigC
    sigC 2026/03/04
    人間や人間の組織がボトルネックなら人間を排除してAIに最適化された組織にすればいいんじゃないかな。
  • 生成AIの「それっぽい嘘」に
疲弊するアカデミア【平山 優】

    『公研』2026年2月号「interview」 インターネット上の論争のかたちが大きく変容しつつある。正々堂々と自前の意見をぶつけ合うのではない。生成AIに「代理戦争」させるのだ。しかし生成AIの意見が事実とは限らない。情報の足りない部分を勝手に補い、あたかも事実であるかのように装うことも多い。生成AIの「それっぽい嘘」に頭を抱えているのが専門家だ。 2025年10月、歴史学者の平山優氏はとあるネットユーザーが生成AIで作成した主張に対し、徹底的な反論を試みた。挙げられていた文献や記述が「そもそも存在しない」と喝破した氏の投稿は、大きな反響を得るとともに「生成AIの虚言を専門家が正す」という不毛な時代の幕開けを予感させた。 稿では、インターネット空間のフラットさが専門家にもたらすリスクや、生成AIが学術の現場に与える影響等について、平山先生ご人にお話を伺った。 健康科学大学特任教授 平

    sigC
    sigC 2026/03/04
    LLMが真に役に立つ分野はコンピュータープログラミング、もうちょっと大きく取ってソフトウェア開発ぐらいしかないと思った方がいい。現実のあれこれにぶつけるなんてもっての外。