behironのブックマーク (322)

  • 知っているようで知らないCLAUDE.mdを深掘りする | gihyo.jp

    「Claude Code」は、CLI上で動くLLMによるAIエージェントツールです。連載は12月5日に発売された『Claude CodeによるAI駆動開発入門』に書ききれなかった応用的な内容や最新のアップデートについて解説します。書籍をあわせて読むとさらに理解が深まることでしょう。 今回は知っているようで知らない、Claude Codeの「CLAUDE.md」について深掘っていきます。 CLAUDE.mdとは記憶である 前提としてClaude Codeは、立ち上げた際、つまりセッション間で、そのコードベースやユーザーとの過去のやり取りを基的に覚えていません。しかしセッションを立ち上げるたびに、膨大なコードベースを毎回走査して理解していくのも現実的ではありません。 そのため、コードやルールなどを理解する起点として存在しているのがCLAUDE.mdです。 これはエンジニアにとってのREAD

    知っているようで知らないCLAUDE.mdを深掘りする | gihyo.jp
    behiron
    behiron 2026/02/24
  • AI Agentフレームワークを使うべきなのか?

    こちらはLayerX AI エージェントブログリレー41日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをしているKenta Watanabeです。 AI Agent開発に取り組んでいる方や自分用の効率化ツールを開発したりしてLLMで遊んでいる方は何かしらのAgentフレームワークを利用されている方が多いのではないかと思います。LayerXでもAI SDKなどのフレームワークが社内で利用されています。日はAgent開発の試行錯誤を通して得られたAgentフレームワーク選びの参考になるような考え方を紹介できればと思います。 Agentフレームワーク戦国時代 ここ数年はAgentフレームワーク戦国時代と言えるほどたくさんのフレームワークやSDKが開発され利用されているのではないかと思います。各LLM ProviderはLLMを利用するためのHTTP EndpointとSD

    AI Agentフレームワークを使うべきなのか?
    behiron
    behiron 2026/01/21
  • 論理削除 - kawasima

    ユーザなどのリソースエンティティのパージするわけではないデータ削除(a.k.a. 論理削除)をどう設計するか、は単純でありながら、イミュータブルデータモデルの基形を学ぶ良い題材なので、順を追って説明する。 リソースの検討 まずユーザがアクティブなユーザと削除されたユーザで扱いが異なるかどうかを考える。この段階で物理設計としてどうするかを考えると検討ポイントが十分考慮されないことにつながるので注意しよう 。(イミュータブルデータモデル#5e3a5f1da8e5b200009c0499) 扱いが異ならない場合を考えてみよう。 code: (mermaid) classDiagram direction LR class ユーザ { <<Resource>> ユーザID : SERIAL PK 名前 : VARCHAR メールアドレス : VARCHAR ユーザ区分 : ENUMアクティブ/削

    論理削除 - kawasima
    behiron
    behiron 2025/12/20
  • Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】

    はじめに:この記事について この記事はModel Context Protocol (MCP)という、2024年11月にAnthropicが発表した新しいAIエージェント接続プロトコルについて、その基概念から実践的な活用方法まで包括的に解説します。特にMicrosoftのAzure AI Foundryとの連携を中心に、具体的なハンズオン手順を通じてMCPの可能性と実用性を探ります。 また、記事は2部構成となっております。 Part2は以下です。 この記事で学べること MCPの基概念とアーキテクチャを理解できる クラウドとローカル環境の両方でMCPを実装する方法を学べる Azure AI Foundryとの連携手順を通じて実践的なスキルを身につけられる エンタープライズ環境でのMCP活用におけるセキュリティ考察を理解できる MCP登場から約4ヶ月の2025年3月現在、MCPは急速に業

    Part1 : Azure AI Foundry で MCPを使ってみた【深掘りと最新動向調査】
    behiron
    behiron 2025/04/08
  • 大企業の幹部がやっている事について - Software Transactional Memo

    この記事を読むたびに学びがあるなぁと感じていたが読むたびに忘れている気がするので現時点での理解を書き留めることで今後の学びの糧にしたい。記事は元記事の全体を和訳する事や内容の全てを解説する事を目的としておらず、僕自身の学んだ事や振り返った事や噛み砕いた解釈を大いに含むので、記事に書かれている内容は元記事の主張と一致している保証は全くない事を念頭においてほしい。 apenwarr.ca To paraphrase the book, the job of an executive is: to define and enforce culture and values for their whole organization, and to ratify good decisions. このを言い換えると、幹部の仕事とは文化と価値を定義して強制し、良い決定を承認する事です。 元記事で言

    大企業の幹部がやっている事について - Software Transactional Memo
    behiron
    behiron 2025/02/21
  • 年金制度と老後のお金について知っておくべき話

    「年金貰えるの70歳からになったらどうする?」anond:20240124142918への回答です 3行まとめ日人の平均寿命が延びて、年金も変化してるので現状を正しく把握しよう 年金は老後の生活費の半分以上を支える重要な制度 でも、年金だけでは全てをまかなえないのでそれ以外の準備も大切だよ 簡単な年金制度紹介自営業者の制度:国民年金支払い: 20歳から60歳まで、約2万円/月 支給: 65歳から約6.5万円/月 ※夫婦だと13万円/月の支給 サラリーマンの制度:厚生年金支払い: 65歳まで3.1万円/月(年収400万円の場合) 支給: 約14万円/月(国民年金6.5万円+厚生年金7.3万円) ※一般的な夫婦だと21~25万円/月程度の支給 繰り上げ受給すると減額され、繰り下げ受給すると増額されます。 一生涯受け取れるため、長生きに対する保険としては非常に優れた制度です。 自分の場合どれく

    年金制度と老後のお金について知っておくべき話
    behiron
    behiron 2024/12/31
  • ChatGPT - LLMシステム開発大全

    私の今まで経験してきた全てのLLMノウハウを詰め込んだ、LLMシステムの開発ガイドです。 初めてLLMシステムを開発したいと思った時でも、精度改善や運用に行き詰った時でも、何かしら役に立つと思います。 現在200ページ超。 ちょっと量が辛くなってきましたが今後も節目で更新していきます。 …

    ChatGPT - LLMシステム開発大全
    behiron
    behiron 2024/12/28
  • RAG From Scratch

    Retrieval augmented generation (or RAG) is a general methodology for connecting LLMs with external data sources. This video series will build up an understan...

    RAG From Scratch
    behiron
    behiron 2024/12/25
  • マルチモーダル / AI Agent / LLMOps 3つの技術トレンドで理解するLLMの今後の展望

    最近登壇で使っていたLLM関連技術の今後について触れた50ページほどの資料を公開します。 (予測や展望は個人の見解を多分に含む点をご容赦ください。) 細かい技術説明というよりみんな気になるAgent、LLMOps周りの実際に立ち向かって死にかけた経験を赤裸々に書いた感じです。取り組む前にこの屍を…

    マルチモーダル / AI Agent / LLMOps 3つの技術トレンドで理解するLLMの今後の展望
    behiron
    behiron 2024/12/10
  • Generators, advanced iteration

    behiron
    behiron 2024/08/27
  • 深層学習界の大前提Transformerの論文解説! - Qiita

    この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル

    深層学習界の大前提Transformerの論文解説! - Qiita
    behiron
    behiron 2024/07/30
  • AOAI Dev Day LLMシステム開発 Tips集

    Azure OpenAI Dev Dayにおいて発表したLLMシステム開発のTips集です。 ◆Prompting System Prompt は構造化・再利用を考慮せよ Prompt Store を作って複数のエージェントでプロンプトの部品を共有 Lost in the Middle…

    AOAI Dev Day LLMシステム開発 Tips集
    behiron
    behiron 2024/07/26
  • もう多分怖くないサービスプリンシパル | SIOS Tech Lab

    こんにちは、サイオステクノロジー武井です。今回はAzureのサービスプリンシパルについて書こうかと思います。 なんかよくわかんないサービスプリンシパル Azureで一番最初につまずくのはサービスプリンシパルかと思います。サービスプリンシパルはAzure上でアプリつくったり、Azure ADで認証を行う際には必須の概念なのですが、多分C言語のポインタと同じくらいなわかりづらさで有名かと想像します。サービスプリンシパルワカンナイヨーから脱却するための情報を記事で提供出来たらなと思い一筆したためました。後は自分の備忘録のためです(´・ω・`) ということでまずはじめにサービスプリンシパルについての概念的な説明をします。この概念だけの説明ではなかなかわからないので、それを補足する形でいくつかの利用例を交えながら、より詳細に説明していきたいと思います。 サービスプリンシパルってなに? ややこしいサ

    もう多分怖くないサービスプリンシパル | SIOS Tech Lab
    behiron
    behiron 2024/05/08
  • Why choose async/await over threads?

    A common refrain is that threads can do everything that async/await can, but simpler. So why would anyone choose async/await? This is a common question that I’ve seen a lot in the Rust community. Frankly, I completely understand where it’s coming from. Rust is a low-level language that doesn’t hide the complexity of coroutines from you. This is in opposition to languages like Go, where async happe

    Why choose async/await over threads?
    behiron
    behiron 2024/03/29
    “pertinent”
  • im2col徹底理解 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 対象者 CNNを用いた画像認識で登場するim2col関数について詳しく知りたい方へ 初期の実装から改良版、バッチ・チャンネル対応版、ストライド・パディング対応版までgifや画像を用いて徹底解説します。 目次 im2colとは なぜ必要か CNNとは フィルタリング im2colの動作と初期の実装 im2colの動作 im2colの初期の実装 初期のim2colの問題点 改良版im2col(初期ver) 変更点1 変更点2 変更点3 多次元配列への拡張 数式で追いかける 実装してみる ストライドとパディング ストライド パディング ストラ

    im2col徹底理解 - Qiita
    behiron
    behiron 2024/03/24
  • Open Source Models with Hugging Face

    behiron
    behiron 2024/03/07
    “Hugging Face Spaces”
  • 大規模言語モデルを作る、拡張する

    大規模言語モデルの作りかたを 1. 事前学習 (Pre-Training) 2. 事後学習 (Post-Training) 3. モデル選定・評価 (Model Selection / Evaluation) に分けてご紹介します。 https://dbsj.org/dbsj_le…

    大規模言語モデルを作る、拡張する
    behiron
    behiron 2024/03/06
  • Stew Science: Is It Really Better the Next Day?

    behiron
    behiron 2024/02/27
  • J. Kenji López-Alt - Serious Eats

    behiron
    behiron 2024/02/27
  • RAGの性能を改善するための8つの戦略 | Fintan

    近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

    RAGの性能を改善するための8つの戦略 | Fintan
    behiron
    behiron 2024/02/09