タグ

関連タグで絞り込む (352)

タグの絞り込みを解除

*programに関するsh19910711のブックマーク (10,836)

  • Claude Code と OpenAI o3 で メタデータ情報を作る

    sh19910711
    sh19910711 2025/08/16
    "タグをつけてAIによる生成と明記して、利用者に注意を促し / o3-mini: 1テーブルのメタデータを生成するのに20-30秒 + 費用は$0.02程度"
  • 『テスト書いた方が開発が早いじゃん』を解き明かす #phpcon_nagoya

    PHPカンファレンス名古屋2025の発表資料です https://fortee.jp/phpcon-nagoya-2025/proposal/436ec84b-1ab6-46a4-abb8-a29abaf8a817

    『テスト書いた方が開発が早いじゃん』を解き明かす #phpcon_nagoya
    sh19910711
    sh19910711 2025/08/16
    "プログラミングは、要求や目的に沿ってコードへ翻訳する活動 / 「問い」があっても必ずしも「解法」の形を規定せず、正解や完成の度合いも明確になりにくい"
  • Claude Code+FigmaMCPより正式サービスした「Figma Make」がFigmaデザインの再現はよい(個人の感想)

    一番最初に 「ごめんね、出せるデザインがないこととデザイン能力なくて 記事内にClaudeCode+FigmaMCPとFigmaMakeでの比較はないんだよ! 」 見事に体調崩してました FigmaMakeのベータ版が終わって正式サービスになりました。 ベータのころから触っていました。特にデザイナさんに依頼しずらい金額で受注せざる得ないような状況ではとても重宝しました。 既にZenn記事はありますが、リハビリのため記載しましたので正直記事の内容は微妙です。 結論:「Figma Make」ってなに? AIプロンプトベースでデザイン作ってくれるサービスだよ! Figmaに親和性が高いので、ClaudeCode等でデザインするよりもかなりスタイリッシュなデザインができます。 デザイナーさん入れれない環境だとかなり重宝します。 また、人間に依頼しないでプロンプトベースで、クレジットの範囲内ですが、

    Claude Code+FigmaMCPより正式サービスした「Figma Make」がFigmaデザインの再現はよい(個人の感想)
    sh19910711
    sh19910711 2025/08/16
    "Figma Sitesで作ったフレーム内容に対してFigmaMakeで動きを付けたり / 動きを見せるデザインを作るのにはとても効果的"
  • AIエージェントのためのコンテキストエンジニアリング:Manus構築から得た教訓

    Manusプロジェクトの最初の段階で、私のチームと私は重要な決断に直面しました:オープンソースの基盤を使用してエンドツーエンドのエージェントモデルをトレーニングするべきか、それとも最先端モデルの文脈内学習能力の上にエージェントを構築するべきか? NLPの最初の10年間、私たちはその選択肢を持つ贅沢はありませんでした。BERTの遠い日々(はい、それは7年前です)では、モデルは新しいタスクに移行する前に、ファインチューニング—そして評価—する必要がありました。そのプロセスは、今日のLLMと比較してモデルが小さかったにもかかわらず、イテレーションごとに数週間かかることがよくありました。特にプレPMFの段階では、このような遅いフィードバックループは致命的な欠点です。これは私の前のスタートアップからの苦い教訓でした。そこではオープン情報抽出と意味検索のためにゼロからモデルをトレーニングしていました。

    sh19910711
    sh19910711 2025/08/16
    "間違ったものも残しておく / 言語モデルは幻覚を見、環境はエラーを返し、外部ツールは誤動作 / 失敗を消去すると証拠が削除され ~ 証拠がなければ、モデルは適応できません"
  • 「関数型ドメインモデリング」を読んだ - p-kino’s blog

    業務で複雑なドメインを持つソフトウェアをScalaで書いているので以前からとても読みたかったのだが、英語とは遠い昔に仲違いしてしまい読むことができなかった。 この度和訳されたことに感謝したい。 関数型ドメインモデリング - アスキードワンゴ 全体を通した感想 正直言って、このに書いてある内容を全て実践するのは難しいと感じた。 まず、最初に出てくるドメインエキスパートを交えたイベントストーミングの実施が一番の壁というチームも多いのではないだろうか。 しかし、それでもなおこのにより新しく知った考え方は多く、読む価値があったと思う。 ScalaやHaskellなど静的型付けの関数型言語をかじってみたがこれをどう実際のビジネスに関わるアプリケーションの開発に適用していくのかイメージが掴めないという人には特に勧められる。 F#でサンプルコードが書かれているが、静的型付けの関数型言語に触れたことが

    「関数型ドメインモデリング」を読んだ - p-kino’s blog
    sh19910711
    sh19910711 2025/08/16
    2024 / "モナドが何なのかろくすっぽ理解できなかったとしても全く問題なく読み勧められる / むしろモナドにより理解が妨げられないよう配慮"
  • OpenAI Agents SDKで複数のMCPサーバーと連携したマルチエージェントを作る

    きっかけ 7月末のWeights & Biasesのミートアップ OpenAI Agents SDKハンズオンに参加してAgents SDKについて学びました。 便利そうなのでさっそく使って、機械設計用の計算をするマルチエージェントを作ってみました。 今回やりたいこと OpenAI Agents SDKを使う マルチエージェントを構築 Model Context Protocol (MCP)を利用 ツールは何でもよいので、以前Function Calling用に作成した関数セットなど手元にある計算ツールを再利用しました。また、社内外のMCPの活用を見据えて、既存のコードをMCP化して使いました。 これができると、社内外のAPIなどを自律的に操作してタスクを実行してくれるエージェントを作れるようになります。あとはこの例と同様に、使いたいツールや子エージェントを追加・入替えて、望んだ機能に拡張

    OpenAI Agents SDKで複数のMCPサーバーと連携したマルチエージェントを作る
    sh19910711
    sh19910711 2025/08/16
    "Agents SDKではハンドオフを使うと、あるエージェントがタスクを別のエージェントに任せる / 他にもガードレールや他社モデルを使う機能"
  • LLMのモデルマージ手法 | データアナリティクスラボ

    JOURNALについて データアナリティクスラボ株式会社では、ITやデータサイエンスに関する技術の研究活動を行っています。このブログでは、研究活動で得られた知見や検証結果についての情報を発信します。 ブログで提供される情報は、可能な限り正確かつ最新の情報であるように努めますが、必ずしもその正確性を保証することはできません。場合によっては誤情報が含まれたり、最新の情報ではない可能性もあります。予めご了承いただけますようお願い申し上げます。 はじめに データソリューション事業部の宮澤です。今回はLLMのモデルマージ技術について解説します。モデルマージとは、複数のモデルのパラメータを何かしらの形で合成することによって新たなモデルを構築する技術のことを指します。この手法を活用することで、事前学習やファインチューニングのように、複雑で計算量の大きい処理を伴うことなく、高性能なモデルを効率的に構築す

    LLMのモデルマージ手法 | データアナリティクスラボ
    sh19910711
    sh19910711 2025/08/16
    2024 / "モデルスープ: 異なるハイパーパラメータで微調整された複数のモデルの重みを平均化することで、推論コストやメモリを追加することなく精度とロバスト性を向上"
  • Rで連立方程式を解く練習(例:超小型の日本経済マクロ計量モデル) - StatsBeginner: 初学者の統計学習ノート

    先日、『gretlで計量経済分析』というに載っている二段階最小二乗法の演習をRでやってみるエントリ(リンク)を書いたのですが、同じの次の章は「マクロ計量モデル入門」となっていて、1980年から2009年までの日経済のデータを用い、5の構造方程式と2の定義式、7つの内生変数と9つの外生変数からなる超小型のマクロ計量モデルをつくるというものでした。 Rで連立方程式を解く方法の確認がてら、Rで実行してみます。 最近、研究室の学生にRの使い方をイチから教えてるのですが、これをさらに単純化して練習問題に使えるかも……? データはのサポートページからダウンロードできるものですが、「model.gdt」というファイルをgretlで読み込んでcsvで書き出したものを、Rに読み込ませて使いました。 準備 データは↓のようなイメージです(画像は一部です)。 library(lmtest) libr

    Rで連立方程式を解く練習(例:超小型の日本経済マクロ計量モデル) - StatsBeginner: 初学者の統計学習ノート
    sh19910711
    sh19910711 2025/08/16
    2019 / "『gretlで計量経済分析』という本 / nleqslv: 未知数が並んだベクトルだけを引数に取る関数(f0とする)を定義 + 関数foと「未知数の初期値ベクトル」を与える"
  • 【講義まとめ】"MIT 6.5940 TinyML and Efficient Deep Learn"で学ぶ、AIモデル圧縮・高速化の最前線

    💡 この記事はこんなあなたにおすすめ! 「手元のPCじゃ、もう最新のAIは動かせない…」 「論文で見るすごいモデル、どうすれば自分の環境で動かせるんだろう…」 そんな風に、高性能なGPUがないからと諦めていませんか? 実は、あのMITが無償で公開している講義を受ければ、8GBのような少ないVRAMのノートPCでも、LLMを動かす夢が叶うかもしれません! それが、今回ご紹介するMIT 6.5940: TinyML and Efficient Deep Learning Computingです。 この講義、名前に「TinyML」と入っていますが、侮ってはいけません。マイコン向けの小さなモデルだけでなく、LLMや画像生成AI(拡散モデル)のような巨大モデルを、どうやって私たちの身近なPCで動かすかという、今まさに誰もが知りたい技術の最前線を体系的に、しかも実践的に学べるんです! この記事では、

    【講義まとめ】"MIT 6.5940 TinyML and Efficient Deep Learn"で学ぶ、AIモデル圧縮・高速化の最前線
    sh19910711
    sh19910711 2025/08/16
    "MITが2024年秋学期に開講している機械学習の効率化・軽量化に特化した授業 / マイコンで動く極小モデルだけでなく、LLMや拡散モデルなど“巨大モデル”も対象"
  • PromptDA (Depth Anything) を用いた深度推定や点群生成について

    sh19910711
    sh19910711 2025/08/16
    "Depth Anything: 視覚情報(画像)のみを利用して高精度な深度マップを生成 / PromptDA: LiDARなどで取得した低解像度な深度を「プロンプト」として入力する"
  • ユニットテストは振る舞いをテストするもので、実装に対して書くものでは無い

    この記事の要約 ユニットテストは実装内容に注目せず、実際の用途と入出力に焦点を当てて行う。 1つの振る舞いに対して、1つのテストを行うのであって、1つのコードではない。 必要な振る舞い単位で関数を分けず、機械的な単位分割は避ける。 部分的にテストをしたいからといって、privateをpublicにしない。 「単体テストの考え方/使い方」は実装コードを改善するうえでも、とても良い。 書籍リンク:単体テストの考え方/使い方 「単体テストの考え方/使い方」を読んで、 今まで悪いユニットテストを書いていたことが分かり、 同時に良いユニットテストが何かも分かったので、思考を整理するために記事にしました。 どう変わったかを、送料計算を例に説明していきます。 要件 購入金額に応じて送料を計算する。 1000円以上の購入で送料無料になる。 読書前の思考パターン(悪い例) この要件を受けて、次のように考え

    ユニットテストは振る舞いをテストするもので、実装に対して書くものでは無い
    sh19910711
    sh19910711 2025/08/16
    2023 / "ユニットテストは実装内容に注目せず、実際の用途と入出力に焦点 / 1つの振る舞いに対して、1つのテスト / 「単体テストの考え方/使い方」は実装コードを改善するうえでも、とても良い本"
  • Juliaの自動微分ならDifferentiationInterface.jlがおすすめ

    Juliaには多数の自動微分パッケージがあり, それぞれ使い方が異なります. ここでは, これらを共通のインターフェースから利用できるDifferentiationInterface.jlを紹介します. はじめに 2025年7月に開催されたJuliaHEP 2025 Workshopに参加したところ, 自動微分に詳しい方に上記パッケージを紹介してもらえました. バックエンド一覧をによると, 対応している自動微分パッケージは下記の通りです. ChainRules Diffractor Enzyme FastDifferentiation FiniteDiff FiniteDifferences ForwardDiff GTPSA Mooncake PolyesterForwardDiff ReverseDiff Symbolics Tracker Zygote これらのパッケージを同じインタ

    Juliaの自動微分ならDifferentiationInterface.jlがおすすめ
    sh19910711
    sh19910711 2025/08/16
    "Juliaコミュニティでは全世界的に高速な自動微分パッケージEnzyme.jlへの移行が検討 / DifferentiationInterface.jlを利用するときは, バックエンドとして利用する自動微分パッケージも自分でインストール"
  • 【状態空間モデル】PyStanとpykalmanでダウ平均株価予測 - ころがる狸

    こんにちは。ゴールデンウィーク3日目です。緊急事態宣言が5月末まで延長しそうです。家に籠って勉強なりゲームなりをしています。 今日は、状態空間モデルを取り上げます。状態空間モデルでは、実際の観測値とその背後にある真の状態を分けて考えます。真の状態は時間とともに変化しますが、私たち観測者にはその状態が見えません。観測者が手にすることができるのは観測値のみで、これに基づいて真の状態を推定します。もっとも素朴なモデルでは、真の状態における1つの時間ステップでの変化は微小であると想定したり、観測されるのは真の状態にノイズがのったものであるとする仮定を置いたりします。このような状態空間モデルのイメージ図として以下のような図が用いられることが多いです。真の状態が時々刻々と推移しており、私たちが観測する値はそこから派生したものであると見なします。 状態空間モデルのイメージ状態空間モデルを用いた予測の方法

    【状態空間モデル】PyStanとpykalmanでダウ平均株価予測 - ころがる狸
    sh19910711
    sh19910711 2025/08/11
    2020 / "積分計算の中に含まれているp(θ|Y)をMCMCサンプルとして計算し、既知の関数であるp(y|θ)と掛け合わせ積分を和で置き換え"
  • 3Dモデルの配信サーバーでRustとZstandardを採用して数倍のパフォーマンス向上を実現した - pixiv inside

    はじめに こんにちは、VRoid部所属のエンジニアのyueです。 この度VRoid Hubで3Dモデルの配信サーバーの見直しを行い、技術選定から始めRustとZstandard (zstd)を採用した実装に切り替えました。 結論から見るに従来のNode.js製サーバーと比べて以下のことを実現しました。 最大のレスポンス時間が 1.5 ~ 2.5s から 300 ~ 400msまで低下 平均のレスポンス時間が 700 ~ 800ms から 150 ~ 200msまで低下 サーバーのCPU使用率が ~ 50% から ~ 10%まで低下 docker image のサイズが ~ 346mb から ~ 21mb程度まで削減 配信されるファイルサイズが平均 10 ~ 20% 軽量化されました レスポンス時間 CPU使用量 (上からAVG(MAX), AVG, AVG(MIN)) メモリー使用量に関し

    3Dモデルの配信サーバーでRustとZstandardを採用して数倍のパフォーマンス向上を実現した - pixiv inside
    sh19910711
    sh19910711 2025/08/11
    2024 / "zlib: 近年パフォーマンス改善を目指したzlib-ng やcloudflare/zlib などのフォーク / LinuxのFedora distroも最近標準zlibからzlib-ng に置き換える動き"
  • gpt-oss-120bをpythonとvLLMで触りながら理解する - ABEJA Tech Blog

    データサイエンティストをしている服部です。 OpenAIからgpt-ossというオープンモデルが登場しました。 早速ですが、このモデルを使いながら中身を理解していきたいと思います。 gpt-ossのモデル特徴 vLLM上で動かす 通常のtokenizerで動かす 最終出力と思考部分 chat templateも見てみる Tool Useを試す Built-in toolも試す Python blowser 複数のツールを同時並列で使えるか? まとめ We Are Hiring! gpt-ossのモデル特徴 openai.com 他にも紹介している記事はたくさんあるため手短に... 今回OpenAIからは2種類のモデル gpt-oss-120b と gpt-oss-20b がリリースされており、どちらもApache2.0ライセンスで提供されてます。 どちらのモデルもMoE(Mixture o

    gpt-oss-120bをpythonとvLLMで触りながら理解する - ABEJA Tech Blog
    sh19910711
    sh19910711 2025/08/11
    "アクティブパラメータはそれぞれ5.1b, 3.6b / 120b(1200億)パラメータあるが、推論時に計算に使うパラメータは5.1b(51億)だけという意味合い"
  • 生成AIで内部ツール開発のジレンマを解決する - KAKEHASHI Tech Blog

    はじめに 生成AI研究開発チームでソフトウェアエンジニアをしている坂尾です。 カケハシでは製品として生成AIを活用するのはもちろんですが、業務の中でも活発に生成AIを利用しています。今回は、生成AIを活用して内部ツールを効率的に開発した事例をご紹介します。 内部ツール開発のジレンマ 開発や運用作業をする上で、管理画面などの内部ツールの開発をすることも多々あります。例えば、運用するための管理画面やfeature flagを設定するデバッグ機能などです。 しかし、これらは「あれば便利」だよねというものも多く、直接的な利益を生むわけではないため、以下のような課題があります: エンジニアリングリソースは製品の開発に集中させたいため、優先度が下がりがち 工数が取れていざ取り掛かろうとした時にはモチベーションが下がってしまいがち コードは書いた瞬間から負債となるため、最低限にしたい。必要なものを見極め

    生成AIで内部ツール開発のジレンマを解決する - KAKEHASHI Tech Blog
    sh19910711
    sh19910711 2025/08/11
    "あれば便利: 工数が取れていざ取り掛かろうとした時にはモチベーションが下がってしまいがち + 実際に作られるとやはり便利 / 作成されたツールによって開発や検証のスピードが上がることもしばしば"
  • MCPツールを用いた自然言語でのAWSコスト分析

    みなさんこんにちは! カンリーのプラットフォーム部でSREを担当している有村です。 今回は、AWSのCost and Usage Report(CUR)をAIツールを用いて分析する事例を紹介します。 コスト分析における課題 AWSのコストを分析する際、Cost ExplorerとCURを活用する方法がありますが、それぞれ以下のような課題があります。 Cost Explorer AWSのサービスごとのコストをグラフで視覚的に確認できる一方、利用用途ごとの詳細なコスト分析が困難 CUR コスト利用状況を詳細に分析できるが、クエリを用いた分析を行う場合、Athena等で分析用テーブルを作成する必要がある 分析環境の構築工数やクエリ実行時のコストを考慮する必要がある SQLなどのクエリを実行する知識が必要 記事では、MCPツールを用いて上記の課題を解決し、自然言語で直感的にAWSのコスト分析を行

    MCPツールを用いた自然言語でのAWSコスト分析
    sh19910711
    sh19910711 2025/08/11
    "mcp-vegalite-server: 自然言語によるプロンプトやCSVファイルからVega-Liteを用いてグラフを描画"
  • 自作言語の紹介と関数型言語の実装方法の検討

    はじめに 私が個人で昨年の 6 月ごろから開発している関数型プログラミング言語を紹介する。言語の名前は「Plato」である。 この言語は昨年の U22 プログラミングコンテスト最終発表会でも発表した。コンテスト後、コンパイラの構成と実装に関して調査し直して、コードを一から書き直した。コンパイラは Haskell で書かれているため、稿の内容も Haskell の知識をベースとしている。また、型理論の知識もある程度求められる。ただ、大雑把に書いているため、大雑把に読めばよく、このブログの読解に正確さは必要無い。 このブログでは、まず Plato のチュートリアルを示し、実際に何ができるのかを説明する。次に型検査や中間言語の仕様などコンパイラの実装手法を大まかに説明する。最後に今後実現したい機能などについて述べる。理論的に面白いものや有用な機能については、後日それ専用の記事を書く予定。 チュ

    自作言語の紹介と関数型言語の実装方法の検討
    sh19910711
    sh19910711 2025/08/11
    2023 / "大きな特徴としてリテラルと入出力がない / 定理証明を目的とするのであれば、文字列や IO は必要なく、ただ型システムが利用できれば良い"
  • [Rust] ボトムアップパーサを自前で書いてみる

    Rustで作るプログラミング言語」とはあまり関係ないですが、やってみたかったことの一つです。 構文解析の世界には LL と LR パーサと呼ばれる分類があります。LL パーサはソースを左からスキャンし、左から導出することを意味します。同様に LR パーサは左からスキャンし、右から導出することを意味します。「導出」というのはトークンの並びを構文の構造で置き換えることを意味します[1]。 LL パーサはトップダウン、 LR パーサはボトムアップパーサとも呼ばれます。再帰下降パーサは LL(k) と呼ばれるパーサになります。 (k) は先読みするトークンの数を表し、再帰下降パーサはマッチに失敗した場合はバックトラックして他の構文を試すため、任意の数の先読みが必要とされることを (k) で示しています。注意深く構文を設計すれば先読みのトークンの数を減らすこともできます。 LR パーサは手で書くの

    [Rust] ボトムアップパーサを自前で書いてみる
    sh19910711
    sh19910711 2025/08/11
    2024 / "LALRPOP をはじめとするいくつかのクレートが LR パーサ (正確には LALR パーサ)を提供 / nom や pest などの LL パーサのほうが圧倒的に使われている"
  • llama2 7Bの事後学習: LoRaを使ったexpertのマージ

    llama2 7Bの事後学習として以下を行いました LoRaによる3種類のexpertの作成 3つのexpertをマージしMoEとし、router部分を学習 SFTで全体を学習 事前学習についてはこちら 事前学習編:Llama2 7B マルチノード/マルチGPU環境での事前学習 LoRaによる3種類のexpertの作成 Branch-Train-MiX(BTX)を参考に、事前学習を行ったllama2 7Bをベースとして、Finetunigを行い、3つのFT済みモデルを作成します。 Branch-Train-MiX(BTX)とは 事前学習したseedモデルを、Math、Code、Wikipediaの3種類でFinetuningし、FT後のモデルのMLP層をベースモデルに配置、MoE構造とし全体をトレーニングする手法です。 以下の図のイメージです 事前学習後のseedモデルに対し、異なるデータ

    llama2 7Bの事後学習: LoRaを使ったexpertのマージ
    sh19910711
    sh19910711 2025/08/11
    2024 / "BTX: 事前学習したseedモデルを、Math、Code、Wikipediaの3種類でFinetuningし、FT後のモデルのMLP層をベースモデルに配置"