一番最初に 「ごめんね、出せるデザインがないこととデザイン能力なくて 記事内にClaudeCode+FigmaMCPとFigmaMakeでの比較はないんだよ! 」 見事に体調崩してました FigmaMakeのベータ版が終わって正式サービスになりました。 ベータのころから触っていました。特にデザイナさんに依頼しずらい金額で受注せざる得ないような状況ではとても重宝しました。 既にZenn記事はありますが、リハビリのため記載しましたので正直記事の内容は微妙です。 結論:「Figma Make」ってなに? AIプロンプトベースでデザイン作ってくれるサービスだよ! Figmaに親和性が高いので、ClaudeCode等でデザインするよりもかなりスタイリッシュなデザインができます。 デザイナーさん入れれない環境だとかなり重宝します。 また、人間に依頼しないでプロンプトベースで、クレジットの範囲内ですが、
Manusプロジェクトの最初の段階で、私のチームと私は重要な決断に直面しました:オープンソースの基盤を使用してエンドツーエンドのエージェントモデルをトレーニングするべきか、それとも最先端モデルの文脈内学習能力の上にエージェントを構築するべきか? NLPの最初の10年間、私たちはその選択肢を持つ贅沢はありませんでした。BERTの遠い日々(はい、それは7年前です)では、モデルは新しいタスクに移行する前に、ファインチューニング—そして評価—する必要がありました。そのプロセスは、今日のLLMと比較してモデルが小さかったにもかかわらず、イテレーションごとに数週間かかることがよくありました。特にプレPMFの段階では、このような遅いフィードバックループは致命的な欠点です。これは私の前のスタートアップからの苦い教訓でした。そこではオープン情報抽出と意味検索のためにゼロからモデルをトレーニングしていました。
業務で複雑なドメインを持つソフトウェアをScalaで書いているので以前からとても読みたかったのだが、英語とは遠い昔に仲違いしてしまい読むことができなかった。 この度和訳されたことに感謝したい。 関数型ドメインモデリング - アスキードワンゴ 全体を通した感想 正直言って、この本に書いてある内容を全て実践するのは難しいと感じた。 まず、最初に出てくるドメインエキスパートを交えたイベントストーミングの実施が一番の壁というチームも多いのではないだろうか。 しかし、それでもなおこの本により新しく知った考え方は多く、読む価値があったと思う。 ScalaやHaskellなど静的型付けの関数型言語をかじってみたがこれをどう実際のビジネスに関わるアプリケーションの開発に適用していくのかイメージが掴めないという人には特に勧められる。 F#でサンプルコードが書かれているが、静的型付けの関数型言語に触れたことが
きっかけ 7月末のWeights & Biasesのミートアップ OpenAI Agents SDKハンズオンに参加してAgents SDKについて学びました。 便利そうなのでさっそく使って、機械設計用の計算をするマルチエージェントを作ってみました。 今回やりたいこと OpenAI Agents SDKを使う マルチエージェントを構築 Model Context Protocol (MCP)を利用 ツールは何でもよいので、以前Function Calling用に作成した関数セットなど手元にある計算ツールを再利用しました。また、社内外のMCPの活用を見据えて、既存のコードをMCP化して使いました。 これができると、社内外のAPIなどを自律的に操作してタスクを実行してくれるエージェントを作れるようになります。あとはこの例と同様に、使いたいツールや子エージェントを追加・入替えて、望んだ機能に拡張
JOURNALについて データアナリティクスラボ株式会社では、ITやデータサイエンスに関する技術の研究活動を行っています。このブログでは、研究活動で得られた知見や検証結果についての情報を発信します。 本ブログで提供される情報は、可能な限り正確かつ最新の情報であるように努めますが、必ずしもその正確性を保証することはできません。場合によっては誤情報が含まれたり、最新の情報ではない可能性もあります。予めご了承いただけますようお願い申し上げます。 はじめに データソリューション事業部の宮澤です。今回はLLMのモデルマージ技術について解説します。モデルマージとは、複数のモデルのパラメータを何かしらの形で合成することによって新たなモデルを構築する技術のことを指します。この手法を活用することで、事前学習やファインチューニングのように、複雑で計算量の大きい処理を伴うことなく、高性能なモデルを効率的に構築す
先日、『gretlで計量経済分析』という本に載っている二段階最小二乗法の演習をRでやってみるエントリ(リンク)を書いたのですが、同じ本の次の章は「マクロ計量モデル入門」となっていて、1980年から2009年までの日本経済のデータを用い、5本の構造方程式と2本の定義式、7つの内生変数と9つの外生変数からなる超小型のマクロ計量モデルをつくるというものでした。 Rで連立方程式を解く方法の確認がてら、Rで実行してみます。 最近、研究室の学生にRの使い方をイチから教えてるのですが、これをさらに単純化して練習問題に使えるかも……? データは本のサポートページからダウンロードできるものですが、「model.gdt」というファイルをgretlで読み込んでcsvで書き出したものを、Rに読み込ませて使いました。 準備 データは↓のようなイメージです(画像は一部です)。 library(lmtest) libr
💡 この記事はこんなあなたにおすすめ! 「手元のPCじゃ、もう最新のAIは動かせない…」 「論文で見るすごいモデル、どうすれば自分の環境で動かせるんだろう…」 そんな風に、高性能なGPUがないからと諦めていませんか? 実は、あのMITが無償で公開している講義を受ければ、8GBのような少ないVRAMのノートPCでも、LLMを動かす夢が叶うかもしれません! それが、今回ご紹介するMIT 6.5940: TinyML and Efficient Deep Learning Computingです。 この講義、名前に「TinyML」と入っていますが、侮ってはいけません。マイコン向けの小さなモデルだけでなく、LLMや画像生成AI(拡散モデル)のような巨大モデルを、どうやって私たちの身近なPCで動かすかという、今まさに誰もが知りたい技術の最前線を体系的に、しかも実践的に学べるんです! この記事では、
この記事の要約 ユニットテストは実装内容に注目せず、実際の用途と入出力に焦点を当てて行う。 1つの振る舞いに対して、1つのテストを行うのであって、1つのコードではない。 必要な振る舞い単位で関数を分けず、機械的な単位分割は避ける。 部分的にテストをしたいからといって、privateをpublicにしない。 「単体テストの考え方/使い方」は実装コードを改善するうえでも、とても良い本。 書籍リンク:単体テストの考え方/使い方 「単体テストの考え方/使い方」を読んで、 今まで悪いユニットテストを書いていたことが分かり、 同時に良いユニットテストが何かも分かったので、思考を整理するために記事にしました。 どう変わったかを、送料計算を例に説明していきます。 要件 購入金額に応じて送料を計算する。 1000円以上の購入で送料無料になる。 読書前の思考パターン(悪い例) この要件を受けて、次のように考え
Juliaには多数の自動微分パッケージがあり, それぞれ使い方が異なります. ここでは, これらを共通のインターフェースから利用できるDifferentiationInterface.jlを紹介します. はじめに 2025年7月に開催されたJuliaHEP 2025 Workshopに参加したところ, 自動微分に詳しい方に上記パッケージを紹介してもらえました. バックエンド一覧をによると, 対応している自動微分パッケージは下記の通りです. ChainRules Diffractor Enzyme FastDifferentiation FiniteDiff FiniteDifferences ForwardDiff GTPSA Mooncake PolyesterForwardDiff ReverseDiff Symbolics Tracker Zygote これらのパッケージを同じインタ
こんにちは。ゴールデンウィーク3日目です。緊急事態宣言が5月末まで延長しそうです。家に籠って勉強なりゲームなりをしています。 今日は、状態空間モデルを取り上げます。状態空間モデルでは、実際の観測値とその背後にある真の状態を分けて考えます。真の状態は時間とともに変化しますが、私たち観測者にはその状態が見えません。観測者が手にすることができるのは観測値のみで、これに基づいて真の状態を推定します。もっとも素朴なモデルでは、真の状態における1つの時間ステップでの変化は微小であると想定したり、観測されるのは真の状態にノイズがのったものであるとする仮定を置いたりします。このような状態空間モデルのイメージ図として以下のような図が用いられることが多いです。真の状態が時々刻々と推移しており、私たちが観測する値はそこから派生したものであると見なします。 状態空間モデルのイメージ状態空間モデルを用いた予測の方法
はじめに こんにちは、VRoid部所属のエンジニアのyueです。 この度VRoid Hubで3Dモデルの配信サーバーの見直しを行い、技術選定から始めRustとZstandard (zstd)を採用した実装に切り替えました。 結論から見るに従来のNode.js製サーバーと比べて以下のことを実現しました。 最大のレスポンス時間が 1.5 ~ 2.5s から 300 ~ 400msまで低下 平均のレスポンス時間が 700 ~ 800ms から 150 ~ 200msまで低下 サーバーのCPU使用率が ~ 50% から ~ 10%まで低下 docker image のサイズが ~ 346mb から ~ 21mb程度まで削減 配信されるファイルサイズが平均 10 ~ 20% 軽量化されました レスポンス時間 CPU使用量 (上からAVG(MAX), AVG, AVG(MIN)) メモリー使用量に関し
データサイエンティストをしている服部です。 OpenAIからgpt-ossというオープンモデルが登場しました。 早速ですが、このモデルを使いながら中身を理解していきたいと思います。 gpt-ossのモデル特徴 vLLM上で動かす 通常のtokenizerで動かす 最終出力と思考部分 chat templateも見てみる Tool Useを試す Built-in toolも試す Python blowser 複数のツールを同時並列で使えるか? まとめ We Are Hiring! gpt-ossのモデル特徴 openai.com 他にも紹介している記事はたくさんあるため手短に... 今回OpenAIからは2種類のモデル gpt-oss-120b と gpt-oss-20b がリリースされており、どちらもApache2.0ライセンスで提供されてます。 どちらのモデルもMoE(Mixture o
はじめに 生成AI研究開発チームでソフトウェアエンジニアをしている坂尾です。 カケハシでは製品として生成AIを活用するのはもちろんですが、業務の中でも活発に生成AIを利用しています。今回は、生成AIを活用して内部ツールを効率的に開発した事例をご紹介します。 内部ツール開発のジレンマ 開発や運用作業をする上で、管理画面などの内部ツールの開発をすることも多々あります。例えば、運用するための管理画面やfeature flagを設定するデバッグ機能などです。 しかし、これらは「あれば便利」だよねというものも多く、直接的な利益を生むわけではないため、以下のような課題があります: エンジニアリングリソースは製品の開発に集中させたいため、優先度が下がりがち 工数が取れていざ取り掛かろうとした時にはモチベーションが下がってしまいがち コードは書いた瞬間から負債となるため、最低限にしたい。必要なものを見極め
みなさんこんにちは! カンリーのプラットフォーム部でSREを担当している有村です。 今回は、AWSのCost and Usage Report(CUR)をAIツールを用いて分析する事例を紹介します。 コスト分析における課題 AWSのコストを分析する際、Cost ExplorerとCURを活用する方法がありますが、それぞれ以下のような課題があります。 Cost Explorer AWSのサービスごとのコストをグラフで視覚的に確認できる一方、利用用途ごとの詳細なコスト分析が困難 CUR コスト利用状況を詳細に分析できるが、クエリを用いた分析を行う場合、Athena等で分析用テーブルを作成する必要がある 分析環境の構築工数やクエリ実行時のコストを考慮する必要がある SQLなどのクエリを実行する知識が必要 本記事では、MCPツールを用いて上記の課題を解決し、自然言語で直感的にAWSのコスト分析を行
はじめに 私が個人で昨年の 6 月ごろから開発している関数型プログラミング言語を紹介する。言語の名前は「Plato」である。 この言語は昨年の U22 プログラミングコンテスト最終発表会でも発表した。コンテスト後、コンパイラの構成と実装に関して調査し直して、コードを一から書き直した。コンパイラは Haskell で書かれているため、本稿の内容も Haskell の知識をベースとしている。また、型理論の知識もある程度求められる。ただ、大雑把に書いているため、大雑把に読めばよく、このブログの読解に正確さは必要無い。 このブログでは、まず Plato のチュートリアルを示し、実際に何ができるのかを説明する。次に型検査や中間言語の仕様などコンパイラの実装手法を大まかに説明する。最後に今後実現したい機能などについて述べる。理論的に面白いものや有用な機能については、後日それ専用の記事を書く予定。 チュ
「Rustで作るプログラミング言語」とはあまり関係ないですが、やってみたかったことの一つです。 構文解析の世界には LL と LR パーサと呼ばれる分類があります。LL パーサはソースを左からスキャンし、左から導出することを意味します。同様に LR パーサは左からスキャンし、右から導出することを意味します。「導出」というのはトークンの並びを構文の構造で置き換えることを意味します[1]。 LL パーサはトップダウン、 LR パーサはボトムアップパーサとも呼ばれます。再帰下降パーサは LL(k) と呼ばれるパーサになります。 (k) は先読みするトークンの数を表し、再帰下降パーサはマッチに失敗した場合はバックトラックして他の構文を試すため、任意の数の先読みが必要とされることを (k) で示しています。注意深く構文を設計すれば先読みのトークンの数を減らすこともできます。 LR パーサは手で書くの
llama2 7Bの事後学習として以下を行いました LoRaによる3種類のexpertの作成 3つのexpertをマージしMoEとし、router部分を学習 SFTで全体を学習 事前学習についてはこちら 事前学習編:Llama2 7B マルチノード/マルチGPU環境での事前学習 LoRaによる3種類のexpertの作成 Branch-Train-MiX(BTX)を参考に、事前学習を行ったllama2 7Bをベースとして、Finetunigを行い、3つのFT済みモデルを作成します。 Branch-Train-MiX(BTX)とは 事前学習したseedモデルを、Math、Code、Wikipediaの3種類でFinetuningし、FT後のモデルのMLP層をベースモデルに配置、MoE構造とし全体をトレーニングする手法です。 以下の図のイメージです 事前学習後のseedモデルに対し、異なるデータ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く