一番最初に 「ごめんね、出せるデザインがないこととデザイン能力なくて 記事内にClaudeCode+FigmaMCPとFigmaMakeでの比較はないんだよ! 」 見事に体調崩してました FigmaMakeのベータ版が終わって正式サービスになりました。 ベータのころから触っていました。特にデザイナさんに依頼しずらい金額で受注せざる得ないような状況ではとても重宝しました。 既にZenn記事はありますが、リハビリのため記載しましたので正直記事の内容は微妙です。 結論:「Figma Make」ってなに? AIプロンプトベースでデザイン作ってくれるサービスだよ! Figmaに親和性が高いので、ClaudeCode等でデザインするよりもかなりスタイリッシュなデザインができます。 デザイナーさん入れれない環境だとかなり重宝します。 また、人間に依頼しないでプロンプトベースで、クレジットの範囲内ですが、
Manusプロジェクトの最初の段階で、私のチームと私は重要な決断に直面しました:オープンソースの基盤を使用してエンドツーエンドのエージェントモデルをトレーニングするべきか、それとも最先端モデルの文脈内学習能力の上にエージェントを構築するべきか? NLPの最初の10年間、私たちはその選択肢を持つ贅沢はありませんでした。BERTの遠い日々(はい、それは7年前です)では、モデルは新しいタスクに移行する前に、ファインチューニング—そして評価—する必要がありました。そのプロセスは、今日のLLMと比較してモデルが小さかったにもかかわらず、イテレーションごとに数週間かかることがよくありました。特にプレPMFの段階では、このような遅いフィードバックループは致命的な欠点です。これは私の前のスタートアップからの苦い教訓でした。そこではオープン情報抽出と意味検索のためにゼロからモデルをトレーニングしていました。
きっかけ 7月末のWeights & Biasesのミートアップ OpenAI Agents SDKハンズオンに参加してAgents SDKについて学びました。 便利そうなのでさっそく使って、機械設計用の計算をするマルチエージェントを作ってみました。 今回やりたいこと OpenAI Agents SDKを使う マルチエージェントを構築 Model Context Protocol (MCP)を利用 ツールは何でもよいので、以前Function Calling用に作成した関数セットなど手元にある計算ツールを再利用しました。また、社内外のMCPの活用を見据えて、既存のコードをMCP化して使いました。 これができると、社内外のAPIなどを自律的に操作してタスクを実行してくれるエージェントを作れるようになります。あとはこの例と同様に、使いたいツールや子エージェントを追加・入替えて、望んだ機能に拡張
JOURNALについて データアナリティクスラボ株式会社では、ITやデータサイエンスに関する技術の研究活動を行っています。このブログでは、研究活動で得られた知見や検証結果についての情報を発信します。 本ブログで提供される情報は、可能な限り正確かつ最新の情報であるように努めますが、必ずしもその正確性を保証することはできません。場合によっては誤情報が含まれたり、最新の情報ではない可能性もあります。予めご了承いただけますようお願い申し上げます。 はじめに データソリューション事業部の宮澤です。今回はLLMのモデルマージ技術について解説します。モデルマージとは、複数のモデルのパラメータを何かしらの形で合成することによって新たなモデルを構築する技術のことを指します。この手法を活用することで、事前学習やファインチューニングのように、複雑で計算量の大きい処理を伴うことなく、高性能なモデルを効率的に構築す
💡 この記事はこんなあなたにおすすめ! 「手元のPCじゃ、もう最新のAIは動かせない…」 「論文で見るすごいモデル、どうすれば自分の環境で動かせるんだろう…」 そんな風に、高性能なGPUがないからと諦めていませんか? 実は、あのMITが無償で公開している講義を受ければ、8GBのような少ないVRAMのノートPCでも、LLMを動かす夢が叶うかもしれません! それが、今回ご紹介するMIT 6.5940: TinyML and Efficient Deep Learning Computingです。 この講義、名前に「TinyML」と入っていますが、侮ってはいけません。マイコン向けの小さなモデルだけでなく、LLMや画像生成AI(拡散モデル)のような巨大モデルを、どうやって私たちの身近なPCで動かすかという、今まさに誰もが知りたい技術の最前線を体系的に、しかも実践的に学べるんです! この記事では、
本記事の概要 生成速度は遅くてもよいので,70B程度のLLMを動かすための環境を中古部品をかき集めてオンプレで構築することを試みた そのためのGPUとしてNVIDIA Tesla K80を複数台使用した LLMを動かすためのツールには独自にビルドしたOllamaを用いた。その環境を,Ubuntu22.0上のDockerコンテナとして構築した 13B(8bit量子化)モデルで11.0token/s,70B(8bit量子化)モデルで1.8token/s程度の生成速度を得た 以下,導入経緯から記載しているので,取り急ぎ構築手順を参照されたい方は「環境構築(ソフトウェア)」の章へ。 はじめに LM Studioなど大規模言語モデル(LLM)をローカル環境で容易に使える環境が増えてきたこともあり,当方もこれらを活用した研究や授業を進めています。もともとクラウドを活用する方針だったのですが,学生さんに
データサイエンティストをしている服部です。 OpenAIからgpt-ossというオープンモデルが登場しました。 早速ですが、このモデルを使いながら中身を理解していきたいと思います。 gpt-ossのモデル特徴 vLLM上で動かす 通常のtokenizerで動かす 最終出力と思考部分 chat templateも見てみる Tool Useを試す Built-in toolも試す Python blowser 複数のツールを同時並列で使えるか? まとめ We Are Hiring! gpt-ossのモデル特徴 openai.com 他にも紹介している記事はたくさんあるため手短に... 今回OpenAIからは2種類のモデル gpt-oss-120b と gpt-oss-20b がリリースされており、どちらもApache2.0ライセンスで提供されてます。 どちらのモデルもMoE(Mixture o
はじめに 生成AI研究開発チームでソフトウェアエンジニアをしている坂尾です。 カケハシでは製品として生成AIを活用するのはもちろんですが、業務の中でも活発に生成AIを利用しています。今回は、生成AIを活用して内部ツールを効率的に開発した事例をご紹介します。 内部ツール開発のジレンマ 開発や運用作業をする上で、管理画面などの内部ツールの開発をすることも多々あります。例えば、運用するための管理画面やfeature flagを設定するデバッグ機能などです。 しかし、これらは「あれば便利」だよねというものも多く、直接的な利益を生むわけではないため、以下のような課題があります: エンジニアリングリソースは製品の開発に集中させたいため、優先度が下がりがち 工数が取れていざ取り掛かろうとした時にはモチベーションが下がってしまいがち コードは書いた瞬間から負債となるため、最低限にしたい。必要なものを見極め
みなさんこんにちは! カンリーのプラットフォーム部でSREを担当している有村です。 今回は、AWSのCost and Usage Report(CUR)をAIツールを用いて分析する事例を紹介します。 コスト分析における課題 AWSのコストを分析する際、Cost ExplorerとCURを活用する方法がありますが、それぞれ以下のような課題があります。 Cost Explorer AWSのサービスごとのコストをグラフで視覚的に確認できる一方、利用用途ごとの詳細なコスト分析が困難 CUR コスト利用状況を詳細に分析できるが、クエリを用いた分析を行う場合、Athena等で分析用テーブルを作成する必要がある 分析環境の構築工数やクエリ実行時のコストを考慮する必要がある SQLなどのクエリを実行する知識が必要 本記事では、MCPツールを用いて上記の課題を解決し、自然言語で直感的にAWSのコスト分析を行
llama2 7Bの事後学習として以下を行いました LoRaによる3種類のexpertの作成 3つのexpertをマージしMoEとし、router部分を学習 SFTで全体を学習 事前学習についてはこちら 事前学習編:Llama2 7B マルチノード/マルチGPU環境での事前学習 LoRaによる3種類のexpertの作成 Branch-Train-MiX(BTX)を参考に、事前学習を行ったllama2 7Bをベースとして、Finetunigを行い、3つのFT済みモデルを作成します。 Branch-Train-MiX(BTX)とは 事前学習したseedモデルを、Math、Code、Wikipediaの3種類でFinetuningし、FT後のモデルのMLP層をベースモデルに配置、MoE構造とし全体をトレーニングする手法です。 以下の図のイメージです 事前学習後のseedモデルに対し、異なるデータ
昨年12月に MLX という Mac の Apple Silicon を上手く扱える機械学習フレームワークが Apple 自身から提供されました。 HuggingFaceにもmlx-communityというものができており、最近ちょいちょいMLXでfine-tuningをしたぜ報告ポストをX上で見かけるようになりました。 ちょうどこちらのfine-tuning記事の素振りを Mac でしていて No GPU found. A GPU is needed for quantization. なるエラーで詰まっていたりしたので MLX で試してみます。 mlx-examples というMLXを使ったサンプルコード集の中にlora.pyという fine-tuning をできるサンプルがあるので、まずはこちらをクローンしてきます。
はじめに 初めまして。Contreaという医療系スタートアップでエンジニアをしている河野と申します。 私は普段からClaude Codeを使いながら開発をしています。 AIを使いながらのVibe Codingはとても楽しく、開発がサクサク進むような快感がありました。しかし最近、使えば使うほど「AIが思ったように動いてくれない」とフラストレーションが溜まることが多くなりました。 特に、 1. 複雑な指示や、複数ファイルにまたがる修正をお願いすると、途中から見当違いな提案をしてくる 2. 抽象度が少し高いタスクをお願いすると、突然findコマンドを連発しはじめたり、全てのファイルを読み込むような、暴走モードに突入する といったようなことを行うと途端に精度が悪くなったように感じます。 もちろん、プロンプトが拙いこともあり、私自身にも1%ほど非があるとは思います。 しかし、これらの現象はClaud
はじめに 本記事では、ローカルで動作する小規模言語モデル(SLM)とModel Context Protocol(MCP)を連携するコードを解説します。 SLM(Small Language Model)とは SLMは、GPT-4.1などの大規模モデルと比べてパラメータ数が少ない言語モデルです。例えばMicrosoft Phi-4(14B)などがあります。 ローカルで実行できる(レスポンスは遅いが、CPUでも動作) ネットワーク遅延はなくなる データが外部に送信されない API使用料がかからない 詳細はこちらにて! MCP(Model Context Protocol)とは MCPはAnthropic社が開発したプロトコルで、AIモデルが外部ツールやリソースを安全に使えるようにする標準仕様です。 詳細はこちらにて! 試した内容 こちらのGitHubにSLM×MCP連携のツールを公開していま
はじめに ZENKIGENデータサイエンスチーム所属の redtea です。原籍はオムロンソーシアルソリューションズ株式会社 技術創造センタですが、社外出向でZENKIGENに所属しており、数理最適化や機械学習を用いたデータの分析業務、それらの結果に基づいた顧客への提案をしております[1]。所属チームでXを運用しており、AIに関する情報を発信していますのでご興味あれば覗いてみてください。 本記事の構成 本記事では想定読者を欲張って、GraphRAG は初めてでサクっと学びたい方から、詳しく学びたい方まで手広くしたいと思っています。そこで、最初に概論としてサクッと学べる短い章を設け、その後に詳しい説明の章が続くようにします。さらに、習うより慣れよということで、最後にハンズオン形式でナレッジグラフの構築から GraphRAG の実装までを行います。すなわち、 サクッと学びたい方は概論だけ読んで
(上記、Github の README.md を一部日本語に翻訳して引用) Unsloth の良い点としては、学習の高速さやVRAM消費量が小さいことに加え、学習の効率化において近似計算を一切使用していないことから、精度低下がゼロと自信を持って書かれていることや、Huggingface において様々な動的量子化/GGUFモデル等を公開していることが挙げられます。 また、Unsloth を用いてLLMのダウンロードを行うと、謎の仕組みで高速に進みます。(Unsloth: Fast downloading is enabled と出てくるので多分早くなっている) インストールは以下のコマンドで行えます。 余談ですが、Unsloth の公式ドキュメントに書かれた LLM のファインチューニングガイド、どのモデルを使うべきか?、LoRA のハイパラのガイド は情報が綺麗にまとまっていて個人的にかな
はじめに 「コンピューターが人間のように話す」—— 数十年前には夢物語だったこの技術が、今では月数百円で誰でも利用できる時代になりました。 リモートワークで一人の時間が増えた昨今、ふと「AIと音声で喋りテェ!」と思い立ち、実際に作ってみました。開発を進めながら、音声合成技術の進歩と、それを取り巻く世界の変化について考えずにはいられませんでした。 作ったもの STT(Speech-to-Text)とTTS(Text-to-Speech)を組み合わせた、言ってみれば「おしゃべりAI」です。音声認識で私の独り言…じゃなくて入力を受け取り、賢いGeminiさんがそれに応え、最後はイケボ(だったり萌え声だったりする)で返してくれる、そんなろくでもない(そしてちょっとシュールな)アプリです。 今回作成した、笑いと涙の結晶であるリポジトリはこちらになります。 デモ動画 実際に音声でAIと対話するシュール
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く