機械学習の社会実装勉強会第54回 (https://machine-learning-workshop.connpass.com/event/379662/) の発表資料です。
皆さまこんにちは、株式会社ベースマキナの代表取締役社長を務めております高橋(@__timakin__)です。 2025年12月18日、AnthropicがAgent Skillsをオープンスタンダードとして発表しました。MCPに続く標準化の動きとして注目を集めています。 面白いのは、発表からわずか数日でOpenAIがCodex CLIとChatGPTに同規格を採用し、GitHub Copilotも対応を発表したこと。Anthropicが仕様を公開し、競合が追従する——MCPで見た流れが再び起きています。さすがAnthropicという感じで、一気に業界標準となりつつありますね。 この記事では、発表から約2週間で話題になっているスキルを厳選して紹介します。 この記事でわかることAgent Skillsの概要 カテゴリ別おすすめスキル10選 インストール方法と注意点 Agent Skillsとは
散々言われていることだと思いますが、何度でも言いたいことなので、改めて記事にすることにしました。 APIをそのままMCPサーバーにするのは止めてください 何故ダメか 何故ダメかの説明として、よく「APIとMCPはレイヤーが違うから〜」とか説明されているのを見ますが、個人的にはそんなことはどうでも良くて、普通に実害があるからダメです。主に以下の2点が問題です。 AIのコストが高くなる AIの応答精度が悪くなる 特に1はめちゃくちゃ困ります。 逆に言うと、これらの問題が発生しないように考慮されていれば、私的にはAPIをMCPサーバーにしてもOKです。 では何故、深く考えずにAPIをそのままMCPサーバーにするとAIのコストが高くなるのか、もう少し深堀りして見ましょう。 AIエージェントの処理 問題を把握する前に、いわゆるAIエージェントがMCPサーバーのツールを使う時の処理を理解しておきましょ
2023年から段階的にAIを開発フローに組み込み、2025年は試行錯誤とツールの大きな変化、そしてエージェント化を経て、私のソフトウェア開発の進め方は明確に変化しました。 ここで言う「変化」とは、単に作業が速くなった、便利になったという話ではありません。 より具体的には「コードをタイピングする時間よりも、間接作業の比重と抽象的な思考・ロジックが増えた」という意味での変化です。 とりわけ深刻なのは文字入力回数の増大です。その結果、マイクに向かって話したり、タイピングの練習といったプリミティブな活動を取り入れるようになりました。 この変化は私だけのものではありません。Addy Osmaniは『Beyond Vibe Coding』で「開発者の役割はコードを書くことから、コードを指示すること(directing)へシフトしている」と述べ、アーキテクチャやデザインパターンといったシステム思考への集
AI搭載コードエディタの最前線を走る Cursor が「Cursor 2.0」 をリリースし、大きな話題を呼んでいます。 今回のアップデートは単なる機能改善にとどまらず、開発体験そのものを変革する可能性を秘めた、2つの大きな柱で構成されています。 独自開発の高速コーディングモデル「Composer」 の搭載 「マルチエージェント」中心の全く新しいUI への刷新 この記事では、提供された情報を基に、Cursor 2.0で一体何が起こったのか、その詳細とユーザーの反応を徹底的に解説します。 動画での解説もやっているので興味のある方はぜひこちらから! 🧠 新開発の高速LLM「Composer」とは? 今回のアップデートで最大の目玉となるのが、Cursorが独自に開発したコーディングモデル 「Composer」 です。これは、以前ステルスモデルとして存在した「Cheetah」の正式・アップデート
シロハナちゃんのプロデュースをしているyukiです。 今回はローカルLLMを簡単に試したり、APIで呼び出して使う方法を紹介しつつ、AIキャラチャットを完全ローカルで行うまで実践してみようと思います! ローカルLLMって環境構築など難しそうなイメージありませんか? 私もその先入観があってこれまで試せてなかったのですが、LM StudioというGUIツールを活用することで簡単に構築できました。 サービス提供元(運営)やインターネットに依存しない環境でAIと会話できるのは非常にロマンがあり、おすすめです! 外的要因によりLLMモデルを変えたくない・失いたくない自分だけのAIキャラやAIパートナーなどには有力な選択肢かと思います。 この記事がローカルLLMにチャレンジしてみるきっかけや参考になれば嬉しいです。 ※本記事の最終更新:2025/10/29 Xとnoteのフォローも歓迎です! 前提情報
はじめに Google Cloud では、RAG を手軽に実現する手段として、Vertex AI Search や Vertex AI RAG Engine などのマネージドサービスが提供されています。あるいは、ベクトル検索エンジンである Vector Search を利用して、独自の RAG システムを構築することもできます。 業務システムとして利用する際は、これらのサービスを利用することで、スケーラビリティの高いシステムが容易に構築できますが、システム設計に関わるエンジニアとしては、そもそも RAG とはどのような仕組みで、どのような処理が裏側で行われているのかを理解しておくことも大切です。そこでこの記事では、前述の便利なサービスをあえて利用せず、自前の RAG システムを手作りすることで、RAG を構成するパーツや高品質な結果を返すための工夫を学びます。 RAG の仕組み はじめに、
どうもTAKUYAです。今回はノートやメモから新しい発想を生むための考え方についてシェアします。 自分はシンプルさをウリにした開発者向けのMarkdownアプリInkdropを作っています。なので、どうしても「ノートアプリの作者」としてのポジショントークが含まれてしまいますが、逆に言えば、「ノートアプリを約10年間作り続けてきた人間が、どうやってアイデアを生み出しているのか」 という実際的な体験談として読んでもらえれば幸いです。 結論から言うと、僕は「アプリ上でノート同士を連携させる必要はない。繋げるのはあなたの脳だ」と考えています。本稿では、ノートアプリの機能に溺れずユニークなアイデアを考え出すために僕が実践している事をシェアします。 TL;DR ノート整理に時間をかけるな。グループ化で充分だすごい人はアイデアが「降りてくる」のを待つプログラミング × 料理動画 という有機的な掛け合わせ
本記事は農工大アドベントカレンダー(シーズン2)24日目の記事です。 はじめに 本記事はObsidianを使い始めた筆者が自分の使いやすさを重視しながら試行錯誤を行った記録です。まだ発展途上の段階であるため、間違い等が含まれている可能性があります。 また、本記事内で紹介しているテンプレートはあくまでも一例です。このテンプレートを使用したことによる事象の一切について筆者は責任を負いません。 御託はこのあたりにして早速始めていきましょう〜 完成品のプレビュー 本記事で紹介する内容を使用した場合、最終的に以下のようなものが出来上がります。 (ObsidianのテーマはTokyo Nightを利用しています) ダッシュボード 論文 実験 また、研究ノートのフォルダ構造は次のようになります。 <Obsidianのルートフォルダ> └ 07-Researches/ ├ Papers/ │ ├ <論文ノ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く