サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
やろう!確定申告
hamaruki.com
はじめに MCPのファイルシステム環境を刷新するという大がかりなタスクに、Roo-clineとDeepSeek V3を使って挑戦してみました。大量のトークン(471.8k入力 + 5.4k出力)を消費したにもかかわらず、なんとトータルコストは$0.0081(約1.27円)!駄菓子よりも安いんです!しかも、パフォーマンスはClaude 3.5 Sonnetと遜色ありませんでした。 DeepSeek V3 使って filesystem環境を刷新した! だいぶ手こずってトークン数消費したけど。。。なんと。。。$0.0081(1.27円) 駄菓子より安い!!このコスパマジで嬉しい!!! ちなみに今のところはマジでSonnet 3.5 と使い心地は変わりません!!!! https://t.co/eYzc7ygznC pic.twitter.com/zqilA5Lxg9 — Maki@Sunwood
はじめに このチュートリアルでは、OpenWeatherMap APIを使用して天気情報を提供するClaude Desktop MCPサーバーを作成します。MCPは、AIアシスタントに外部リソースやツールへのアクセスを提供するための新しいプロトコルです。 Claude Desktop MCP で公式が出してるローカルの自作天気APIできた!!! 超しょぼい機能だけど作り方の大枠は体感できたのはデカい!!! https://t.co/qelKrLJvPn pic.twitter.com/PRQpExb6vn — Maki@Sunwood AI Labs. (@hAru_mAki_ch) November 29, 2024 前提条件 Python 3.12以上 OpenWeatherMap APIのアカウントとAPIキー macOSまたはWindows uvツール 環境のセットアップ Pyth
📝 概要 この記事では、Windows環境でのClaude DesktopのModel Context Protocol (MCP)を使用して、GitHub APIと連携し、サンプルリポジトリを作成する方法を解説します。GitHub MCP Serverを活用することで、Claudeから直接GitHubの操作が可能になります。 claude mcp (Model Context Protocol)の玩具箱を遊んでみる~GitHub MCP Server編~⑤ リポジトリをMCPで作成してからREADMEの生成までイケた!!! 処理のフローはだいぶ課題がありそうだけど。。。工夫すれば結構いい線イケるかも! https://t.co/lMHEHh2sMq pic.twitter.com/C4R82H8MVH — Maki@Sunwood AI Labs. (@hAru_mAki_ch) No
はじめに 本記事では、Claude DesktopにModel Context Protocol (MCP)を使用してMemory機能を実装する方法を詳しく解説します。この機能により、AIアシスタントに長期記憶機能を追加し、よりパーソナライズされた対話を実現することが可能になります。 公式に記載されていたClaude Desktop MCPのプラグイン memory 使ってみる③ 取り敢えず動かせた! 自動で記憶する機能が上手く働いてないのでそこまで恩恵は受けれないけど、、、自動で記憶してくれるならめっちゃ情報圧縮+高品質な情報になるのでめっちゃ使えそう!! https://t.co/XL5LPliU3J pic.twitter.com/zMnqXyRDx6 — Maki@Sunwood AI Labs. (@hAru_mAki_ch) November 28, 2024 Memory機能
はじめに 本ガイドでは、v0で生成されたコンポーネントをshadcn CLIを使用してNext.jsプロジェクトに統合する方法を、実際のコマンドライン操作に基づいて説明します。この方法を使用することで、AIの力を活用した効率的な開発ワークフローを構築できます。 デモ動画 「v0 + shadcn/ui CLI」を使ってエヴァンゲリオン NERV の戦闘情報センター (CIC)のダッシュボードをローカルで起動してみた!! 右往左往も含めて4分以内でできました! *動画は早回し+カットしてます https://t.co/nzU4ADkmhR pic.twitter.com/k3hLy4OHVz — Maki@Sunwood AI Labs. (@hAru_mAki_ch) September 1, 2024 v0とは v0は、Vercelが開発した革新的なAI駆動のUIコンポーネント生成プラッ
Docker/docker-composeのインストール Dockerのインストールはこちらを参考にしてください。 プロジェクトの作成 まず、任意のディレクトリを作成し、その中に以下の3つのファイルを作成します。 Dockerfile.llama Dockerfile docker-compose.yml Dockerfile.llama # ビルドステージ ARG CUDA_IMAGE="12.5.0-devel-ubuntu22.04" FROM nvidia/cuda:${CUDA_IMAGE} # 外部からのアクセスを許可するために、ホストを0.0.0.0に設定する必要がある ENV HOST 0.0.0.0 # 必要なパッケージのインストールと OpenCL の設定 RUN apt-get update && apt-get upgrade -y \ && apt-get ins
GraphRAGのインストール まずは、GraphRAGをインストールしましょう。Pythonの環境(バージョン3.10から3.12)が必要です。 !pip install graphrag ├── create_final_community_reports ├── create_final_text_units ├── create_base_documents └── create_final_documents �[?25h �[32mAll workflows completed successfully.�[0m MS公式のGraphRAGに挑戦中。。。 indexに時間がかかってます。。。 https://t.co/CG3M6tMiO4 pic.twitter.com/cDgxxTnbtl — Maki@Sunwood AI Labs. (@hAru_mAki_ch) Jul
デモ動画 Difyのdocker-composeのアップグレード手順 ✅cd spellbook\dify\docker ✅git pull origin main ✅docker compose down ✅docker compose pull ✅docker compose up -d https://t.co/uRcnadEF5T pic.twitter.com/YY7MySlND4 — Maki@Sunwood AI Labs. (@hAru_mAki_ch) June 12, 2024 事前準備 アップグレードを始める前に、以下の準備が必要です。 Difyのソースコードがクローンされていること Dockerがインストールされていること Docker Composeがインストールされていること Step 1: Difyのソースコードを最新版に更新 まずは、Difyのソースコードを
LLM が抱える課題と RAG 技術の登場 LLM は大量のデータを使って学習しますが、学習データに含まれない情報を含む質問にはうまく回答できません。例えば、「最新の科学論文に基づいて、この病気の新しい治療法を提案してください」といった質問に対して、LLM は学習データに含まれていない最新の科学論文の内容を理解することができません。 この問題を解決するために、Retrieval-Augmented Generation (RAG) 技術が登場しました。RAG は、ユーザーの質問に基づいて関連情報を検索し、その結果を LLM への入力として使用することで、より正確な回答を生成します。 従来の RAG では、検索にベクトル類似度が用いられてきました。しかし、Microsoft Research の最新の研究では、非公開データの分析において、プロンプト拡張が有効であることが示唆されました。 Gr
ワークフローの概要 このGitHub Actionsワークフローは以下の主要な機能を持っています: 新しいイシューが開かれたときに自動的に起動 イシューの内容を分析し、不適切なコンテンツをチェック 既存のイシューとの重複を検出 必要に応じてラベルを付与 ワークフローの詳細解説 トリガーとパーミッション設定 name: Issue Review on: issues: types: [opened] permissions: issues: write contents: read このセクションでは、ワークフローの名前を定義し、トリガー条件とパーミッションを設定しています。 on.issues.types: [opened]: 新しいイシューが開かれたときにワークフローが起動します。 permissions: ワークフローがイシューの読み書きと、リポジトリコンテンツの読み取りを行うための権
はじめに みなさん、こんにちは!今日は、AI技術の世界に革命を起こす新機能「Artifacts(アーティファクツ)」について、わかりやすくお話ししていきます。Claudeという人工知能と、より効果的に協力して作業ができるようになる、とてもワクワクする機能なんです。 Artifactsとは何か? 簡単な説明 Artifactsは、Claude.aiで導入された新機能です。ユーザーがClaudeに何かを作ってもらう時、その成果物を会話とは別の専用ウィンドウで見ることができます。つまり、会話しながら同時に作品を見て編集できる、そんな魔法のようなツールなんです。 Artifactsの主な特徴 リアルタイムの表示: Claudeが作った内容をすぐに見ることができます。 編集可能: 表示された内容を自由に編集できます。 作業の継続性: 一度作ったものを基に、さらに改良を加えていけます。 Artifac
こんにちは!今回は、Flaxを使用して2Bグリフィンモデルをシンプルな翻訳タスクにファインチューニングする方法を学びます。グリフィンモデルは強力な言語モデルで、ファインチューニングによって特定のタスクに適応させることができます。 初心者の方にも分かりやすいよう、コードの説明を丁寧に行いながら、ステップバイステップでチュートリアルを進めていきます。それでは、早速始めていきましょう! セットアップ まずは必要なライブラリをインストールし、環境を整えていきます。 !pip list --format=freeze > requirements.kaggle.txt !pip list pip listコマンドでインストール済みのライブラリを一覧表示し、requirements.kaggle.txtファイルに出力しています。これは現在の環境を再現するために必要な情報です。 次に、Recurrent
はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta
はじめに 近年、人工知能(AI: Artificial Intelligence)の分野では、AIエージェント(AI Agents)と呼ばれる技術が大きな注目を集めています。AIエージェントとは、人間に代わって自律的に行動し、目標を達成するためのソフトウェアシステムのことです。 特に、大規模な言語モデルや画像生成モデルなどの基盤モデル(Foundation Models)を用いたAIエージェントは、高度な推論能力と言語処理能力を持ち、ユーザーの目的を理解し、それを達成するために自発的に行動することができます。そのため、様々な分野での応用が期待されています。 しかし、このようなAIエージェントを開発する際には、目標設定の難しさや推論プロセスの説明性の欠如、責任の所在の複雑さなど、様々な課題が存在します。また、基盤モデルに内在する幻覚(Hallucinations)の問題もあります。 これらの
モデルプロバイダーの追加 モデルタイプを選択: 「ollama」を選択します。 必要な情報を入力: モデル名: llm-jp-13b-v2 Base URL: http://host.docker.internal:11434 Completion Mode: 「Chat」 モデルコンテキストサイズ: 4096 最大トークン数の上限: 4096 Vision Support: 「No」を選択 ワークフローの作成 4人のエージェントのシステムプロンプトを設定: 楽観的AI研究者、慎重派経済学者、AIジャーナリスト、倫理学者の4人のエージェントを作成します。 それぞれのシステムメッセージに、エージェントの立場と視点を反映した内容を設定します。例えば、楽観的AI研究者のシステムメッセージは以下のようになります。 あなたは楽観的なAI研究者です。以下のインプットに対して、AIの可能性を信じ、社会へ
プロンプトの使用方針 コンテキストは低く保ち、新しい会話をこまめに行う AIにコードをレビューさせる際は、別のAIが書いたコードだと伝える 開発者の努力を節約するワークフローを作成する AIに全面的に頼らず、ジュニアデベロッパーのように扱う 要件定義とコード生成の依頼 以下のプロジェクトの要件を満たすPythonコードを書いてください: [プロジェクトの概要と目的] 機能要件: - 'file_utilities'モジュールに'FileManager'クラスを作成 - 'FileManager'クラスにファイル名を引数に取る'read_file'メソッドを実装 - 'display_utilities'モジュールに'display_contents_of_file'メソッドを作成 - 'display_contents_of_file'メソッドでファイルの内容をコンソールに出力 非機能要件
はじめに 私は個人プロジェクトでコードを書く際、特に自動化のためのものを書く際には、AI を活用しています。この点について、人によって意見が分かれるようです。同じように AI を使っている人もいれば、AI が良いコードを書くことは不可能だと考える人もいます。私の分野の専門家の間でも同様の考え方に遭遇し、AI の使い方が人によって異なるのかもしれないと気づきました。 私自身のバックグラウンドですが、私は開発マネージャーであり、業界で長年の経験を積み、大学院でもソフトウェア開発を学んできました。ですので、このガイドは素人ではなく、大規模システムの構築と運用に関するかなりの経験を持つ者の視点から書かれていることをご理解ください。 また、「なぜこんなことをするのか、AI にコードを求めればそれで十分だ」と思われるかもしれません。このガイドは、クリーンで保守性が高く、あなたが書けるベストなコードを使
Kotoba-Whisperの特徴 高速性: large-v3の6.3倍の速度 高精度: large-v3と同等の低いエラー率 軽量: large-v3の半分以下のパラメータ数 日本語に特化したファインチューニング Transformersライブラリからシームレスに利用可能 環境のセットアップ Kotoba-Whisperを使うには、Transformers v4.39以降が必要です。 以下のコマンドで最新バージョンをインストールしましょう。 pip install --upgrade pip pip install --upgrade transformers accelerate datasets 短い音声の文字起こし 30秒以内の短い音声ファイルは、以下のようにpipelineクラスを使って簡単に文字起こしができます。 import torch from transformers i
はじめに 近年、大規模言語モデル(LLM)を用いた知的エージェントの開発が盛んになってきました。しかし、LLMとエージェントを効率的に統合・運用するには様々な課題があります。 この論文では、LLMをオペレーティングシステム(OS)に組み込んだ「LLMエージェントオペレーティングシステム(AIOS)」を提案しています。 AISOは、エージェントのリソース割り当て最適化、コンテキストスイッチ、並列実行、ツールサービス提供、アクセス制御などの機能を持っています。 関連研究 オペレーティングシステムの進化 OSは当初、ハードウェアとユーザータスクの橋渡し役でしたが、その後、バッチ処理、タイムシェアリング、マルチタスク処理など、より高度な機能を備えるようになりました。 また、プロセススケジューリング、メモリ管理、ファイルシステム管理など、モジュール化も進みました。GUIの登場により、OSはよりインタ
Pythonベース Pythonの知識があれば比較的簡単にアニメーションを作成できます。Pythonは初心者にも学びやすい言語なので、Manimを使い始めるハードルが低いのが良い点です。 豊富な数学オブジェクト 数式、グラフ、ベクトル、行列など様々な数学オブジェクトをサポートしています。LaTeXを使って数式を綺麗に表示できるのも魅力的です。 柔軟なアニメーション オブジェクトの移動、変形、出現/消失など、様々なアニメーション効果を適用できます。カメラワークも自在にコントロール可能です。 高品質な出力 レンダリング品質が高く、滑らかで見栄えのする動画を生成できます。解像度やフレームレートなども細かく設定できます。 コミュニティの活発さ GitHubで公開されており、開発が活発に行われています。ドキュメントやサンプルコードも豊富で、コミュニティから情報を得やすいのも利点です。 初心者にとって
このページを最初にブックマークしてみませんか?
『Sun wood AI labs.2 - -- はまる木 --』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く