タグ

minorusatoのブックマーク (6,303)

  • ObsidianとAmazon Bedrockの連携メモ - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Bedrock Access Gatewayの手順を参考に作成する。 Open AI互換のためモデルを合わせれば他のプラグインでも利用可能。 できたこと Text Generatorによる文章生成 Copilotによる対話 できなかったこと Vault QAでのナレッジベース化 →Embedded Modelを指定するがIndex化でエラー。 概要 Bedrock設定 モデルの有効化 IAMユーザ作成(BedrockFullAccessなど) IAMユーザにてアクセスキー生成 アクセスキーのID、シークレットをメモ Bedrock Ac

    ObsidianとAmazon Bedrockの連携メモ - Qiita
  • AWS Knowledge MCPサーバーを使って最新アプデを爆速理解! ~Documentation MCPサーバーとも比較してみた~ - Qiita

    AWS Knowledge MCPサーバーとは こんにちは、ふくちと申します。 2025年7月某日、AWS Summit New York City 2025が開催され、色んなアップデートが公開されましたが、そこで生成AI時代に必須なMCPサーバーが公開されていました。 それは AWS Knowledge MCPサーバー です。 公式ドキュメントによると、 最新のドキュメント、コードサンプル、その他の公式AWSコンテンツを提供する、完全に管理されたリモートMCPサーバー とのことです。 つまりこれがあれば、出たばかりの新サービスや新機能について、AIと対話するだけでキャッチアップできるようになる、ということです。 また、このMCPサーバーをコーディングエージェントが使えるように設定すれば、最新のドキュメントを参照した上で実装まで進めてくれるというわけです。 とんでもない時代がやってきました

  • Windows版 Claude Desktop × AWS MCP Servers 設定 - Qiita

    はじめに Windows で Claude Desktop から AWS MCP Servers を利用する際の設定メモです。 Claude Desktop AWS MCP Servers ドキュメント通りに設定しても Claude Desktop で MCP 設定エラーとなり MCP が 「runnning」 にならない場合に参照してください。 設定ファイル ファイル > 設定 > 開発者 > 構成の編集 開いたエクスプローラーの「claude_desktop_config.json」が設定ファイルです。 AWS MCP Servers

    Windows版 Claude Desktop × AWS MCP Servers 設定 - Qiita
  • 【2025/07版】AWS公式ドキュメント検索を効率化:DifyとMCP Serverで作るAIチャットボット - 株式会社X-Tech5

    Blog X-Tech5エンジニアがお送りするテックブログ SREやDevOpsをはじめ、インフラエンジニアリングの実践情報を届けします。 前提 この記事は以前公開した記事のアップデート版です。 AWS公式ドキュメント検索を効率化:DifyとMCP Serverで作るAIチャットボット でご紹介した構成の各種ツールの更新がありました。 一部破壊的な変更(BREAKING CHANGE)も含まれていたため、この記事で更新に対応した設定手順を改めてご紹介します。 更新内容 詳細については各ドキュメントを参照ください。 AWS Knowledge MCP Server (Preview) AWS Knowledge MCP Server がプレビューリリースされました。 AWS Knowledge MCP Server now available (Preview) AWS Knowledge

    【2025/07版】AWS公式ドキュメント検索を効率化:DifyとMCP Serverで作るAIチャットボット - 株式会社X-Tech5
  • ObsidianとClaude Codeを使ったドキュメント活用

    Oikonです。外資系IT企業でエンジニアをしています。 AIエージェントのコンテキストエンジニアリングが最近は注目を集めています。今後もしばらくはこの流れが続くんじゃないかと。 AIエージェントにコンテキストを与える仕組みのために、知識の源泉としてObsidianを3ヶ月ほど前から試行錯誤しながら使っています。 最近になって、ようやく自分の中でしっくり来る運用が固まってきたので、その方法を共有します。 この記事は、先日Xにポストした内容の詳細版です。 Obsidianの運用方法は人によって全く違うと思うので、「こんな運用方法もあるのね」くらいに読んでいただければ幸いです。 運用の流れ まず以下が揃っていることを前提とします。 Obsidian Desktop Obsidian Mobile(Optional) Claude Code クリックで、それぞれの公式サイトに飛びます。 はじめに

    ObsidianとClaude Codeを使ったドキュメント活用
  • Claude Code on Amazon Bedrock - Anthropic

  • Amazon BedrockでClaude Sonnet 4の1M コンテキストウインドウを使う

    import boto3 # Bedrockクライアント初期化 bedrock = boto3.client( service_name='bedrock-runtime', region_name='us-west-2' ) # 現在はClaude Sonnet 4のみ1M Context Windowをサポート model_id = "us.anthropic.claude-sonnet-4-20250514-v1:0" # 大量のテキストを準備 large_text = "サンプルテキスト " * 50000 # リクエスト構築 request_body = { "messages": [ { "role": "user", "content": [{"text": f"このテキストを要約してください: {large_text}"}] } ], "additionalModelReq

    Amazon BedrockでClaude Sonnet 4の1M コンテキストウインドウを使う
  • CloudWatch LogsでApacheのアクセスログにメトリクスフィルターを設定してみた - DENET 技術ブログ

    はじめに こんにちは、ディーネットの山田です。 CloudWatch Logsを案件対応で利用しているのですが、メトリクスフィルターを設定する機会があったので、記事にしてみました。 CloudWatch Logs メトリクスフィルターとは 一言で言うと、「ログデータに対してフィルターを設定し、数値に変換してCloudWatchメトリクスとして送信する機能」です。 この機能により、ログに含まれる特定の文字列やパターンをカウントしたり、ログから数値を抽出してメトリクスとして可視化・監視することができます。 CloudWatch Logs メトリクスフィルターとは 実際に設定してみた 今回は、Apacheのアクセスログから、正常なリクエスト(ステータスコードが200応答)のレスポンス時間を抽出して、メトリクス化してみます。 Apacheのアクセスログについて Apacheのアクセスログ形式は、以

    CloudWatch LogsでApacheのアクセスログにメトリクスフィルターを設定してみた - DENET 技術ブログ
  • Dify 三昧:DifyでAI開発を始めよう2 - 実践!簡易翻訳アプリの作成 - DENET 技術ブログ

    はじめに 今回も前回より少々時間が開いてしまいました。 こんにちは、ディーネットのよろず請負の深見です。 (ほぼ 社内のDify関連担当:自称?になっていますが...) 前回に引き続き、今回はDifyのちょっとした実践に参りましょう。 まずは、前半ではトピックスを、後半はチャットフローをベースにした簡単なアプリケーションを作成してみます。 チャットベースの便利な生成AIアプリケーションを簡単な操作で作成できることの応用編となります。 Difyのトピックス Difyは頻繁にバージョンアップが行われています。 開発では新機能や機能追加が継続的に行われているため、どのように進化していくのか注目すべき点です。 2025年6月4日時点では、v1.4.1となっています。先週はv1.3.1からv1.4.0に上がったばかりでした。 Dify v1.3.1の主な内容 新機能 VTTドキュメント変換: ドキュ

    minorusato
    minorusato 2025/08/14
    “ダークモード”
  • わずか2.5GBの衝撃!ご家庭でPerplexityみたいなものが動くヨ!みんなもうコレにしようぜ|shi3z

    さあそしてPerplexityのように、ネットを勝手に探して記事を要約してくれるようにするためには、SerperというAPIを使う必要がある。Serperはしばらく無料で使えるので気に入ったら金を払えばよろしい。 次に、LM Studioを立ち上げてJan-V1をダウンロードしておく。 さらにMCPの設定をする。 右端のProgramの「Edit mcp.json」で編集すればOK mcpServersのプロパティのところにこんな感じで入れる { "mcpServers": { "github.com/marcopesani/mcp-server-serper": { "command": "npx", "args": [ "-y", "serper-search-scrape-mcp-server" ], "env": { "SERPER_API_KEY": "ここにSerperのAPI

    わずか2.5GBの衝撃!ご家庭でPerplexityみたいなものが動くヨ!みんなもうコレにしようぜ|shi3z
  • 最新のウェブブラウザの詳細(パート 1)  |  Blog  |  Chrome for Developers

    CPUGPU、メモリ、マルチプロセス アーキテクチャ この 4 部構成のブログシリーズでは、Google Chrome ブラウザの内部を、大まかなアーキテクチャからレンダリング パイプラインの詳細まで見ていきます。ブラウザがコードを機能するウェブサイトに変換する仕組みや、パフォーマンスの向上のために特定のテクニックが推奨される理由がわからない場合は、このシリーズがおすすめです。 このシリーズのパート 1 では、コア コンピューティングの用語と Chrome のマルチプロセス アーキテクチャについて説明します。 コンピュータの中核となるのは CPUGPU です。 ブラウザが実行されている環境を理解するには、いくつかのコンピュータ パーツとその機能について理解する必要があります。 CPU 図 1: 4 つの CPU コアは、各デスクに座ってタスクを処理するオフィス ワーカーを表します

    minorusato
    minorusato 2025/08/14
    chrome
  • Difyを使ってMCPサーバを利用する経験を積む(Microsoft Learn Docs MCP Server) - Qiita

    今後普及していくであろうMCPサーバについて、Difyを通じてMCPサーバを利用するまでをやってみました。 なお、Difyワークフローにてエージェントを利用するため、「AIエージェントでMCPサーバを利用してみた」という感じになります。 イメージ ・DifyからMCPサーバ(Microsoft Learn Docs MCP Server)に接続して回答結果を得る。 目次 1.環境および接続先 2.Dify環境準備 2.1.MCPツールの準備 2.2.エージェンティック戦略の準備 3.動作確認 3.1.単純動作確認 3.2.詳細動作確認 4.回答精度 4.1.一般的な質問 4.2.最新情報に関する質問 4.3.専門的な質問 4.4.あいまいな質問 最後に 参考 1.環境および接続先 環境ではローカルマシンを準備し、セルフホスト版Difyを利用しています。 Dify 1.4.2 / セルフホ

    Difyを使ってMCPサーバを利用する経験を積む(Microsoft Learn Docs MCP Server) - Qiita
    minorusato
    minorusato 2025/08/14
    “{ "server_name": { "transport": "streamable_http", "url": "https://learn.microsoft.com/api/mcp", "headers": {}, "timeout": 50, "sse_read_timeout": 50 } }”
  • セルフDify環境のバージョンアップをしてみた

    はじめに 過去2回に渡って、AlmaLinux上にセルフDify環境を構築して、簡易なチャットBotを作ってみました。 前々回:AlmaLinux上で動作させるセルフDify環境を構築してみた 前回:セルフDify環境でチャットBOTを作成してみた 最近あまり利用できていなかったんですが、Difyのアップデート速度は凄まじいようで、これまでに構築した環境はかなりバージョンが古くなっていました。 そこで、今回はDifyのバージョンアップ手順を備忘録として残しておきます。 バージョンアップ前の環境はバージョン0.8.3です。 これを2025年5月時点の最新である、バージョン1.3.1にバージョンアップしてみます。 既存環境のバックアップ 公式のバージョンアップ手順を見ると、docker-composeのyamlファイルとDockerのボリュームデータのディレクトリをバックアップしろとありますが

    セルフDify環境のバージョンアップをしてみた
  • AlmaLinux上で動作させるセルフDify環境を構築してみた

    はじめに 最近生成AI界隈で流行っていると噂のDify(ディファイ)の環境を構築してみました。 DifyはオープンソースのAIアプリ開発プラットフォームです。 特徴としては、様々なLLMと組合わせたAIアプリをノーコードで構築できる優れものです。 語弊を恐れず超ざっくり言えば、自分専用のChatGPTみたいなChatBotをノーコードで作成することができるツールです。もちろんChatBot以外のアプリも工夫次第でいくらでも作れると思いますが、導入の敷居として一番低いのはChatBotからかなと思います。 ただ、これだけだとChatGTP使えばいいやんってなるんですが、Difyの強味として比較的簡単にRAG(拡張検索生成)を組み込むことができるので、例えば自社の独自ノウハウなどを基にLLMから回答させるといったことができます。 これがChatGPTにはできなくて、Difyで独自のChatBo

    AlmaLinux上で動作させるセルフDify環境を構築してみた
  • 【第1回】DifyをEC2にインストールして使ってみよう インストール編

    https://smooz.cloud/news/column/dify-ai/ そこで今回はDifyはSaaSとしてインストールなしでブラウザからも使えるのですが、せっかくOSS(オープンソースソフトウェア)なので自身の環境にインストールして使ってみよう。という内容です。 Bedrockともつないだり、チャットを作るところやその周りのAWS設定など何回かに分けて行っていきたいと思います。 今回の内容で達成できること EC2にDockerを入れてDifyをインストールしブラウザから利用する。(SSL化はまだ) 初めに いきなり注意です。Difyの環境ですが2GBでも使えるという記事がありますが今はかなり厳しいです。 ひと昔前はそれでもよかったのです。(といっても数か月前の話です。) いろいろ機能追加されてきて、4GBないとインストールすら失敗する状況です。また必要ライブラリが出てきたりして

    【第1回】DifyをEC2にインストールして使ってみよう インストール編
  • LLM 大規模言語モデル講座2024講義スライド

    大規模言語モデル講座について 大規模言語モデル(LLM)寄付講座は、東京大学松尾・岩澤研究室が世界に先駆けて体系的に構築した、最先端のLLM技術を学べるオンライン講座です。延べ6,000名が受講した実績があり、全12回でLLMの原理から社会実装まで幅広く学べる内容が特徴です。学生や社会人を対象に、最新技術を理論と実践の両面から深く学ぶことができます。 資料の再利用(2次利用)について 資料は東京大学 松尾・岩澤研究室が作成し、東京大学サマースクール2024として2024年9月から11月にかけて開催されたLLM大規模言語モデル講座の講義資料となっております。 資料はクリエイティブ・コモンズのCC BY-NC-SA 4.0 DEED(表示-非営利-継承 4.0 国際)のライセンスが登録されています。 ライセンスの表示について 各スライドのページ最下部にライセンスの記載がございます。再利用

    LLM 大規模言語モデル講座2024講義スライド
  • Cursor AIとAmazon Bedrockを使用する方法:総合ガイド

    はじめに 今日の急速に進化するAI環境において、開発者はコーディング体験を向上させるための強力なツールを常に探しています。Cursor AIは、プログラミングタスクを支援するための組み込み大規模言語モデル(LLM)機能を提供する強力なAIアシスト統合開発環境(IDE)です。一方、Amazon Bedrockは、Anthropic(Claude)やMeta(Llama)などの主要AI企業による最先端の基盤モデルへのアクセスを提供しています。 このチュートリアルでは、Amazon BedrockのパワフルなAIモデルをCursor IDEと統合する方法を説明し、お馴染みの開発環境内でClaude 3.5 Sonnetなどの高度な言語モデルを活用できるようにします。このガイドに従うことで、Amazonの堅牢なAI機能を活用しながら、コストを削減し、データをAWSエコシステム内に保持することができ

    Cursor AIとAmazon Bedrockを使用する方法:総合ガイド
  • LiteLLMを使ってBedrockのClaudeをOpenAIのAPIと同じように使う | ゆにりあ ブログ版

    LLMを利用したアプリやOSSなどがたくさん公開されています。またLLMをサービス提供する業者も大量に増えました。 そのためアプリなどによっては、利用したいLLMサービスが選択肢にないことが多くあります。大抵の場合、利用可能なものはOpenAIAPIのみ、せいぜいAzure APIやGemini API程度の対応が多いです。しかし幸いな事にOpenAIの設定はHost名を変更できるようになっている事が多いので互換インターフェイスであれば利用できるようになっています。 そんな時に便利なのがLiteLLMです。 GitHub - BerriAI/litellm: Python SDK, Proxy Server (LLM Gateway) to call 100+ LLM APIs in OpenAI format - [Bedrock, Azure, OpenAI, VertexAI, C

    LiteLLMを使ってBedrockのClaudeをOpenAIのAPIと同じように使う | ゆにりあ ブログ版
    minorusato
    minorusato 2025/08/06
    “Bedrock Access Gateway”
  • Enable Amazon Bedrock in 3rd Party GenAI Tools and Plug-ins

  • Special Breaking Analysis: Microsoft Earnings - Turning Up the Heat with Azure, AI, and the Data Center Arms Race

    Special Breaking Analysis: Microsoft Earnings – Turning Up the Heat with Azure, AI, and the Data Center Arms Race By all accounts, Microsoft just delivered one of the most powerful quarters in its history. But this wasn’t just a blowout print, it was a signal that Microsoft is playing a new game. The company’s performance is redefining what hyperscale looks like in the AI era. An objective analysi