タグ

workflowに関するsh19910711のブックマーク (413)

  • GitHub Actionsのセルフホストランナーを使ってJenkinsをサクッと叩けるようにする - Mirrativ Tech Blog

    7月からミラティブにUnityエンジニアとして入社した森田です。 弊社ではUnityのCIとしてJenkinsを利用していますが、GitHub Actionsのセルフホストランナーと連携させることで、JenkinsはそのままでGitHubのWeb画面からジョブを実行できるようにしてみたので、書いておきます。 課題 実装 GitHub Actionsのセルフホストランナーの設定 JenkinsのAPIトークンを発行する workflowファイルの作成 結果 残った課題 We are hiring! 課題 弊社ではアプリのUnity部分とアセットバンドルのビルドにJenkinsを利用しています。 tech.mirrativ.stream JenkinsはUnityエンジニアに貸与されているMac miniにそれぞれにインストールして運用をしていたため、CIビルドするためにはその都度Mac mi

    GitHub Actionsのセルフホストランナーを使ってJenkinsをサクッと叩けるようにする - Mirrativ Tech Blog
    sh19910711
    sh19910711 2025/06/20
    2022 / "JenkinsはUnityエンジニアに貸与されているMac miniにそれぞれにインストールして運用 / CIビルドするためにはその都度Mac miniを所持しているエンジニアに頼む"
  • はじめてのIssueOps - GitHub Actionsで実現するコメント駆動オペレーション

    IssueOpsとはGitHubのコメントから、任意のオペレーションを実行するプラクティスです。ChatOpsのようにコメントするだけで、誰でも簡単に使えます。IssueOpsはGitHub Actionsの標準機能だけで実装でき、デプロイやInfrastructure as Codeではとくに役立ちま…

    はじめてのIssueOps - GitHub Actionsで実現するコメント駆動オペレーション
    sh19910711
    sh19910711 2025/06/20
    "IssueOps: コード(プルリクエスト)とオペレーションが紐づく + ログが共有されるため、問題発生時にチームでデバッグしやすい / 起動時にリアクションで合図し、終了時に結果をコメントで投稿"
  • Devin x GitHub ActionsでRenovateのPR対応を自動化する実践ノウハウ - コネヒト開発者ブログ

    こんにちは!Androidエンジニアの関根です。 今回は、RenovateのPR対応を自動化する取り組みについてご紹介します。 はじめに 皆さんの職場では、Renovateを使いこなせていますか?依存関係を最新に保つ上で、当に頼もしい存在ですよね。 弊社のAndroidチームではRenovateのPullRequestを定例で確認し、マージの判断をする運用は行っていますが、だんだんとPullRequestが溜まってしまっていました。 影響の少ないアップデートならその場で判断し、マージできますが、調査が必要な場合に、先送りしてしまうということが起きていました。 「影響範囲の調査が必要だな…」「後でやろう…」 そう思っているうちに、PRはどんどん溜まっていき、上限数に達してしまうということが定常化していました。 この記事では、そんな「調査待ちRenovate PR」の渋滞を、今話題のAIエー

    Devin x GitHub ActionsでRenovateのPR対応を自動化する実践ノウハウ - コネヒト開発者ブログ
    sh19910711
    sh19910711 2025/06/20
    "人間が行っていた調査作業をDevinが自動化することで、レビュアーは「調査結果の確認と判断」に集中 / DevinのPlaybookを採用した理由は、RenovateのPR対応が以下のような定型的な作業の繰り返しになるため"
  • GitHub ActionsとAWX Operatorで実現するGitOpsによるリリース自動化 - 前編 - - ZOZO TECH BLOG

    はじめに こんにちは、EC基盤開発部SRE部カート決済SREブロックの金田・小松です。普段はSREとしてZOZOTOWNのカート決済機能のリプレイスや運用を担当し、AWSAkamaiの管理者としても活動しています。 記事では、前編と後編に分けて、Classic ASPの手動リリースをGitHub ActionsとAWX Operatorを活用して自動化したプロジェクトについてご紹介します。手動で行っていたリリース手順を自動化することで、効率化と安定性をどのように実現したか、そのアプローチをお伝えします。 前編では、Classic ASPの手動リリース作業が抱える課題を解決するためにGitHub Actionsを活用したリリースプロセス自動化の概要について解説します。 後編では、GitHub Actionsと連携してリリース作業を具体的に遂行するためのツールであるAWX Operato

    GitHub ActionsとAWX Operatorで実現するGitOpsによるリリース自動化 - 前編 - - ZOZO TECH BLOG
    sh19910711
    sh19910711 2025/06/20
    2024 / "AWX Operator: GitHub ActionsとAPIを介して連携 + リリース作業の具体的な実行を担当 / ジョブの実行結果や状況をGitHub Actionsに返却し、次のステップに移行するための判断材料を提供"
  • LiteLLMを使ったLLMの集約 & 簡易的なKey管理 + langfuse添え

    プライベートなLLM API、会社利用でのAPI、LocalLLMなど、LLMを使うだけでもいろいろなエンドポイントがあり管理が煩雑になる、あると思います。 そういったことへの対策として、いろいろなところでLiteLLMに関する記事はありますが、Keyの管理についてはあまり触れられていないようなので簡単にまとめておきます。 LiteLLMとは LiteLLMは、LLMプロバイダーへのアクセスを統一的なインターフェースで提供するOSSです。LiteLLM Proxy Server (LLM Gateway) として起動することで、個々のLLMプロバイダーのAPI仕様の違いを意識することなく、OpenAI互換の形式でリクエストを送信し、様々なモデルを利用できるようになります。 加えてLiteLLM Proxyは、単なるAPIの抽象化に留まらず、認証、認可、使用状況の追跡、コスト管理、レート制限

    LiteLLMを使ったLLMの集約 & 簡易的なKey管理 + langfuse添え
    sh19910711
    sh19910711 2025/06/20
    "LiteLLM Proxy: 使用状況の追跡、コスト管理、レート制限、キャッシュ、モデルルーティングといった、エンタープライズレベルの運用機能 / どれだけの量をどの程度の頻度で利用できるか、といったポリシー"
  • Vertex AI PipelinesでBigQueryの前処理とAutoMLの学習を自動化したよ|OPTEMO エンジニアブログ

    こんにちは、すずきです。 年末ですね。今年のベストバイはゴマキの写真集です。今年どころか人生ベストバイかもしれません。生きていることに感謝。神様、ありがとうございます(無宗教) ところで、BigQueryに日々追加されるデータを月1でモデル学習に利用していましたが、前処理やラベル付け、学習の一連の手順が手作業でかなりミスが発生していました。運用効率を上げるため、Google CloudのVertex AI Pipelinesでこれらのプロセスを自動化しました。 Vertex AI PipelinesとはVertex AI Pipelinesは、Google Cloud上で機械学習パイプラインを構築・管理できるサービスです。Kubeflow Pipelines SDKやTFX Pipeline DSLで、Kubernetesクラスタの管理を意識することなく、サーバーレス環境で効率的にパイプラ

    Vertex AI PipelinesでBigQueryの前処理とAutoMLの学習を自動化したよ|OPTEMO エンジニアブログ
    sh19910711
    sh19910711 2025/06/14
    2024 / "Google Cloud Pipeline Componentsは、Google Cloudのさまざまなサービスを簡単に利用できるように設計されたカスタムコンポーネントのセット / TabularDatasetCreateOp: BigQueryのテーブルをVertex AIのデータセットとして登録"
  • Kubeflow Pipelines v2 で変わる機械学習パイプライン開発

    第39回 MLOps 勉強会の発表資料です https://mlops.connpass.com/event/312260/

    Kubeflow Pipelines v2 で変わる機械学習パイプライン開発
    sh19910711
    sh19910711 2025/06/14
    2024 / "パイプラインのデコレータの引数は保存先の指定だけ必要 / Pythonで定義したパイプラインをVertex Pipelinesにわたすための設定ファイル(YAML)にコンパイル + pipeline_specという中間言語"
  • セマンティックレイヤーをベースとしたBIツール「Lightdash」の紹介 

    こんにちは。データエンジニアリングの支援を行っているstable株式会社の代表の宮﨑(@ikki_mz)です。近年、データ活用の重要性がますます高まる中、BI(ビジネスインテリジェンス)ツールの選択は...

    セマンティックレイヤーをベースとしたBIツール「Lightdash」の紹介 
    sh19910711
    sh19910711 2025/06/14
    "Lightdashもユニバーサルセマンティックレイヤーを代表するdbt Semantic Layerへの対応を進め / 独自の定義方式とdbt Semantic Layerの、2つのセマンティックレイヤー定義をサポート"
  • 【Firebase Genkit】Dotprompt を使って便利にモデルの設定とプロンプトを管理しよう

    こんにちは。tmassh です。 Google Developers Group Kwansai Advent Calendar 2024 10日目になります。 Firebase Genkit 楽しすぎてついついフローを作り続けてしまうのですが、だんだんプロンプトの管理やモデルの設定を管理するのが大変になってきたので、今日はこの話題です。 Fireabse Genkit では、Dotprompt を使うことでプロンプトの管理とモデルのパラメータ、入出力のスキーマ管理が楽にできます。 Dotprompt とは ? 百聞は一見にしかず。実際のファイルをみていきましょう。 --- model: vertexai/gemini-1.5-flash config: temperature: 0.4 topK: 32 topP: 0.95 tools: [] input: schema: scener

    【Firebase Genkit】Dotprompt を使って便利にモデルの設定とプロンプトを管理しよう
    sh19910711
    sh19910711 2025/06/14
    2024 / "--- で囲まれている部分がモデルのパラメータとスキーマ + 残りの箇所がプロンプト / プロンプトの部分は Handlebars というテンプレートをサポート + role の定義や変数の埋め込み"
  • Vertex AI Pipelinesテンプレートを管理するArtifact Registryの導入 - Timee Product Team Blog

    Timee Product Advent Calendar 2024 13日目の記事です。 MLOpsエンジニアとして10月にタイミーにジョインした、ともっぴです。 データエンジニアリング部 データサイエンス(以下DS)グループに所属し、ML基盤の構築・改善に取り組んでいます。 概要 記事では、Vertex AI Pipelinesを効率的に開発するために行った 「Vertex AI Pipelinesテンプレートを管理するArtifact Registryの導入」 の取り組みを紹介します。 過去、DSグループが取り組んできたVertex AI Pipelinesの開発効率化は、以下の記事を参照ください。 tech.timee.co.jp tech.timee.co.jp 背景と課題 背景 前提としてタイミーのML基盤では、サービスレベルに応じた複数のGoogle Projectが存在し

    Vertex AI Pipelinesテンプレートを管理するArtifact Registryの導入 - Timee Product Team Blog
    sh19910711
    sh19910711 2025/06/14
    2024 / "Artifact Registryで一元管理することで、統一的なルールでライフサイクルを、各MLパイプラインテンプレートに適用でき、管理の煩雑さが解消"
  • dbt snapshotの内部クエリを理解して正確に挙動を把握しよう! - Timee Product Team Blog

    はじめに dbt snapshotとは(ざっくり) 今回の例 全体の流れ snapshot内部処理の詳細 delete処理:宛先テーブルに存在するレコードがソーステーブルでdeleteされていた場合 update処理:宛先テーブルと比較してソーステーブルのレコードがupdateされていた場合 insert処理:宛先テーブルに無いレコードがソーステーブル側に新規で作成されていた場合 check戦略の場合 check戦略の詳細 まとめ We’re Hired はじめに こんにちは☀️okodooooonです 最近、社内のdbt snapshotモデルでパフォーマンスの問題が発生し、その解決に苦労しました。dbt snapshotの内部処理が公式ドキュメントなどで提示されておらず、詳細なクエリを理解していなかったためです。 そこで、今回、dbt snapshotの内部クエリについて解説してみるこ

    dbt snapshotの内部クエリを理解して正確に挙動を把握しよう! - Timee Product Team Blog
    sh19910711
    sh19910711 2025/06/14
    2024 / "SCD Type2 Dimensionという思想に従って、過去時点の状態の遷移を蓄積できるような仕組み / 上書き処理前後のレコードをそれぞれ有効期限付きで保存"
  • Claude Codeと征く、社内情報検索Slack botのStrands Agents対応への道(検証編) - Qiita

    import os import asyncio import logging from typing import Dict, List from dotenv import load_dotenv # slack bolt周り from slack_bolt import App from slack_bolt.adapter.socket_mode.async_handler import AsyncSocketModeHandler from slack_bolt.async_app import AsyncApp # langchain周り from langchain_aws import ChatBedrockConverse from langchain_aws import AmazonKnowledgeBasesRetriever from langchain_core

    sh19910711
    sh19910711 2025/06/11
    "元々のlangchainで実装したコードである app.py と、前節で作成したStrands Agentsのサンプルコードである test.py があるため、これらをマージするようなイメージで Claude Code に指示"
  • Mastra×RAG×構造化ストリーミングの開発事例 - 先生検索AIエージェントの詳細解説

    先日、オンライン家庭教師マナリンクにて、「先生検索エージェントが先生を探してくれる機能」をリリースしました🎉 まずは簡単なデモ動画をご覧ください⬇️ ※画面は開発時点のもの/検索結果は一例です この機能には以下のような特徴があります。 AIのレスポンスが 1文字ずつ表示(ストリーミング) され、ChatGPTライクなUXを実現 検索者が自然言語で入力した科目や学年などの条件を、AIが理解して先生を探す 先生を探す条件には科目や学年などの数値化できるデータだけでなく、「コミュニケーションが苦手」といった非構造化データも含めて検索できる 検索結果には順位や推薦文、先生の情報が表示されるカードなど、単なるテキストではなく構造化されたリッチなUIが表示される。すなわち構造化されたデータ(JSON)のストリーミング表示ができている 最終的な返答だけでなく、AIが様々なデータソースから検索している進

    Mastra×RAG×構造化ストリーミングの開発事例 - 先生検索AIエージェントの詳細解説
    sh19910711
    sh19910711 2025/06/11
    "エージェントのレスポンス速度は速いに越したことがない / HyDEにあまりにも真面目に向き合った場合、データソースごとに検索クエリを生成させることになり、多様なデータソースから検索するほどクエリ生成に時間が"
  • dbt周辺ツールを使った「圧倒的に楽」なメタデータ管理 - Classi開発者ブログ

    こんにちは、データプラットフォームチームの鳥山(@to_lz1)です。 記事はdbt Advent Calendar 2024の10日目の記事です。 データ基盤を扱う上で避けて通れない「メタデータの管理」ですが、あなたのチームではどのように取り組まれているでしょうか?独自メタデータカタログを作ったけど、運用がつらくなっているとか、はたまた構築初期なのであえてdescriptionなしのまま突き進んでいるなど、データ基盤整備のフェーズによっても各社さまざまかと思います。 弊社も例に漏れず上記のようなフェーズを通過してきましたが、最近ではdbtやその周辺ツールを使った効率化がうまく回り始めてきました。記事ではその仕組みをどのように構築したのかをご紹介します。 そもそもメタデータとは? 旧来の仕組み 新しい仕組み dbt-osmosisの導入 dbt-source-importerの導入とC

    dbt周辺ツールを使った「圧倒的に楽」なメタデータ管理 - Classi開発者ブログ
    sh19910711
    sh19910711 2025/06/11
    2024 / "メタデータ: 『翌週には最新化されている』くらいのスピード感でも良い / 週に1回自動で上がってくるPRを見るだけで良くなったので、整合性の担保が劇的に楽になった"
  • Claude Code Actionでコマンド実行するためのallowed_tools設定例

    はじめに Claude Code Action は、AI アシスタントによるコード生成や編集を支援する機能ですが、デフォルトではセキュリティ上の理由からコマンド実行が制限されています。 この記事は、allowed_tools の設定を追加して、npm コマンド等を実行できるようにしたときの備忘録です。 環境 サンプルコード まずはサンプルコードです。 uvu によるシンプルなテストコードを用意し、それを実行するためのコマンドを package.json の scripts に用意しました。 tree . ├── node_modules ├── package-lock.json ├── package.json └── sample.test.js 2 directories, 3 files cat package.json { "name": "claude-code-action-

    Claude Code Actionでコマンド実行するためのallowed_tools設定例
    sh19910711
    sh19910711 2025/06/07
    "デフォルトではセキュリティ上の理由からコマンド実行が制限 / 特定のコマンドのみにしたい場合は Bash(npm:*),Bash(node:*) のように記述 / サブコマンドまで指定したい場合は Bash(npm install),Bash(npm run test) "
  • Claude Code / Claude Code Action を Google Cloud Vertex AI 経由で使う

    ZennGoogle Cloud をメインで利用しています。Claude Code を Vertex AI 経由で利用することで、Google Cloud の認証・課金体系を活用できそうだと思いました。今回は、ローカルで利用する claude コマンドと、GitHub リポジトリで動く Claude Code Action を Vertex AI で使ってみます。 対象 この記事は以下の方を対象としています: macOSのマシンを利用している Google Cloud プロジェクトを持っている ローカル環境で Claude Code を試したい GitHub Actions で Claude Code Action を使いたい 課金を Anthropic ではなく Google Cloud に一化したい なにをするか Claude Code から Vertex AI で Claud

    Claude Code / Claude Code Action を Google Cloud Vertex AI 経由で使う
    sh19910711
    sh19910711 2025/06/07
    "Claude Code を Vertex AI 経由で利用することで、Google Cloud の認証・課金体系を活用 / claude-code-action: use_vertex: trueとすることでVertex AI経由での利用"
  • A2Aのチュートリアルを解説しつつ完走してみる

    今回はAIエージェント間の通信・連携を補完するためのオープンプロトコルであるA2A(Agent2Agent)の公式チュートリアルを試しながら、その概要を理解していきます。 A2Aとは? A2Aは米国時間2025年4月9日にGoogleから発表されたオープンプロトコルです。 複数のAIエージェント間の連携を定義し、クライアントエージェントがタスクの作成と伝達を、リモートエージェントがそのタスクの実行や情報提供を行うことで、最終的なアーティファクトを生成することを目的としています。 今年話題のMCP(Model Context Protocol)とは性質が違うものであり、どちらかがどちらかを代替するということはなく、むしろ互いに補完しあうものです。 具体的には、ユーザーから与えられたタスクの実行はA2Aによるマルチエージェントで実行しつつ、それらのエージェントが外部システムやデータと連携を行う

    A2Aのチュートリアルを解説しつつ完走してみる
    sh19910711
    sh19910711 2025/06/07
    "A2Aによるマルチエージェントで実行しつつ + 外部システムやデータと連携を行う際にはMCP / A2A: 何をできるか(スキル)、そしてほかのエージェントやクライアントがそのスキルを知る方法(カード)を定義"
  • Snowflake経由でClaudeのTool Useを試す - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Snowflake Cortex では LLM の Anthropic Claude が提供されており、その一部の機能として外部ツールを実行するための機能 Tool Use という機能があります。この記事ではその機能の動作確認の結果を記します。 最初に断っておきますが、まともに動いてはいないです。 1. はじめに 最近は AI エージェントが非常に話題になっています。AI エージェントとは何かというと定義は結構難しいと思っているのですが、 複数のタスクからなる複雑なワークを計画できる 決められたタスクを決められた順番で実行するだけではな

    Snowflake経由でClaudeのTool Useを試す - Qiita
    sh19910711
    sh19910711 2025/06/06
    "Snowflake Cortex においても Claude は AWS オレゴン/バージニアのリージョンに限り提供 / tool_choice を auto(LLM に外部ツール実行の要否を判断させる)では、外部ツールを実行する旨の回答にならなかった"
  • Slackで動くMCP Agentを作った - yutashx.log

    課題 私自身MCPに興味があり、MCPについて調べたり、いくつかツールを作っていました。 Claude Desktop x MCPでユーザーの行動履歴を分析させてみた - yutashx.log MCPサーバーのセキュリティリスクの分類とTool Poisoning Attackの考察 - yutashx.log MCP Transportの備忘録 - yutashx.log 色々試した結果LLM x MCPは強力なツールであると実感しました。 現状のMCP Hostの代表であるClaude Desktop, Cursor, VSCodeといったツールは、デスクトップPCを前提にしており、デスクトップPCを持っていないときは、MCP Serverを利用できません。 そこでSlack上からMCP Serverを利用できる仕組みを思いつきました。 今回 Slack-MCP-Agent というS

    Slackで動くMCP Agentを作った - yutashx.log
    sh19910711
    sh19910711 2025/06/06
    "ユーザーからメンションされたAgentは、Slack MCP Serverを呼び出し、スレッド内の過去のメッセージを把握し、Notion MCP Serverを呼び出し、Notionのデータベースに先週のダウ平均株価を記録"
  • n8nを使って、モデル比較からHITLまで考える

    最近のモチベーション 生成AIの導入支援において、クローズドなモデルの比較検証を行うことが多い 行うことはそれほど難しくないのだが、 各社のモデル登場スピードが早く、比較対象が多い(気がつけば、アレも!となる) input/中間/outputでちょっとした処理や連携が必要 ソースは外部サービスのストレージ とか 中間の結果は別でも見比べたいから、〇〇にも蓄積 とか 検証の初回~中期の評価は定性的な評価がマストと感じる いきなり定量的に行える課題はひと握り 数値化や指標化するにもプロセスの棚卸しや言語化が必要 評価軸は抑えども、やっぱり人手で1シートにまとまった内容を見て評価する必要がある(ことが多い) そろそろワークフロー使いたい 検証自体は1スクリプトで十分書ける Langchainなどフレームワークがあれば、モデル間の差異を感じずにコードが書ける 少し前は新しいものとして、キャッチアッ

    n8nを使って、モデル比較からHITLまで考える
    sh19910711
    sh19910711 2025/05/30
    "n8n: 外部連携(アプリ)がそれなり + なかなか目が向きにくいフロー自体の拡張や制御(分岐やWait)があり、そのあたりとAgentを組み合わせられる"