並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 31 件 / 31件

新着順 人気順

python image base64 encode decodeの検索結果1 - 31 件 / 31件

  • 多店舗展開するジムの会員入退室管理を材料費数万円で実現し、24時間営業にした話

    ジムの会員管理システムを作った僕に「エニタイムフィットネスみたいなことがしたい」とジムを家族経営するお客さんから相談された。 「えっ!?会員管理を作ったついでにエニタイムフィットネスみたいな仕組みをやりたい!?予算は無い!?不正防止のため、入退室時の写真も撮りたい?!ログもとりたい!?」 さすが筋トレに明け暮れてるオーナーさんの要望はマッチョだと思った。 普通にやれば電子錠の仕組みや工事やらで一店舗あたり数百万から一千万掛かるような仕組みだろう。 そんな予算無いみたいだし、既存の店舗をそんな大々的に工事もできない。そもそも自分にそんな工事の知識もない。 結果Raspberrypiを使い、それを一店舗予算10万円代で実現、会員カードを他店舗と共有した24時間営業にできた。 その詳しい技術的な内訳を共有する。 (なお執筆時点では2024年だが、これ自体は5年前、2019年の仕事である。) 前提

      多店舗展開するジムの会員入退室管理を材料費数万円で実現し、24時間営業にした話
    • 【2020年】CTF Web問題の攻撃手法まとめ - こんとろーるしーこんとろーるぶい

      はじめに 対象イベント 読み方、使い方 Remote Code Execution(RCE) 親ディレクトリ指定によるopen_basedirのバイパス PHP-FPMのTCPソケット接続によるopen_basedirとdisable_functionsのバイパス JavaのRuntime.execでシェルを実行 Cross-Site Scripting(XSS) nginx環境でHTTPステータスコードが操作できる場合にCSPヘッダーを無効化 GoogleのClosureLibraryサニタイザーのXSS脆弱性 WebのProxy機能を介したService Workerの登録 括弧を使わないXSS /記号を使用せずに遷移先URLを指定 SOME(Same Origin Method Execution)を利用してdocument.writeを順次実行 SQL Injection MySQ

        【2020年】CTF Web問題の攻撃手法まとめ - こんとろーるしーこんとろーるぶい
      • 防衛省サイバーコンテスト 2025 writeup - st98 の日記帳 - コピー

        2/2に12時間というちょうどよい競技時間で開催された。21時終了だったけれども、11時45分ぐらいに最速で全完して1位🎉 第1回以来4年ぶりの優勝だ。昨年大会の第4回ではヒントの閲覧数で優勝を逃してしまって悔しい思いをしたので、雪辱を果たすことができ嬉しい。開始直後からずっと1位を独走できており、510名のプレイヤーがいる中で圧勝だったのも嬉しい。 昨年度や一昨年度はバルクが作問を担当していたが、今回はAGESTが担当していた。これまでの問題と比較すると全体的に易化したように思うが、解くにあたって発想の大きな飛躍を必要とするいわゆる「エスパー要素」のある問題はごく一部を除いて存在しておらず*1、よかったと思う。また、昨年度・一昨年度に引き続きwriteupは公開可能というのもよかった。 戦略というほどの戦略は立てていなかったけれども、とりあえずWebを見た後は全カテゴリを上から見ていき

          防衛省サイバーコンテスト 2025 writeup - st98 の日記帳 - コピー
        • OpenAI の GPT-4-vision-preview (VLM) を利用した商品画像のタグ付け - DROBEプロダクト開発ブログ

          はじめに DROBE の課題と GPT-4-Vision-Preview を試すモチベーション ケーススタディ 入力するデータ 推論周辺部分のコード プロンプト 実験結果 おわりに 参考文献 はじめに OpenAIが Dev Day で発表したGPT-4-Vision-Previewは、画像処理と自然言語処理を組み合わせた最先端の技術です。 このモデルは、画像を理解し、その内容に基づいてテキスト情報を生成する能力を持っています。例えば、写真やイラストから物体を識別し、それに関連する説明や情報をテキストとして提供できます。この技術は、画像とテキストの間のギャップを橋渡しするものであり、多様な応用が可能です。 DROBEは、多様なファッション商品を取り扱うECサイトを運営しています。我々の挑戦の一つは、膨大な数の商品画像と説明文から、正確で有用なタグを抽出し、整理して保存しておく事です。このプ

            OpenAI の GPT-4-vision-preview (VLM) を利用した商品画像のタグ付け - DROBEプロダクト開発ブログ
          • GPT-4VのAPIをサクッと使ってみる!|peisuke

            概要昨日発表されたGPT-4VのAPI(画像に対して質問を投げることができるAPI)を早速利用してみたので、サクッと使ってみようと思う。 使い方当然ながら、現時点ではLangChainなどのライブラリからは利用できないし、Pythonのライブラリもなさそう(→ありました)。ここに使い方が乗っているので、そのまま使ってみる。ローカルのイメージをbase64エンコードして送る感じらしい。 やってみる今回は、インターネットで検索して出てきた画像に対して、簡単な質問をしてみよう。今後いろんな論文をサクッと実装していきたいと思うのだけど、まずは手始めに早稲田大学の講義のページを使わせてもらいます。制約条件付き最適化の問題を解かせてみようと思います。 https://www.f.waseda.jp/ksuga/2007chap17.pdfよりimport base64 import requests

              GPT-4VのAPIをサクッと使ってみる!|peisuke
            • Agent Skills対応Agentを作ろう|はち

              1. はじめに2025年末にAnthropicがAgent Skillsという機能をオープンスタンダード化し、Xなどでもよく話題になっていると思います。MCP然りでAnthropicはこういったスタンダード化をするのが上手いなと感心させられます。 色々議論されていると思いますが、Agentの開発を行っている私的にAgent Skillsのメリットは以下の2点だと考えています。 再利用性:1度作ったSkillを別エージェントでも使いやすい。 段階的開示(progressive disclosure):そのSkillが必要になったときだけその詳細やスクリプトについてAgentが読み込むことができる。(プロンプトの圧縮につながる。) AnthropicとしてはあくまでClaude CodeやClaude APIでできることを増やしたいがためのオープンスタンダード化ということなのか、自作Agent

                Agent Skills対応Agentを作ろう|はち
              • Introduction to GPT-4o and GPT-4o mini

                GPT-4o (“o” for “omni”) and GPT-4o mini are natively multimodal models designed to handle a combination of text, audio, and video inputs, and can generate outputs in text, audio, and image formats. GPT-4o mini is the lightweight version of GPT-4o. Background Before GPT-4o, users could interact with ChatGPT using Voice Mode, which operated with three separate models. GPT-4o integrates these capabil

                  Introduction to GPT-4o and GPT-4o mini
                • Introducing Amazon Nova foundation models: Frontier intelligence and industry leading price performance | Amazon Web Services

                  AWS News Blog Introducing Amazon Nova foundation models: Frontier intelligence and industry leading price performance April 23, 2025: Post updated to include benchmark evaluations for the understanding models at the time of launch. Today, we’re thrilled to announce Amazon Nova, a new generation of state-of-the-art foundation models (FMs) that deliver frontier intelligence and industry leading pric

                    Introducing Amazon Nova foundation models: Frontier intelligence and industry leading price performance | Amazon Web Services
                  • LangChain + Claude3(Amazon Bedrock) を動かしてみる 〜ローカル実行編〜 - Qiita

                    はじめに こんにちは!yu-Matsuです! 皆さんBedrockしていますでしょうか。 3/4に Anthropic Claude3 が発表され、界隈はかなり盛り上がっていますね! 特に Claude 3 Opus はあのGPT4を性能で上回るとのことですから、注目されています。それだけでなく、画像処理が出来るのもかなり魅力的です! そんな Claude3 ですが、つい先日、PythonのLangChainからBedrockのClaude3 Sonnetが呼び出せるようになったので、試してみたいと思います! なお、記事のタイトルを「ローカル実行編」としているのは、今回で検証した内容を LINE Bot に乗せて、画像情報も取り扱える AI LINE Bot を作ろうとしているからです。こちらは実装次第別途記事にしたいと思いますので、お楽しみに! 事前準備 まずは何よりもBedrock上で

                      LangChain + Claude3(Amazon Bedrock) を動かしてみる 〜ローカル実行編〜 - Qiita
                    • Bucket full of secrets – Terraform exfiltration | Mercari Engineering

                      Background At Mercari, we utilize many microservices developed across multiple different teams. Each team has ownership over not only their code, but also the infrastructure necessary to run their services. To allow developers to take ownership of their infrastructure we use HashiCorp Terraform to define the infrastructure as code. Developers can use Terraform native resources or custom modules pr

                        Bucket full of secrets – Terraform exfiltration | Mercari Engineering
                      • Cursor はどこが GitHub Copilot より優れているのか(独自機能Docsの実力) - GMOインターネットグループ グループ研究開発本部

                        D.M. です。 AI 搭載で話題の IDE である Cursor について、 GitHub Copilot と比べた場合の利点を掘り下げてみます。 結論ファースト ・現段階では一長一短。Cursor にしかない機能もあれば、 GitHub Copilotにしかない機能もある。 → 特に Cursor の Docs は独自機能(GitHub Cipolotにはない) ・両方併用できる。 ・Cursor のAI自動プログラミングスキルは既存の「GPT-4」と同等(ただ、モデルを変更できる) 簡単な単発バッチ処理は高速で実装できる。 複雑化すると100点は難しい。 現段階では、AIに全部書かせるのではなく、補助ツールとしてとらえるほうが効果的。 導入編:Cursorとは AI がプログラミングしてくれる時代 2022年11月にChatGPTが発表されて以降、 LLM は簡単なプログラミングが可

                        • Shai Hulud Strikes Again (v2) - Socket

                          Shai Hulud Strikes Again (v2)Another wave of Shai-Hulud campaign has hit npm with more than 500 packages and 700+ versions affected. Update: November 26, 2025 PostHog has published a detailed post mortem describing how one of its GitHub Actions workflows was abused as an initial access vector for Shai Hulud v2. An attacker briefly opened a pull request that modified a script executed via pull_requ

                            Shai Hulud Strikes Again (v2) - Socket
                          • 続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部

                            TL;DR OpenAIは2024年10月1日に公開した新しいAPIの1つがVision Fine-tuningです。これはGPT-4oの画像認識能力を追加学習(ファインチューニング)できる新機能です。Vision Fine-tuning APIは、最低10枚の画像と期待する返答の学習データを準備するだけで、Web上で手軽に実行と検証が可能です。 今回、実験として美雲このはの画像を使ってキャラクターを認識させたり、問題のあるグラフの可視化を指摘させるなどの学習をさせて、期待通りの回答を得ることができました。なお、人物や顔、CAPTCHAなど利用規約に違反する画像は学習できない点に注意が必要です。 はじめに こんにちは、グループ研究開発本部・AI研究室のT.I.です。OpenAIでは、2024年10月1日に、いくつかの新しいAPIをリリースしました。今回のBlogでは、その1つであるvisi

                              続・GPT-4oで画像解析をやってみた Fine-tuning編 - GMOインターネットグループ グループ研究開発本部
                            • AnthropicのClaude 3 OpusのVision機能を日本語OCRとして使ってみる

                              今月4日、AnthropicがClaude 3を発表しました。Anthropicの発表している評価結果では、OpenAI GPT-4やGoogleのGemini 1.0 Ultraを上回る高い性能を示しています。私もClaude 3 Sonnetを使って、翻訳やテストケース作成などの作業をいくつかやってもらいましたが、私の体感でもGPT-4と同等かそれを上回る高い性能だと感じました。 最近の生成AIは画像認識系機能を組み込んでおり、Claude 3もVision機能が提供されています。具体的には写真やグラフ、図などを読み込んで処理する用途が想定されているそうです。 私は以前から、「Azure Computer Vision APIの日本語OCR機能を使ってみる」、「Google Cloud Vision APIの日本語OCR機能を使ってみる」、「OpenAIのGPT-4 Turbo wit

                                AnthropicのClaude 3 OpusのVision機能を日本語OCRとして使ってみる
                              • Migrating OCR Enhancement from GPT-4 Turbo Vision Preview to GPT-4 Turbo GA

                                Migrating OCR Enhancement from GPT-4 Turbo Vision Preview to GPT-4 Turbo GA The introduction of Optical Character Recognition (OCR) enhancement as a component of the GPT-4 Turbo Vision Preview was aimed at generating higher-quality responses for dense texts, transformed images, and number-heavy financial documents. Although, the recent announcement regarding the GPT-4 Turbo 2024-04-09 General Avai

                                • Claude 3を使ってさっそくローカルで画像解析してみた! - Qiita

                                  Claude 3とは 2024年3月4日の夜中に颯爽と発表された、ClaudeV2.1に次ぐAnthropicの新しい基盤モデルになります。 Claude3はOpus、Sonnet、Haikuの3種類のモデルが同時に新しく発表され、それぞれ性能とコスパで差別化されてるようです。 気になる性能は? 一番ハイエンドなモデルOpusではなんとOpenAIのGPT4やGoogleのGemini Ultraを凌ぐベンチマークを叩き出しているようです!これには期待感が高まりますね。 画像解析対応 更に、Claude3ファミリーはすべてのモデルが画像解析に対応とのことです! 3 つの新しいモデルはすべて高度なビジョン機能を備えており、さまざまなデータ形式を処理し、画像データを分析して、チャート、グラフ、技術図、写真、その他の視覚資産をよりよく理解するモデルに対する顧客の高まる需要に応えます。 ハルシネー

                                    Claude 3を使ってさっそくローカルで画像解析してみた! - Qiita
                                  • Amazon Nova のご紹介: フロンティアインテリジェンスと業界をリードする料金パフォーマンス | Amazon Web Services

                                    Amazon Web Services ブログ Amazon Nova のご紹介: フロンティアインテリジェンスと業界をリードする料金パフォーマンス 12 月 3 日、最先端インテリジェンスと業界トップクラスの価格パフォーマンスを実現する新世代の最先端基盤モデル (FM) である Amazon Nova を発表できたことを嬉しく思います。このモデルは Amazon Bedrock でのみご利用いただけます。 Amazon Nova を使用すると、ほとんどすべての生成 AI タスクのコストとレイテンシーを削減できます。Amazon Nova をベースに構築することで、企業のワークロードに最適化されたさまざまなインテリジェンスクラスから、複雑なドキュメントやビデオの分析、チャートや図の理解、魅力的なビデオコンテンツの生成、高度な AI エージェントの構築を行うことができます。 画像やテキストを

                                      Amazon Nova のご紹介: フロンティアインテリジェンスと業界をリードする料金パフォーマンス | Amazon Web Services
                                    • Geminiでマルチモーダル対応の生成AIチャットアプリを爆速で作ってみた - G-gen Tech Blog

                                      G-gen 又吉です。Google の提供する最新の生成 AI モデルである Gemini を用いて、マルチモーダルな生成 AI チャットアプリを簡単に開発できましたので、ご紹介します。 概要 当記事の内容 デモ動画 前提知識 Gemini とは 使用するモデル Gradio Cloud Runサービスへのアクセス制御 準備 ディレクトリ構成 app.py requirements.txt Dockerfile デプロイ 動作検証 認証 テキストのみ 画像① 画像② 動画 利用状況の可視化 概要 当記事の内容 Google の提供する最新の生成 AI モデルである Gemini を用いて、テキスト、画像、動画の入力に対応したマルチモーダルな生成 AI チャットアプリを作ってみたので、当記事ではその開発の経緯をご紹介します。 実行環境として Google Cloud(旧称 GCP)の Clo

                                        Geminiでマルチモーダル対応の生成AIチャットアプリを爆速で作ってみた - G-gen Tech Blog
                                      • Processing and narrating a video with GPT-4.1-mini's visual capabilities and GPT-4o TTS API

                                        Processing and narrating a video with GPT-4.1-mini's visual capabilities and GPT-4o TTS API This notebook demonstrates how to use GPT’s visual capabilities with a video. Although GPT-4.1-mini doesn’t take videos as input directly, we can use vision and the 1M token context window to describe the static frames of a whole video at once. We’ll walk through two examples: Using GPT-4.1-mini to get a de

                                          Processing and narrating a video with GPT-4.1-mini's visual capabilities and GPT-4o TTS API
                                        • GCPとMarquezで始めるデータリネージ

                                          データリネージの自動収集と可視化について調べた内容をもとに、実際にGCPで実装する方法をまとめていきます。 データリネージとは 業務システムから生成・抽出されるデータをなんらかの処理をして別のシステムへ連携したり、データ分析のために利用したりすることは企業内で日常的に行われています。また、これらデータのライフサイクルは適切に管理されていないと複雑化する傾向にあると思います。データのライフサイクルの複雑化により、利用されていないもしくは重複して保持しているデータが放置され無駄なコストが発生したり、データ品質の低下や機密情報への不適切なアクセスなどのトラブルに繋がることも予想されます。 このような問題に対処する手段の1つとして、データの生成元から利用先までの流れを常に追跡可能な状態に維持することが挙げられます。このデータの生成元から利用先までの流れをデータリネージといいます。 データリネージの

                                            GCPとMarquezで始めるデータリネージ
                                          • インストール無しにWEBブラウザで動作するPython環境"Pyodide"を使ってみた - Qiita

                                            Pyodideとは WebAssembly技術を用いてWEBブラウザ上でPython3を動かすことができる素晴らしいソフトウェアです。WEBブラウザでPyodideを簡単に体験できるサイトが用意されており、これは面白そうだと思いました。 WEBエディタAceとの組みあわせ 本来のPyodideの目的はWEBブラウザ上でのPythonでの科学計算だと思いますので、エディタとしてはIodideのようにグラフ表示の要求優先度が高そうです。 とはいえ、コンソール上で単純にPythonが動くだけでも応用は利きそうだと思いましたので、今回はPythonコードを記述するエディタとしてAceを利用します。 simple版コードは下記のようになります。Aceエディタの領域とPyodide実行ボタンを縦に並べて、JavaScript内で初期化、実行するだけです。実行ログはF12キーで出るブラウザのコンソールを

                                              インストール無しにWEBブラウザで動作するPython環境"Pyodide"を使ってみた - Qiita
                                            • Large Text Compression Benchmark

                                               Large Text Compression Benchmark Matt Mahoney Last update: Mar. 25, 2026. history This competition ranks lossless data compression programs by the compressed size (including the size of the decompression program) of the first 109 bytes of the XML text dump of the English version of Wikipedia on Mar. 3, 2006. About the test data. The goal of this benchmark is not to find the best overall compress

                                              • Amazon S3 Vectorsでマルチモーダルな画像検索をやってみた | DevelopersIO

                                                2024年7月に、AWSからAmazon S3 Vectorsが発表されました。これは、S3という実質的な無限にスケールするストレージサービス上で、ベクトル検索を構築できるサービスです。 ユースケースとして、大量の画像・動画ファイル群に対するセマンティック(類似)検索が挙げられています。 ドキュメントでは、大規模な動画や画像ファイル群に対してベクトル検索でセマンティック(類似)検索するユースケースが挙げられています。 本記事では、そのようなユースケースの小さなデモとして、画像データに対して Amazon Titan Multimodal Embeddings G1モデルを使ってマルチモーダル検索する方法を紹介します。 ベクトルデータベースとしてのAmazon S3 Vectors ベクトル検索は、テキストや画像といったデータをN次元の数値表現(ベクトル)に変換し(埋め込み)、ベクトル同士の

                                                  Amazon S3 Vectorsでマルチモーダルな画像検索をやってみた | DevelopersIO
                                                • Computer-useとBrowser-useとPlaywright-MCPを比較

                                                  ブラウザ操作系のAIエージェントが複数出てきたので、実装方法と動作の振る舞いを比較してみました。 computer-useについて ※紹介するのはAzureから提供されているcomputer-useモデルです。 2025年3月に登場した新しい生成AIモデルで、視覚要素を解釈し、画面上のコンテンツに基づいてアクションを実行するAIエージェントです。 このモデル単体で動くわけではなくて、Response APIを使用します。 ユーザーからの指示とスクリーンショットをcomputer-useに送信することで、取るべき「アクション」を推論し返却してきます。 そのアクションをコード上でPlaywrightを使って実行することで、ブラウザを操作します。 computer-useモデルがアクションまで全てを行うわけではなくて、アクション自体の実行はエンジニアがコードで定義しないといけない点が注意です。

                                                    Computer-useとBrowser-useとPlaywright-MCPを比較
                                                  • 画像の回転などの変換処理が埋め込みベクトルに与える影響を確認してみた | DevelopersIO

                                                    こんちには。 データアナリティクス事業本部 機械学習チームの中村(nokomoro3)です。 今回は小ネタですが、画像の反転や位置の違いが埋め込みベクトルにどの程度影響を与えるのか知りたかったので、本記事で試してみたいと思います。 使用する画像 ネコの画像をいらすとやから拝借しました。 こちらに対して、以下のような変換を加えてみます。 サイズ変更 回転 位置替え モノクロ化 そしてネコ以外の画像も比較のため、以下のイヌの画像も使ってみます。 これらの画像データを Titan Multimodal Embeddings で埋め込みベクトルに変換して、コサイン類似度を比較してみようと思います。 埋め込みモデルについて 使用する埋め込みモデルは以下を用います。 Amazon Titan Multimodal Embeddings G1 model - Amazon Bedrock こちらはテキス

                                                      画像の回転などの変換処理が埋め込みベクトルに与える影響を確認してみた | DevelopersIO
                                                    • Amazon Bedrock AgentCoreのRuntime、Built-in Tools、Gatewayを実装して試してみる - NRIネットコムBlog

                                                      本記事は AWSアワード受賞者祭り 8日目の記事です。 ✨🏆 7日目 ▶▶ 本記事 ▶▶ 9日目 🏆✨ はじめに 1. AgentCore Runtime 主な特徴 ローカルで実行してみる AWSへのデプロイ 2. AgentCore Built-in Tools 主な特徴 ツール単体で実行してみる コード 実行結果 ライブラリの確認 AgentCore Runtimeから使ってみる コード 出力結果 3. AgentCore Gateway 主な特徴 LambdaからGatewayを作成する Lambda関数の作成 コード Gatewayの作成 Strands Agentsから使ってみる コード 実行結果 おわりに はじめに AWS Summit New York City 2025で、Bedrock AgentCoreというサービスが発表されました。 aws.amazon.com

                                                        Amazon Bedrock AgentCoreのRuntime、Built-in Tools、Gatewayを実装して試してみる - NRIネットコムBlog
                                                      • Announcing three new capabilities for the Claude 3.5 model family in Amazon Bedrock | Amazon Web Services

                                                        AWS News Blog Announcing three new capabilities for the Claude 3.5 model family in Amazon Bedrock November 4, 2024: Anthropic’s Claude 3.5 Haiku was announced as “coming soon” when this article originally published. It became available in Amazon Bedrock on Nov. 4. Four months ago, we introduced Anthropic’s Claude 3.5 in Amazon Bedrock, raising the industry bar for AI model intelligence while maint

                                                          Announcing three new capabilities for the Claude 3.5 model family in Amazon Bedrock | Amazon Web Services
                                                        • [新機能]Amazon BedrockでAWSの新しい埋め込みモデル「Titan Multimodal Embeddings G1」が発表されました #AWSreInvent | DevelopersIO

                                                          はじめに 現在開催中のAWS re:Invent 2023。 Amazon Bedrockで新しい埋め込みモデル「Titan Multimodal Embeddings G1」が発表されました! こちらの発表内容について紹介します。 3行まとめ Amazon Bedrockで新しい埋め込みモデルの「Titan Multimodal Embeddings G1」が利用可能になりました 画像検索システム構築などのユースケースに適しているマルチモーダルな埋め込みモデルです テキスト、画像、またはテキストと画像の組み合わせによる埋め込みが可能です 埋め込みモデルとは何か 埋め込みモデルとは自然言語など高次元なデータを低次元なベクトルに変換する際に利用するモデルです。 ベクトルに変換することで、データの特徴を抽出しやすくなります。 例えば、自然言語の場合は単語をベクトルに変換することで、単語の意味を

                                                            [新機能]Amazon BedrockでAWSの新しい埋め込みモデル「Titan Multimodal Embeddings G1」が発表されました #AWSreInvent | DevelopersIO
                                                          • GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI

                                                            ComfyUI-Gemini_Flash_2.0_Exp (⭐+172): A ComfyUI custom node that integrates Google's Gemini Flash 2.0 Experimental model, enabling multimodal analysis of text, images, video frames, and audio directly within ComfyUI workflows. ComfyUI-ACE_Plus (⭐+115): Custom nodes for various visual generation and editing tasks using ACE_Plus FFT Model. ComfyUI-Manager (⭐+113): ComfyUI-Manager itself is also a cu

                                                              GitHub - ComfyUI-Workflow/awesome-comfyui: A collection of awesome custom nodes for ComfyUI
                                                            • Pythonだけでフロントエンド経験ゼロから爆速でGUIアプリケーションを構築する【Flet】 - アダコテック技術ブログ

                                                              こんにちは!AIエンジニア兼バックエンドエンジニア兼プロダクトオーナーを担当している植草です! 突然ですが、皆さんPython使っていますか?画像処理や機械学習を実装する場合、ライブラリが充実しているPythonはサクッと実装できて便利ですよね。Pythonだけで良い感じのGUIを構築できる Flet を紹介します! 3行で FletはPythonでイケてるGUIを手軽に作成できるライブラリだよ Pythonなので、潤沢な機械学習や画像処理のライブラリの恩恵をフルに得られるよ FletとRembgというライブラリを使ってAI(学習済みモデル)を用いた簡単なGUIアプリを作る例を紹介するよ はじめに: Fletとは? flet.dev FletはPythonでGUIを構築できるライブラリです。私が触ったことのあるライブラリは PySimpleGUI Streamlit Flet の3種ですが

                                                                Pythonだけでフロントエンド経験ゼロから爆速でGUIアプリケーションを構築する【Flet】 - アダコテック技術ブログ
                                                              • Amazon Nova Multimodal Embeddings: State-of-the-art embedding model for agentic RAG and semantic search | Amazon Web Services

                                                                AWS News Blog Amazon Nova Multimodal Embeddings: State-of-the-art embedding model for agentic RAG and semantic search December 9, 2025: Updated benchmark table. Today, we’re introducing Amazon Nova Multimodal Embeddings, a state-of-the-art multimodal embedding model for agentic retrieval-augmented generation (RAG) and semantic search applications, available in Amazon Bedrock. It is the first unifi

                                                                  Amazon Nova Multimodal Embeddings: State-of-the-art embedding model for agentic RAG and semantic search | Amazon Web Services
                                                                1