並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 11 件 / 11件

新着順 人気順

blipの検索結果1 - 11 件 / 11件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

blipに関するエントリは11件あります。 ネットワークInternet開発 などが関連タグです。 人気エントリには 『オンラインゲームやウェブ会議で重視すべきネット接続のレイテンシやパケロスをサクッと可視化できる無料ツール「Blip」』などがあります。
  • オンラインゲームやウェブ会議で重視すべきネット接続のレイテンシやパケロスをサクッと可視化できる無料ツール「Blip」

    オンラインゲームやオンライン会議を快適に行うには、ネットワーク速度だけでなくレイテンシやパケットロスの少なさも重要です。無料のウェブアプリ「Blip」は、PCやスマートフォンからアクセスするだけでレイテンシやパケロスを可視化してくれるとのこと。ネットワーク環境の検証の他に、Wi-Fi強度の弱いエリアの探索にも便利そうだったので、実際に使ってみました。 Blip http://gfblip.appspot.com/ Blipにアクセスすると、以下のように画面上に緑や青の点が次々と表示されます。緑の点はGoogleが提供するCDNサービス(gstatic.com)の応答時間、青色の点はBlipの開発者であるapenwarr氏のウェブサイト(apenwarr.ca)の応答時間を示しています。以下の図の場合、gstatic.comは10ミリ秒前後で応答していことが分かります。 GIGAZINE編集

      オンラインゲームやウェブ会議で重視すべきネット接続のレイテンシやパケロスをサクッと可視化できる無料ツール「Blip」
    • GitHub - apenwarr/blip: A tool for seeing your Internet latency. Try it at http://gfblip.appspot.com/

      Go to http://gfblip.appspot.com/ It should work on any PC, laptop, tablet, phone, or iPod with javascript and HTML canvas support (which means almost everything nowadays). X axis is time. Y axis is milliseconds of latency. Green blips are your ping time to gstatic.com (a very fast site that should be close to you wherever you are). Blue blips are your ping time to apenwarr.ca ("a site on the Inter

        GitHub - apenwarr/blip: A tool for seeing your Internet latency. Try it at http://gfblip.appspot.com/
      • 画像を分析してキャプションを自動で生成してくれるオープンソースで商用利用も可能なAIモデル「BLIP-2」をReplicate上で使ってみた

        AIモデルを誰でも簡単にデプロイできるサイト「Replicate」にて、画像を分析してキャプションを生成するAIモデルのBLIP-2が簡単に利用できるとのことなので、実際にいくつかの画像を元にキャプションを生成させてみました。 LAVIS/projects/blip2 at main · salesforce/LAVIS https://github.com/salesforce/LAVIS/tree/main/projects/blip2 andreasjansson/blip-2 – Run with an API on Replicate https://replicate.com/andreasjansson/blip-2 まずReplicateのサイトにアクセスし、右上にある「Sign in」をクリックします。 ReplicateにログインするにはGitHubのアカウントが必要と

          画像を分析してキャプションを自動で生成してくれるオープンソースで商用利用も可能なAIモデル「BLIP-2」をReplicate上で使ってみた
        • 日本語Vision Languageモデル heron-blip-v1の公開

          はじめに Turingでは完全自動運転実現に向けて、LLMやそれを用いたVision Langauge(V&L)モデルの開発に取り組んでいます。最近は経済産業省/NEDOの「競争力のある生成AI基盤モデルの開発を支援する「GENIACプロジェクト」」にも採択されるなど、大規模な生成AIの開発に精力的に取り組んでいます。 特に、Vision Languageモデルについては、Heronというライブラリとモデル群を公開しており、今回は新しいモデルとその学習レシピを公開します。また、日本語のV&LモデルをGPT-4を用いて評価するためのプログラムも公開します。 Heronとは V&Lモデルは、画像を認識する「ビジョンエンコーダ」、文章を生成する「LLM」、それら2つをつなぐ「アダプタ」から構成されます。heronのコードを用いることで、これらの様々な組み合わせのオリジナルV&Lモデルを作成するこ

            日本語Vision Languageモデル heron-blip-v1の公開
          • Japanese MiniGPT-4: rinna 3.6bとBLIP-2を組み合わせてマルチモーダルチャットのモデルを作る

            はじめに LLMの応用先の一つに,テキストに加えて画像や音声といった複数のモーダルの入出力を行うマルチモーダル情報処理があります.例えば,2023年3月に発表されたGPT-4の論文では,テキストと画像から構成されるプロンプトを入力することで,画像の内容に関して高度な対話を実現できることが報告されています.GPT-4のように,テキスト以外の情報を考慮して対話を行うタスクはマルチモーダルチャットと呼ばれています. マルチモーダルチャットを実現する方法として,テキストの情報のみで事前学習されたLLMを改良し,マルチモーダル情報を扱えるようにする手法が多数提案されています.例えば,テキストと画像を入力可能なタスクであれば,画像データで学習された画像のエンコーダとなるモデルをLLMに接続することで,画像とテキストを同じ枠組みで処理する手法(BLIP-2やMiniGPT-4)が提案されています. 今回

              Japanese MiniGPT-4: rinna 3.6bとBLIP-2を組み合わせてマルチモーダルチャットのモデルを作る
            • 論文まとめ:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large

              タイトル:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models 著者:Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi(Saleforce Research) 論文URL:https://arxiv.org/abs/2301.12597 コード:https://github.com/salesforce/LAVIS/tree/main/projects/blip2 HuggingFace:https://huggingface.co/spaces/taesiri/BLIP-2 ざっくりいうと 視覚言語(V&L)モデルにおいて、事前学習コストを減らしつつ精度を出すための研究 事前訓練済みの画像

                論文まとめ:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large
              • Blip

                What's this? DNS

                • 🤗15行のPythonでBLIPによる画像キャプション生成🤗

                  # 依存関係セットアップ !pip install transformers # モデルの読み込み from transformers import BlipProcessor, BlipForConditionalGeneration processor = BlipProcessor.from_pretrained("Salesforce/blip-image-captioning-large") model = BlipForConditionalGeneration.from_pretrained("Salesforce/blip-image-captioning-large") # 画像キャプション生成する関数の定義 from PIL import Image import requests def generate_caption(image_url): raw_image =

                    🤗15行のPythonでBLIPによる画像キャプション生成🤗
                  • CoCaとBLIP2を使ってみた:ImageNet、キャプション生成 | Shikoan's ML Blog

                    CoCaはCLIPの拡張形で、Text-EncoderとImage-Encoderによるクロスモダリティな学習のあとに、Text-Decoderを突っ込んだものです。CLIPが右から2番目のDual-Encoder Modelです。お気持ちとしては、「Dual-Encoderでできなかったキャプション生成もできるし、Text-Decoderを入れたほうが表現の学習能力も高いよ」ということです。 OpenCLIPのフレームワークに含まれているので、実際の使い方はCLIPと同じです。 ImageNet1Kのゼロショットの性能を調べる 実験として、ImageNet1KのValidaitionデータに対するゼロショット性能を見てみましょう。 カレントディレクトリ以下に、以下のようなフォルダ構成でImageNetのValidaitionデータが入っているとします。 val n01440764 ILS

                      CoCaとBLIP2を使ってみた:ImageNet、キャプション生成 | Shikoan's ML Blog
                    • Google Colab で BLIP-2 による画像をお題にした人工知能との会話を試す|npaka

                      「Google Colab」で「BLIP-2」による画像をお題にした人工知能との会話を試したのでまとめました。 【注意】「BLIP-2」を動作させるには、「Google Colab Pro/Pro+」のプレミアム (A100 40GB) が必要です。 1. BLIP-2「BLIP-2」は、VisionモデルおよびVision大規模言語モデルの事前学習モデルを作成する手法です。Zero-Shotで画像からテキストを生成する新しい能力を解放します。これによって、画像をお題にした人工知能との会話も可能になります。 2. セットアップGoogle Colabでのセットアップの手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」の「プレミアム」を選択。 (2) パッケージのインストール。 # パッケージのインストール impor

                        Google Colab で BLIP-2 による画像をお題にした人工知能との会話を試す|npaka
                      • GitHub - pharmapsychotic/clip-interrogator: Image to prompt with BLIP and CLIP

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                          GitHub - pharmapsychotic/clip-interrogator: Image to prompt with BLIP and CLIP
                        1

                        新着記事