タグ

2024年5月3日のブックマーク (16件)

  • ベランダ掃除、これでいいじゃん。新作「バケツのケルヒャー」が手放せない

    ベランダ掃除、これでいいじゃん。新作「バケツのケルヒャー」が手放せない2024.05.03 14:00288,274 小暮ひさのり 信じられます? これケルヒャーです。 家の掃除って、意外と水が必要な場面が多いですよね。特に戸建ての家だと、サッシやベランダを掃除したいのにホースが届かない! なんてことも。我が家もまさにソレで苦しんでいます。 ジョウロでチョロチョロ流しても、いまいちスッキリしない。ケルヒャーの“高圧洗浄機”も持っていて、実力はもちろん申し分ないのですが、セッティングが面倒くさいしそもそも電源コードとホースが届かない。 なんて、ベストな答えが無くて結局掃除が後回しになっていたのですが、ついに解答を得られました。 Photo: 小暮ひさのりケルヒャーから出た「マルチクリーナー OC 3 FOLDABLE」です。こちら、ざっくり言えば「面倒じゃないケルヒャー」です。 高圧洗浄機の

    ベランダ掃除、これでいいじゃん。新作「バケツのケルヒャー」が手放せない
    shodai
    shodai 2024/05/03
    良さそう
  • Snowflake の Copilot が優秀すぎる件について

    マーケティングテクノロジーの情報やノウハウ・TIPS、エクスチュア社の情報を発信。【ブログネタ募集】ご興味のある分野を教えてください!ご要望の内容を記事に起こします!メニューの「ブログへの」リクエストよりお送りください。 menu こんにちは、喜田です。 いままでSnowflakeのライトユーザーで一部機能だけに特化して触っている状態でしたが、最近はData Superheroes 2024になったこともあり、いままで関わりの薄かった製品領域も調査したり、海外リージョンでしか出ていないプレビューを触ったりしています。 そのうちの一つがCopilotで、いまは北米など一部リージョンでのみパブリックプレビュー中の、Snowflakeコード開発が一段と捗るAIおしゃべり機能です。 この右側のパネルがCopilotとのチャット。出力が多くてチャットっぽくないですが、上から会話が続いております。 C

    Snowflake の Copilot が優秀すぎる件について
    shodai
    shodai 2024/05/03
  • スレッドとプロセスの違いを完全に理解する

    はじめに こんにちは、FarStep です。 プログラミングを学ぶ中で、「プロセス」と「スレッド」という言葉を耳にしたことがある方は多いと思います。 しかし、これらの違いを明確に説明できる自信がない方も多いのではないでしょうか。 記事では、プロセスとスレッドの違いについて、エッセンスを抽出して 解説します。 説明を簡潔にしましたので、記事は 5 分程度で読み終えることができます。 記事の内容を自分の言葉で説明できるようになれば、プロセスとスレッドの違いの理解は十分でしょう。 それでは、始めます 🚀 プログラムとは プロセスとスレッドの違いを理解する前に、まずは「プログラム」について理解しましょう。 プログラムとは、プログラミング言語で書かれた一連の命令 のことです。 プログラミング言語の例としては、以下のようなものがあります。 C 言語 Java Python Ruby JavaS

    スレッドとプロセスの違いを完全に理解する
    shodai
    shodai 2024/05/03
  • iOS・Android の ローカルLLM実行環境まとめ|npaka

    iOS・Android の ローカルLLMの実行環境をまとめました。 1. iOS1-1. Llama.cpp (gguf)「Llama.cpp」の「example/llama.swiftui」で、iOSでggufを実行するプロジェクトが提供されています。モデルはHuggingFaceの「TheBloke」「mmnga」などで数多く提供されています。ただし、メモリ制限のため小サイズのモデルに限られます。 1-2. MLX「mlx-swift-examples」の「LLMEval」に、iOSでMLXを実行するプロジェクトが含まれています。モデルはHuggingFaceの「MLX Community」などで数多く提供されています。ただし、メモリ制限のため小サイズのモデルに限られます。 1-3. TensorFlow Lite (tflite)「MediaPipe」の「LLM Inference

    iOS・Android の ローカルLLM実行環境まとめ|npaka
    shodai
    shodai 2024/05/03
  • Season12/2本目 リゾートバイト / 邦画プレゼン女子高生 邦キチ! 映子さん - 服部昇大 | COMIC OGYAAA!! (コミックオギャー)|おもしろい、がうまれるところ

    邦画プレゼン女子高生 邦キチ! 映子さん 服部昇大 邦画プレゼン界の暴れ馬! 『邦キチ』が限界突破のシーズン 12 で跳躍!!今回も「映画について語る若人の部」を舞台に、尋常ならざる邦画中毒女子高生・邦キチが、まずまずの洋画好きな部長・洋一を相手に絶妙なチョイスの邦画(一部例外アリ)を愚直にプレゼン!プレゼン!!プレゼン!!! その視点、その愛情、その圧力ーー。全てにおいてシーズン 11 を凌駕ッ!! 銀河系初の邦画プレゼン漫画、後続を突き放して疾走中です …!!

    Season12/2本目 リゾートバイト / 邦画プレゼン女子高生 邦キチ! 映子さん - 服部昇大 | COMIC OGYAAA!! (コミックオギャー)|おもしろい、がうまれるところ
    shodai
    shodai 2024/05/03
  • NVIDIAのローカルAI「ChatRTX」、AIモデル追加で画像認識や音声入力が可能に/

    NVIDIAのローカルAI「ChatRTX」、AIモデル追加で画像認識や音声入力が可能に/
    shodai
    shodai 2024/05/03
  • RAGにおいてLLMが「役立たない情報を無視」できるようにする『RAFT』QAタスクで従来の手法を大幅に上回る結果を達成 | AIDB

    背景 LLMは、膨大な量の公開データで学習することにより、幅広い一般知識推論タスクで著しい進歩を遂げてきました。一方で、LLMが特定の分野のタスクに用いられる場合、一般的な知識推論よりも、与えられた文書に対して正確であることが強く求められています。例えば最新のニュースや企業の非公開文書などに適応させることは課題になっています。 LLMを特定分野に適応させる際、検索拡張生成(RAG)を用いたコンテキスト学習と、教師あり微調整(supervised fine-tuning)の2つの手法が主に考えられます。 RAGベースの手法は、LLMが質問に答える際に文書を参照するものです。この手法では、モデルが事前に学習しているわけではありません。外部のナレッジベースから関連情報を取得することで問題解決能力を向上する(比較的リーズナブルな)アプローチです。 教師あり微調整は、文書からより一般的なパターンを学

    RAGにおいてLLMが「役立たない情報を無視」できるようにする『RAFT』QAタスクで従来の手法を大幅に上回る結果を達成 | AIDB
    shodai
    shodai 2024/05/03
  • whisper.cppがいつのまにかmacOS用文字起こしの決定版になっていた

    whisper.cppの進化が止まらない OpenAIWhisperオープンソース公開は文字起こし界隈に衝撃を与えました whisper.cppはWhisperのリリース後早い段階で公開された派生物で、非GPU環境においてそれなりのメモリ消費量・速度で動作する特徴がありましたが、そのリリースから1年のうちに実はwhisper.cppはかなりのスピードで進化しており当時とはもはや別物になっています とくにApple Silicon Mac / macOS上での動作速度がこの1年間で大きく向上しました 現代のコンピューター上でTransformer系のような大規模計算をする場合、CPUによる汎用演算にとどまらず搭載された各種アクセラレータをいかに使い倒せるかが重要で、whisper.cppはその名前からCPU側へ偏った実装という印象を(なぜか)受けますが ArmのNEONやIntelのA

    whisper.cppがいつのまにかmacOS用文字起こしの決定版になっていた
    shodai
    shodai 2024/05/03
    “whisper.cppの出始めの頃はM1 Macだとギリギリsmallモデルをリアルタイム処理できるぐらいでしたがv1.5.1時点では内蔵GPUを効果的に利用できてlargeモデルすら余裕を持ってリアルタイム処理できます”
  • MLX で Llama2 を動かしてみる

    Appleシリコン上での実行に対応した機械学習ライブラリMLXが公開されました。 今回は公式が公開している"mlx-examples"リポジトリの"llama"を使って、llama2-7b-chatの実行を試してみます。 commit: 3cf436b529ea58d6c0c0a29c0dd799908cd4497d 2023/12/22 検証環境 MacBook Pro Apple M3 Pro メモリ 36GB 公式要件としては、以下の環境が示されています。以下要件を満たしていてもメモリが少ない場合、実行するモデルによっては推論ができない可能性があります。 Using an M series chip (Apple silicon) Using a native Python >= 3.8 macOS >= 13.3 環境構築 まず"mlx-examples"のリポジトリをローカルにク

    MLX で Llama2 を動かしてみる
  • openai/whisper-large-v3 · Translating English Audio Into Spanish Text

    shodai
    shodai 2024/05/03
    “Whisper は音声認識 (X の音声 -> X のテキスト) と英語への音声翻訳 (X の音声 -> En のテキスト) についてトレーニングされました。 また、これを「だまして」、より一般的な” 精度は低いってことか [リアルタイム翻訳]
  • OpenAIがリリースした音声認識モデル”Whisper”の使い方をまとめてみた | DevelopersIO

    こんちには。 データアナリティクス事業機械学習チームの中村です。 OpenAIがリリースしたWhisperについて、先日は以下の紹介記事を書きました。 今回はもう少し深堀することで、様々な使い方がわかってきたのでシェアしたいと思います。 Whisperでできること APIを使ってできるのは以下になります。 transcribe(書き起こし処理) 音声からの文字書き起こし。 99言語に対応 translate(書き起こし + 翻訳) 音声からの翻訳処理。 入力は多言語に対応していますが、出力は英語のみ。 また内包される機能として、言語判定や有音無音判定(VAD:Voice Activation Detector)があります。 この記事ではそれぞれの使い方を見ていきながら、transcribeの詳細に迫ります。 実行環境 ハードウェアなどの主な情報は以下の通りです。 GPU: Tesla

    OpenAIがリリースした音声認識モデル”Whisper”の使い方をまとめてみた | DevelopersIO
    shodai
    shodai 2024/05/03
    “translate(書き起こし + 翻訳) 音声からの翻訳処理。 入力は多言語に対応していますが、出力は英語のみ。” 日本語出力出来ないのか。残念 [リアルタイム翻訳]
  • ローカルAI完全ガイド:Metaの最新生成AI「Llama 3」をMac Book Airで快適に使う

    Meta(Facebook)が開発・公開しているオープンソースの生成AIモデル「Llama」シリーズに、新たな「Llama 3」が2024年4月19日に公開された。 Llamaは、OpenAIのGPT-4や、AnthropicのClaude 3などと異なり、モデルが一般に公開されており、誰でもモデルをダウンロードして、自分のPC/Macなどで、例えインターネットに接続されていなくても利用することが可能だ。 今回リリースされたLlama 3は、8B(80億)パラーメータ、70B(700億パラメータ)の2種類だ。 大型の70Bモデルは、いくつかのベンチマークによれば、OpenAIの最上位モデルであるGPT-4 Turboや、AnthropicのClaude 3の最上位モデルであるOpusには及ばないものの、GPT-3.5やClaude 3 Sonnet、Gemini 1.5 Proよりも優れた

    ローカルAI完全ガイド:Metaの最新生成AI「Llama 3」をMac Book Airで快適に使う
  • MLX で Llama 3 を試す|npaka

    「MLX」で「Llama 3」を試したので、まとめました。 1. Llama 3「Llama 3」は、Metaが開発したオープンモデルです。 2. 推論の実行「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。 推論の実行手順は、次のとおりです。 (1) Pythonの仮想環境の準備。 今回は、「Python 3.10」の仮想環境を準備しました。 (2) パッケージのインストールと実行。 今回は「mlx-community/Meta-Llama-3-8B-Instruct-4bit」のモデルを利用します。 pip install mlx-lm mlx_lm.generate --model mlx-community/Meta-Llama-3-8B-Instruct-4bit -

    MLX で Llama 3 を試す|npaka
    shodai
    shodai 2024/05/03
    “「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。”[リアルタイム翻訳]
  • WhisperにおけるPrompt Engineering

    音声認識を行うAIモデルであるWhisperも言語モデルを使用しているためPrompt Enginneringを適用することが可能です。記事では、Whisperに対してPrompt Enginneringを適用することで、未知語の認識精度を向上させる方法を解説します。 Whisperの概要WhisperChatGPTを開発したOpenAIの開発した音声認識モデルです。Whisperは、入力された音声を特徴ベクトルに変換し、特徴ベクトルを元にテキストを言語モデルで1文字ずつ生成します。 近年、ChatGPTの登場によってPrompt Engineeringが注目されていますが、Whisperも言語モデルを使用しているため、Prompt Enginneringを適用可能です。 WhisperにおけるPrompt EnginneringWhisperにはpromptとprefixという概念が

    WhisperにおけるPrompt Engineering
    shodai
    shodai 2024/05/03
    “promptの有用な使用方法として、人名や専門用語をpromptとして与えることで、人名や専門用語の認識精度を向上させることが可能です。”
  • whisper.cppのCore ML版をM1 MacBook Proで動かす

    OpenAI音声認識モデルであるWhisperの高速推論版であるwhisper.cppが、いつのまにか [1] Core ML対応していた。 Core ML対応したということは、macOS/iOSデバイス(Mac, iPhone, etc...)に搭載されているNeural Engine、GPUを利用して推論処理を行うようになった、ということを意味する。[2] さっそくREADMEの手順をなぞりつつ手元のMBPで動かしてみたメモ。 なお、実行環境は以下の通り: MacBook Pro M1 Max 64GB macOS Ventura 13.3.1 Core MLモデルの生成手順 依存パッケージのインストール whisper.cppのCore MLモデルの作成に必要なパッケージをインストールする。

    whisper.cppのCore ML版をM1 MacBook Proで動かす
  • GitHub - takatronix/faster_whisper_server