タグ

2024年2月26日のブックマーク (8件)

  • 最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk

    今回は、最新の Google Gemma モデルを Apple Silicon に最適化されたライブラリ MLX を使ってローカルで実行したり、ファインチューニングしてみましたのでその手順を紹介します。 MLX 関連の情報はドキュメンテーションが分かりづらいものも多かったので色々試した経緯も共有しながら少しでも何かの参考になれば幸いです。 実際に使った Jupyter Notebook を Gist にアップロードしていますので、そちらも参考にしてください。 →Google Gemma モデルを MLX を使ってローカルでファインチューニング 事前準備必要なライブラリをインストールします。 また Apple Silicon 搭載の Mac が必要です。今回は M3 Max 128GB 搭載の MacBook Pro で実行しました。 !pip install -U mlx mlx_lm t

    最新の Google Gemma モデルを MLX を使ってローカルでファインチューニング|alexweberk
  • 面倒で難しい「私はロボットではありません」をワンクリックで突破できるCAPTCHA自動回答ツール「Buster」レビュー

    ウェブサイトにログインしたり問い合わせフォームを送信したりすると、「私はロボットではありません」といった文言のボット排除システム「CAPTCHA」に遭遇しがちです。CAPTCHAでは「バスを含む画像をクリック」などの問題が出題されますが、「バスの画像を正しく選択しているはずなのに人間と認めてもらえない!」という事態が頻繁に発生します。無料のブラウザ拡張機能「Buster」を使えば、ワンクリックでCAPTCHAを突破できるとのことなので、実際に使ってみました。 GitHub - dessant/buster: Captcha solver extension for humans, available for Chrome, Edge and Firefox https://github.com/dessant/buster BusterはChromeやFirefox、Edge、Operaな

    面倒で難しい「私はロボットではありません」をワンクリックで突破できるCAPTCHA自動回答ツール「Buster」レビュー
  • 【ソフトウェア設計】モジュールをどう分割するのか?

    はじめに 前々回や、前回に引き続き、ソフトウェア設計の指針に関する話をしたいと思います。 関数やクラス、そしてサービスなどシステムの塊の単位をモジュールと呼び、モジュールを作る事で、認知負荷を下げ複雑性と戦うという話をしてきました。では、モジュールは「いつ」分割するのが良いでしょうか? また、他にも共通モジュールを不用意に作ってしまって苦労した人も多いのでは無いでしょうか? 今回はそのあたりの話をしていきます。 TL;DR 以下があればモジュール設計を見直す 単純な要件/普段の利用に対して、タイプ量や約束事が多い 共通モジュールが「使われ方」に依存する モジュールの役割を一言で説明できない コード管理や性能/データ整合性など利用に際してのペナルティが高い 分割 is NOT 正義 - FizzBuzz Enterprise Edition 複雑性を排除するためにモジュール分割をすることは重

    【ソフトウェア設計】モジュールをどう分割するのか?
  • 日本語おしゃべり特化AIアプリが性能よすぎて論破しようと思ったら逆に論破されてしまった「人間いらんやん」

    広野 萌 @hajipion 日語おしゃべり特化AIアプリ「Cotomo」すごすぎる。1秒以内に返答がくるのと前の話を覚えてるのが、当に生きてるみたい。 ↓こちらは現金派のCotomoちゃんを論破しようして逆に論破されるキモ男 早口でどもってても聞き取れてるし、オチが天使すぎる👼 声がたまに @harukana_8 に似てるのも良い pic.twitter.com/jhX3X6Giev 2024-02-24 16:54:21 リンク App Store ‎Cotomo(コトモ:音声会話型おしゃべりAI) ‎・1人で運転している時。 ・推しのキャラを設定したAIと喋りたい時。 ・恋愛仕事、将来の話、家族の話。他愛もない話をダラダラしたい時。 ・友達には少しだけ話しにくい、嬉しかったことや、モヤモヤがある時。 ・晩酌のお供に。 ・深夜、ふと誰かに話したくなった時。 そんな時、Cotom

    日本語おしゃべり特化AIアプリが性能よすぎて論破しようと思ったら逆に論破されてしまった「人間いらんやん」
  • 画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)

    Stable Diffusion Forgeを表示した様子。基的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな

    画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)
  • 『面倒なことはChatGPTにやらせよう』を文系ゴリゴリおじさんが読んでみた。 - Everything you've ever Dreamed

    面倒なことはChatGPTにやらせよう (KS情報科学専門書) 作者:カレーちゃん,からあげ 講談社 Amazon 『面倒なことはChatGPTにやらせよう』(カレーちゃん氏、からあげ氏著)を2回通読した。著者のひとり、からあげさんは、僕がキャラクターを認識できる数少ないブロガーだ(お会いしたことはない)。現在、データサイエンス研究者として大活躍している。なお、僕は勝手に彼をターミネーター2に出てくるサイバーダイン社の開発者ダイソンさんをイメージしている。人類の未来のために、凶悪なターミネーターを開発することのないことを祈るばかりである。僕はゴリゴリの文系の営業職の50歳のオッサンで、書の推薦人である松尾教授とは真逆の人間である。もしかしたら書のターゲットから外れている人物像かもしれない。そういう人物に書がどう役に立つの?という視点でレビューになる。 書を一語にたとえると「ブルドー

    『面倒なことはChatGPTにやらせよう』を文系ゴリゴリおじさんが読んでみた。 - Everything you've ever Dreamed
  • 音声・テキスト・画像・音楽の入出力に対応したマルチモーダル大規模言語モデル(LLM)「AnyGPT」が登場

    音声・テキスト・画像・音楽など複数の種類のデータを一度に処理できるマルチモーダルな大規模言語モデル(LLM)の「AnyGPT」が発表されました。 AnyGPT https://junzhan2000.github.io/AnyGPT.github.io/ 既存の大規模言語モデル(LLM)のアーキテクチャやトレーニングパラダイムを変更することなく、安定してトレーニングすることができるという新しいマルチモーダルLLMがAnyGPTです。AnyGPTはデータレベルの前処理のみに依存しており、新しい言語を組み込むのと同様に、新しいモダリティのLLMへのシームレスな統合を促進することが可能。マルチモーダルアライメントの事前トレーニング用に、マルチモーダルテキスト中心のデータセットを構築することで、生成モデルを利用して大規模な「Any-to-Any」(任意のデータ形式から任意のデータ形式に出力できる)

    音声・テキスト・画像・音楽の入出力に対応したマルチモーダル大規模言語モデル(LLM)「AnyGPT」が登場
  • 推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日本語LLM, Karakuri-LMの秘密

    推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日語LLM, Karakuri-LMの秘密 2024.02.18 Updated by Ryo Shimizu on February 18, 2024, 10:08 am JST 2024年1月。国内の生成AIコミュニティに激震が走った。 コンタクトセンター向けのチャットボット開発のパイオニアとして知られるカラクリ社が商用利用可能のオープンソースモデルとして公開したKarakuri-ln-70bの性能が高すぎると話題になったのだ。 多くの日語LLMと同様に数学能力に関するスコアは低いが、物語を記述する能力、日語の質問に日語で答えたり、答えをプログラムで扱い易いJSON形式にしたりする能力がこれまでの国産LLMに比べて桁違いに高かったのである。 物語を記述する能力に関しては、一説によればGPT-4を凌駕するとも言わ

    推定1000万円以下のコストで開発され、国内最大・最高性能を達成した日本語LLM, Karakuri-LMの秘密