タグ

cohamaのブックマーク (883)

  • LLMで学習不要のレコメンドエンジンを実現

    導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 記事では、LLMを使用したレコメンドエンジン作成のフレームワークについて、簡潔に解説していきます。 サマリー LLMを使用したレコメンドエンジン作成のフレームワーク(以降、「提案されたレコメンドエンジン」)は、Amazonの研究チームによって発表された論文で提唱されました。 このレコメンドエンジンの特徴は、ファインチューニングを利用していないLLMとユーザーの行動(商品のクリックなど)情報を元に、レコメンドの性能を継続的に改善できる点です。ユーザーの行動をもとに、LLMにより関連性の高い商品を推測させることでレコメンドの性能を上げています。 より詳細な解説は以下の記事、もしくは論文を参照してください。

    LLMで学習不要のレコメンドエンジンを実現
    cohama
    cohama 2024/07/03
  • 「中間管理職の限界」と「マネジメント民主化モデル」について|Momentor坂井風太

    中間管理職は限界なのか?記事は、日2024年7月1日21:00にNewsPickで放映される【2Sides:中間管理職は不要か?】という番組に関連した記事となります。 動画については、『罰ゲーム化する管理職』など、数々の名著を生み出していらっしゃる、パーソル総合研究所の小林祐児さんとMCの加藤浩次さんとのセッションであり、最終的には明るい内容でまとまっています。 記事については、動画で提唱している「マネジメント民主化モデル」について解説しつつ、坂井の会社でエンジニア採用を開始することに伴い、「なぜ坂井が事業をやっているのか?」についても触れていきたいと考えています。(※採用情報は末尾となります) 形骸化する管理職研修昨今、小林祐児さんの『罰ゲーム化する管理職』に代表されるように、「管理職の過剰負荷問題」が騒がれるようになりました。 実際に、坂井も企業のマネジメント基盤の支援をする

    「中間管理職の限界」と「マネジメント民主化モデル」について|Momentor坂井風太
    cohama
    cohama 2024/07/03
  • ターミナルで画像を表示する Sixel Graphics について

    はじめに エンジニアの皆さんの中には、一日のほとんどをターミナルに引きこもって暮らしている方も多いのではないでしょうか? 多くの作業においてターミナルを中心に行うようにすることで、日常作業のほとんどの操作をキーボードで完結することができ、また工夫次第でスクリプティングによって自動化できる範囲も広がるので慣れるととても快適です。 一方、どうしても文字ベースの入出力を中心に発展してきたターミナルは画像の扱いが弱点になります。それでも実は、一部のターミナルでは画像を表示できることはご存じでしょうか? 例えば、libsixel (homebrew) を使うと、img2sixel というコマンドを用いてターミナル中にインラインで画像表示を行うことができます。 img2sixel による画像表示の例 単発の画像表示だけだとなかなか使いどころが限られてしまいますが、工夫次第では画像版 ls ともいえる

    ターミナルで画像を表示する Sixel Graphics について
    cohama
    cohama 2024/07/02
  • 第3世代の自動運転@CVPR2024

    はじめに Turing 生成AIチームの佐々木 (kento_sasaki1)です。生成AIチームでは、完全自動運転の実現に向けてマルチモーダル基盤モデルの開発に取り組んでいます。 先日、6月17日から6月21日にシアトルで開催されたコンピュータビジョン・機械学習系のトップカンファレンスCVPR 2024に参加し、Vision Language Model (VLM)のワークショップThe 3rd Workshop on Computer Vision in the Wildにて日語VLM評価ベンチマークHeron-Benchの発表を行いました。 Heron-Benchについては、以前テックブログを公開していますのでぜひご覧ください。 CVPR 2024では、End-to-Endの自動運転やLLM (Large Language Model), VLM (Vision Language

    第3世代の自動運転@CVPR2024
    cohama
    cohama 2024/07/02
  • 大規模言語モデル (LLM) の技術と最新動向

    マルチメディア,分散,協調とモバイル(DICOMO2024)シンポジウムでの招待講演の資料です。 https://dicomo.org/

    大規模言語モデル (LLM) の技術と最新動向
    cohama
    cohama 2024/06/29
  • [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜

    この記事は "What We’ve Learned From A Year of Building with LLMs" という記事を著者の一人である Eugene Yan さんから許可を得て翻訳したものです。 https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article! 著者の方々 Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar 原文の公開日 2024/6/8 今は大規模言語モデル(LLM)を使った開発がとってもエキサイティングな時期です。この1年間で、LLMは実世界のアプリケーションに対して「十分に良い」ものになりました。そして、年々良くなり、安く

    [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
    cohama
    cohama 2024/06/25
  • DeepSpeedはなぜ速いのか〜推論編〜

    はじめに 昨今、ChatGPTに代表されるように、LLM(大規模言語モデル)が大きな盛り上がりを見せています。 記事では、LLMの学習や推論を高速化するためのライブラリであるDeepSpeedが、どのようにしてその高速化を達成しているのかを解説します。 DeepSpeedの理論部分、特に推論について日語で解説している記事があまりなかったため、今回執筆することにしました。 この記事を読んで欲しい人 DeepSpeedでなぜ推論が速くなるのかを知りたい人 DeepSpeedを使って手元の推論時間を短縮したい人 DeepSpeedとは DeepSpeedは、Microsoftから発表されている学習や推論の高速化、圧縮などを扱うライブラリです。記事では、特に推論の高速化について解説します。推論高速化のためのサービスとしては、他にもvLLMやTGI、Together Inference Eng

    DeepSpeedはなぜ速いのか〜推論編〜
    cohama
    cohama 2024/06/24
  • SSII2024 [OS2] 大規模言語モデルとVision & Languageのこれから

    1. RefEgo: Referring Expression Comprehension Dataset from First-Person Perception of Ego4D, Shuhei Kurita, Naoki Katsura, Eri Onami, (ICCV2023). 2. ScanQA: 3D Question Answering, Daichi Azuma(*), Taiki Miyanishi(*), Shuhei Kurita(*) and Motoaki Kawanabe. (CVPR2022). (*): eq. cont. 3. Generative Language-Grounded Policy in Vision-and-Language Navigation with Bayes’ Rule, Shuhei Kurita and Kyunghyu

    SSII2024 [OS2] 大規模言語モデルとVision & Languageのこれから
    cohama
    cohama 2024/06/14
  • ご奉仕チキンレースで均衡する出世水準 - やしお

    出世する、より上位の管理職に上がって行くというのは、マネジャーとしての力量や適正も必要だけれど、「どこまで奉仕できるか(どこで降りるか)」によるところが大きいのだろう。その奉仕水準でどこまで行くか/どの辺で止まるか均衡するのだと、会社で仕事をしながらつくづく感じるこのごろ。 ポジション上昇の基路線 新人→中堅社員→係長→課長→部長→……とポジションが上がるに従って、受け取る仕事の粒度が大きくなってくる。 重要度や影響度から正確にリスクを抽出して優先順位を決められる。 大きな仕事を適切に分割して相互関係を理解できる。 期日から逆算して分割した仕事にマイルストーンを割り当てられる。 情報を整理して他者に状況を正確に説明できる。 自分にない力量を持つ他者・他部門に割り振れる。アウトソースできる。 といった管理能力がより高度に必要になってくる。 逆に言えば、こうした技術・能力が高い人をより高いポ

    ご奉仕チキンレースで均衡する出世水準 - やしお
    cohama
    cohama 2024/06/14
  • Yosuke Shinya on X: "物体検出の技術マップ作成を担当しました! #SSII2024 https://t.co/UR0k9M7t3h"

    cohama
    cohama 2024/06/13
  • GoCLIツール職人のためのRust入門

    三連休中にこんなツールを作った。 普段はGoでCLIツールを書いているけど、このツールで初めてRust格的に使ったのでその際に得た知見を元にGoでCLIを作っている人向けにとりあえずRustでツールが作れる状態になれることを目指して、CLIツールを作るときによく使っている処理やRustならではの構文などを中心に書いてみた。 この記事を通して「なぁ~んだ。案外Rustでもサクッとツール作れそうじゃん」とか「Rustにも意外とツール向けのライブラリとかあるんだなぁ」とか思って貰えると嬉しい限り。

    GoCLIツール職人のためのRust入門
    cohama
    cohama 2024/06/13
  • ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG

    こんにちは。検索基盤部の橘です。ZOZOTOWNでは、商品検索エンジンとしてElasticsearchを利用し、大規模なデータに対して高速な全文検索を実現しています。 Elasticsearchに関する取り組みは以下の記事をご覧ください。 techblog.zozo.com 検索基盤部では、ZOZOTOWNの検索結果の品質向上を目指し、新しい検索手法の導入を検討しています。記事ではベクトル検索と呼ばれる検索手法に関して得た知見を紹介します。 ※記事はElasticsearchバージョン8.9に関する内容となっています。 目次 目次 ベクトル検索とは ベクトル検索に期待すること Elasticsearchを使用したベクトル検索の導入 導入の簡略化 デプロイ可能な埋め込みモデル ベクトル検索のクエリ ハイブリッド検索とは Elasticsearchを用いたハイブリッド検索 RRF(Reci

    ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG
    cohama
    cohama 2024/06/12
  • 大規模言語モデルの基礎 - Qiita

    1. はじめに 記事では、昨今話題になっている大規模言語モデルの基礎的な内容として、モデルの内部構造や学習の手続き、その応用について紹介します。 2. 大規模言語モデルとは 大規模言語モデル(LLM: Large Language Model)は、機械学習の枠組みで日語や英語などの言語を数理的に取り扱う生成モデルの一種です。言語を統計的に取り扱う言語モデルの登場は1990年にまで遡り、その後2000年代のニューラル言語モデルや、2017年のTransformerに端を発する学習済言語モデルの登場など、数多くの発展を遂げてきました。この流れの中で、2022年にOpenAIから発表されたChatGPTGPT-3.5)は、あたかも人間と会話しているかのような流暢な言語の生成ができることで話題になりました。その後、GPT-4(OpenAI)、PaLM2(Google)、LLaMA2(Meta

    大規模言語モデルの基礎 - Qiita
    cohama
    cohama 2024/06/07
  • 深層生成モデルによるテーブルデータ生成と仮想人体生成モデルへの応用

    バイオインフォマティクスやヘルスケア分野では、テーブルとして表現されるデータを解析する場面が多く現れる。その中でも、テーブルデータ生成は、一塩基多型の補完、遺伝子発現量のノイズ除去、二次利用可能なヘルスケアデータの作成など幅広い応用分野を持つ。稿では、深層学習技術を用いたテーブルデータ生成の手法とその応用を解説する。まず、テーブルデータ生成の応用例として、欠損値補完、ノイズ除去、合成テーブルデータの生成を挙げ、手法と適用例を紹介する。次に、深層生成モデルの1つである変分オートエンコーダを用いた欠損値補完について、2通りのアプローチ(再構成、マスクモデリング)を解説する。また、多様な項目を持つテーブルを扱えるように変分オートエンコーダを改良したモデルであるHI-VAEも紹介する。最後に、深層生成モデルを用いた欠損値補完の事例として、我々が取り組んでいる仮想人体生成モデルを解説する。 テーブ

    cohama
    cohama 2024/06/07
  • 自然言語とVision&Language

    東京大学大学院の2024年度講義「知能情報論」で使用した資料です. Vision&Language関連の研究について,深層学習初期から大規模モデルにいたるまでを概観しています. なお,資料作成時期は2024年5月下旬であり,内容はその時点で発表されていた研究等に基づいています.

    自然言語とVision&Language
    cohama
    cohama 2024/06/06
  • エレガントパズル エンジニアのマネジメントという難問にあなたはどう立ち向かうのか / Elegant Puzzle

    https://forkwell.connpass.com/event/319444/ の登壇資料です。

    エレガントパズル エンジニアのマネジメントという難問にあなたはどう立ち向かうのか / Elegant Puzzle
    cohama
    cohama 2024/06/06
  • Bardのようなimage2textAIを構築して動画検索システムを作る

    Turing株式会社の自動運転MLチームでインターンをしている東大B4の中村です。 突然ですが、web検索のように簡単に、ストレージ内に保存されている、日時以外のメタ情報のない動画が検索出来るようになったら幸せになれると思いませんか? 例えば「赤信号で車が停止している」という検索クエリに対して、実際に赤信号で停止している動画が返ってきたら、簡単にそれを信号検知+停止のモデル学習に使えるようになります。 今回私が開発した動画検索システムはこれをAIの力を借りて実現しました。これにより、格段に動画検索の利便性が増し、より多様な動画を簡単に使用できるようになりました。今回はそのシステムについて紹介します。 ワンパンで動画を探せると嬉しい 課題 Turingでは、走行パートナーの方々と共に大量の走行データを収集してきました。車両にカメラ・データ収集キットを載せて、文字通り毎日朝から晩までデータを取

    Bardのようなimage2textAIを構築して動画検索システムを作る
    cohama
    cohama 2024/06/04
  • 統計学で用いる行列演算の小技 - Qiita

    はじめに 千葉大学・株式会社Nospareの川久保です.今回は,統計学(特に多変量解析)で多く出てくる行列演算の小技集を,線形回帰モデルにおける簡単な実用例を交えて紹介します. 転置に関する公式 行列の転置とは,$(i,j)$要素を$(j,i)$要素に入れ替えることです.$m$行$n$列の行列$A$の$(i,j)$要素を$a_{ij} \ (i=1,\dots,m; j=1,\dots,n)$とすると,$A$を転置した$n$行$m$列の行列$A^\top$の$(j,i)$要素が$a_{ij}$となります.また,自明ですが,転置行列の転置は元の行列になります.すなわち,$(A^\top)^\top = A$です. 行列の和の転置 行列$A$と$B$の和の転置は,転置行列の和です.つまり, が成り立ちます. 行列の積の転置 次に,行列$A$と$B$の積$AB$の転置としては,以下の公式が成り立

    統計学で用いる行列演算の小技 - Qiita
    cohama
    cohama 2024/05/25
  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAI命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    cohama
    cohama 2024/05/21
  • Chat VectorでLLaVAを日本語対応させる

    import torch from transformers import AutoTokenizer, AutoModelForCausalLM from llava.model.builder import load_pretrained_model if __name__ == "__main__": vlm_model_name = "liuhaotian/llava-v1.5-7b" vlm_tokenizer, vlm_model, image_processor, context_len = load_pretrained_model( model_path=vlm_model_name, model_base=None, model_name="llava-v1.5-7b", load_bf16=True, device_map="cpu", device="cpu" )

    Chat VectorでLLaVAを日本語対応させる
    cohama
    cohama 2024/05/20