タグ

ブックマーク / tech.preferred.jp (34)

  • LLMの金融因果関係抽出能力強化に向けた試み - Preferred Networks Research & Development

    2024年夏季インターンの矢野一樹さんによる寄稿です。 はじめに LLMの飛躍的な文章生成・理解能力の向上に伴い,金融ドメインにおける様々なタスクへの応用が活発に進められています.その中でも,金融因果関係抽出は特に重要なタスクの一つです.金融における因果関係の正確な把握は,意思決定プロセスにおいて非常に重要な役割を果たします.具体的には,株価変動の要因,為替レートの変動メカニズム,企業業績の変化要因などの理解が,リスク管理や投資戦略の最適化に不可欠です[1].稿では,こうした金融因果関係抽出タスクに対し,LLMの性能をさらに向上させるための方法を検証します. 金融因果関係の知識構造化と継続事前学習 稿では金融テキストにおける,因果関係抽出タスクに対して,金融的因果関係を「知識」として捉えます.金融的な因果関係は一種の体系的な構造をもち,それらに関連する文脈を知識としてみなすことが可能だ

    LLMの金融因果関係抽出能力強化に向けた試み - Preferred Networks Research & Development
    misshiki
    misshiki 2025/04/21
    “金融における因果関係の正確な把握は,意思決定プロセスで非常に重要な役割を果たす.株価変動の要因,為替レートの変動メカニズム,企業業績の変化要因などの理解が,リスク管理や投資戦略の最適化に不可欠”
  • テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development

    2025/04初頭時点で、OpenAItext-embedding-3-largeなどの他社モデルを上回り、日語テキスト埋め込みモデルとしてトップのスコアを記録しています (**)。特にテキスト埋め込みモデルの主要な用途と言えるRetrieval (検索タスク) では既存のモデルの最高スコアから2ポイント以上の更新を達成しており、情報検索での利用に適したモデルであることを示唆していると言えます。 (*) コンテキスト長1024で計測 (以降も断りがなければ同様)。これは学習時に用いたコンテキスト長が1024までであるため。ただし、ベースモデルの最大コンテキスト長であり、PLaMo-Embedding-1Bのconfig上の最大コンテキスト長である4096で計測しても、そこまで性能が下落するわけではないことがわかっています (Appendix参照)。 (**) 2025/04/14にRu

    テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development
    misshiki
    misshiki 2025/04/21
    “PLaMo-Embedding-1Bモデルは、日本語のテキスト埋め込みベンチマークであるJMTEBで、OpenAIのtext-embedding-3-largeなどを上回り、トップクラスの性能を達成しました。特に検索タスクで優れた性能を示しています。”
  • OptunaにおけるPython free threading (v3.13t)対応状況について - Preferred Networks Research & Development

    記事はアルバイトとして勤務されている加藤大地さんによる寄稿です。 はじめに Python 3.13 より、PEP 703 で提案された free threading が実験的にサポートされるようになりました。これまで、Python(厳密にはCPython)のインタプリタでは、global interpreter lock (GIL) という機構によって、同時刻において1つのスレッドしか実行できないようになっており、これによってスレッドセーフであることを保証していました。しかし、3.13 で導入された free threading により、複数のスレッドが同時に実行できるようになったことで、実行時間の短縮が見込まれます。 その一方、C-APIにいくつかの後方互換性のない変更が加わったことで、一部のC拡張モジュールがfree threading モードでは正しく動作しなくなる可能性があり、p

    OptunaにおけるPython free threading (v3.13t)対応状況について - Preferred Networks Research & Development
    misshiki
    misshiki 2025/01/19
    “free threadingは非常に初期段階であり、Optunaチームとしても対応を継続して進めていく予定です。”
  • 1兆 (1T) パラメータ規模のLLMの事前学習検証 - Preferred Networks Research & Development

    Preferred Networksの子会社のPreferred Elements(以下PFE)では7月から約1ヶ月の間、1兆 (1T) パラメータ規模のLLMの事前学習について検証を行っていました。今回の記事ではこの取り組みとその結果について紹介します。 この検証は経済産業省が主導する国内の生成AIの開発力を強化するためのプロジェクト「GENIAC(Generative AI Accelerator Challenge)」のもと、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業に採択され、計算資源の提供支援を受けて実施しました。 超巨大モデル学習の目的 今回の取り組みは、超巨大な (1Tクラスの) DNNモデルを学習できるかを確認することを目的としています。そもそもなぜこの検証をしたのかについての説明から始めようと思います。 LLMの事前学習では、学習に利用したデ

    1兆 (1T) パラメータ規模のLLMの事前学習検証 - Preferred Networks Research & Development
    misshiki
    misshiki 2024/08/21
    “1TパラメータクラスのLLMの事前学習について、検証結果を紹介”
  • 継続事前学習による金融ドメイン特化LLMの構築の検証 - Preferred Networks Research & Development

    この記事は、金融チームエンジニアの今城(@imos)と金融チームリサーチャーの平野(@_mhirano)による寄稿です。 概要 稿では、ドメインに特化したLLMの構築の一環として、金融ドメイン特化のLLMの構築の検証を行いました。継続事前学習によるドメイン知識の獲得を模索し、特定のドメイン向けに専用のパラメータ数が多い高性能なLLMを提供を可能にすることを目指します。 実験では、nekomata-14bとPFNで構築した金融に特化したデータセットを用いて、継続事前学習を実施しました。 継続事前学習の結果として、金融ベンチマーク性能が向上することが確認できました。 出力の差としては、Instruction Tuningを施していないため、大きな差は見られないものの、一定の差が見られるケースもありました。 継続事前学習後のモデルは、https://huggingface.co/pfnet/n

    継続事前学習による金融ドメイン特化LLMの構築の検証 - Preferred Networks Research & Development
    misshiki
    misshiki 2024/04/18
    “ドメイン適合のための、継続事前学習を、日本語LLMに対して金融ドメインで実施しました。その結果、金融分野における、性能の向上を確認することができました。”
  • Rustによる高速なOptuna実装の試作 - Preferred Networks Research & Development

    上記の結果で重要な点の1つは、Trial数を10倍にした際にRustOptuna実装の実行時間は約10倍で済んでいるのに対して、Optunaの実行時間は50-100倍にまで伸びてしまっている点です。この原因はOptunaが提供するいくつかの便利な機能に起因しています。Optunaでは利便性と速度低下のバランスを慎重に判断して開発を進めていますが、多くのユーザーにとっての利便性を追求した結果、一部のユーザーにとってこのような速度低下を招いてしまっているのも事実です。 RustOptuna実装は高速化により重きを置いています。速度に大幅な改善がなければ存在意義がなくなってしまうからです。互換性を重視してOptunaの設計や機能に合わせすぎてしまうと高速化に限界が生じてしまうため、enqueue_trial()のような一部の機能については導入を慎重に判断しています。 “基的に” 同じA

    Rustによる高速なOptuna実装の試作 - Preferred Networks Research & Development
    misshiki
    misshiki 2024/03/27
    “現時点で具体的な公開の予定はありませんが、本ブログにて開発の目的やRustによって置き換えることで得られた恩恵についてご紹介します。”
  • Announcing Optuna 3.6 - Preferred Networks Research & Development

    はじめに ブラックボックス最適化フレームワークOptunaの最新バージョンであるv3.6をリリースしました。今回のリリースには、様々な新機能やリファクタリング、バグ修正が含まれています。このブログではv3.6のハイライトと多くの機能改善についてお伝えします。 TL;DR Wilcoxon Pruner、軽量なガウス過程ベースのSampler、 PED-ANOVA重要度評価器等の様々な新しいアルゴリズムのサポート FrozenTrialの検証ロジックの厳密化、 Dashboardのリファクタリング、 Integrationの移行などOptunaの品質に関わる様々な改善を実施 Wilcoxon Pruner Optuna v3.5以前では、Prunerは典型的な機械学習のハイパーパラメータ最適化を想定して作られていました。そのような問題では、学習曲線を見て悪いパラメータを早期終了することができ

    Announcing Optuna 3.6 - Preferred Networks Research & Development
    misshiki
    misshiki 2024/03/19
    “Optunaの最新バージョンv3.6リリース。様々な新機能やリファクタリング、バグ修正が含まれています。このブログではv3.6のハイライトと多くの機能改善についてお伝えします。”
  • 需要の食い合いを考慮した商品の購入数予測 - Preferred Networks Research & Development

    記事は、2023年夏季インターンシッププログラムで勤務された上原祐輝さんによる寄稿です。 背景 商品の購入数予測は重要 近年、小売業界ではDXが進み、多くのビジネスプロセスが効率化されています。その中で、特に購入数予測は企業の競争力を左右する重要な要素となっています。購入数予測とは、過去のデータやトレンドを元に、将来の商品の購入数や需要を予測することを指します。正確な購入数予測は、在庫の無駄を削減し、商品の売り切れリスクを減少させるだけでなく、適切な価格設定を可能にし、利益の最大化に寄与します。 PFNにおいても購入数予測に取り組んでいますが、これまでのモデルでは商品間の需要のい合いを捉えられていませんでした。そこで、インターンシップでは需要のい合いを考慮した商品の購入数予測モデルの開発に取り組みました。 既存モデルの問題点 購入数の予測において、最も基的なアプローチの一つが各店

    需要の食い合いを考慮した商品の購入数予測 - Preferred Networks Research & Development
    misshiki
    misshiki 2023/11/06
    “需要の食い合いを考慮した商品の購入数予測モデルを開発しました。食い合いをモデルに組み込むことで、複数の店舗間でデータを共有することが可能となり、予測精度の向上を達成しました。”
  • Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development

    はじめに Optunaの新しいバージョン3.4では、新たにJupyter Lab拡張とVS Code拡張が公開・アナウンスされました。これらの拡張機能を利用することで、Optuna DashboardをJupyter LabやVS Code内で起動し、最適化履歴をより手軽に確認できます。 記事ではこれらの拡張機能がどのように実装されているのか、その仕組みを解説します。Optuna Dashboardの開発に興味を持ってくださっている方に限らず、Jupyter Lab拡張やVS Code拡張を開発しようとしている方のお役に立てば幸いです。 Jupyter Lab拡張の仕組み Optuna Dashboardは次の図に示すように、PythonのBottleフレームワークで書かれたサーバープログラムと、Reactで書かれたシングルページアプリケーションからなります。 このプログラムをJupyt

    Optuna用 Jupyter Lab拡張とVS Code拡張の実装解説 - Preferred Networks Research & Development
    misshiki
    misshiki 2023/10/30
    “Optuna 3.4の、Jupyter Lab拡張機能とVS Code拡張機能が、どのように実装されているのか、その仕組みを解説します。”
  • Announcing Optuna 3.4 - Preferred Networks Research & Development

    ハイパーパラメータ自動最適化フレームワークOptunaの新しいバージョンであるv3.4がリリースされました。今回のリリースには、ユーザーの相対的な評価結果をもとに最適化を行う新機能 “Preferential Optimization” や、ファイル管理機構、Jupyter Lab拡張、VS Code拡張が含まれています。 ✨ハイライト機能 選好に基づく最適化 (Preferential Optimization) 今回のリリースでは、選好に基づく最適化 (Preferential Optimization)が導入されました。この機能は、画像生成音声合成、自然言語生成タスクのように、生成物の定量的な評価が難しく、人間が主観的な評価をつける必要があるタスクにおいて特に有用です。 Optuna 3.2においてサポートされたHuman-in-the-Loop最適化では、絶対評価のみが可能となっ

    Announcing Optuna 3.4 - Preferred Networks Research & Development
    misshiki
    misshiki 2023/10/30
    2023年10月17日にOptuna 3.4がリリースされていました。 “ユーザーの相対的な評価結果をもとに最適化を行う新機能 “Preferential Optimization” や、ファイル管理機構、Jupyter Lab拡張、VS Code拡張が含まれています。”
  • 大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development

    記事は、2023年夏季インターンシッププログラムで勤務された竹田悠哉さんによる寄稿です。 はじめに 2023年度のPFN夏季インターンに参加した、東京大学大学院工学系研究科の竹田悠哉と申します。学部では画像生成の研究をしていましたが、技術の社会実装をより俯瞰的に学びたいと思い、現在は技術経営戦略学専攻で教育工学の研究をしています。 インターンでは「機械学習技術の社会実装」をテーマに、LLM(Large Language Model)にドメイン知識を習得させることに取り組みました。様々な設定において、主に英語で学習されたモデルであるLLaMA2に対して日語のデータでのFine-tuningを行い、LoRAやInstruction Tuning、ドメイン知識の習得に関する知見を得ることができたと思います。記事では、そこで利用した技術の紹介と、日語におけるドメイン知識の習得に関する実験、

    大規模言語モデルのFine-tuningによるドメイン知識獲得の検討 - Preferred Networks Research & Development
    misshiki
    misshiki 2023/10/27
    “主に英語で学習されたモデルであるLLaMA2に対して日本語のデータでのFine-tuningを行い、LoRAやInstruction Tuning、ドメイン知識の習得に関する知見を得ることができたと思います。利用技術の紹介と...考察を述べていきます。”
  • 日本語LLMベンチマークと自動プロンプトエンジニアリング - Preferred Networks Research & Development

    大規模言語モデル (LLM) は日進月歩で進化しており、日語の理解能力についても多くの言語モデルがしのぎを削っています。先日PFNからも、日英2言語を併せた能力で世界トップレベルの性能を示す言語モデルPLaMo-13Bを公開*しました。 一方で、LLMを実際のタスクに適用する場合には、事前学習モデルやファインチューニングによる改善もさることながら、プロンプトの違いが性能を大きく左右します。稿ではプロンプトを自動的にチューニングすることによって、LLMの能力を最大限に引き出し、与えられた課題の精度をどこまで高められるのかを検証します。 * 稿で解説するプロンプトチューニング技術は、PLaMo-13B公開時の性能評価には用いていません。 プロンプトエンジニアリングについて LLMを使ったチャットシステムでは、ユーザーからの問い合わせ内容を改変してLLMに入力することがあります。例えば、図

    日本語LLMベンチマークと自動プロンプトエンジニアリング - Preferred Networks Research & Development
    misshiki
    misshiki 2023/10/16
    “LLMの性能を引き出すためには、探索的なプロンプトエンジニアリングが重要であり、このプロセスを自動化することができます。”
  • 深層学習のための分散キャッシュシステム - Preferred Networks Research & Development

    エンジニアの上野です。Cluster Servicesチームという、PFNのKubernetesベースの機械学習基盤を開発・運用するチームに所属して、基盤の改善や新機能の開発に務めています。記事では、深層学習における学習データセット読み込み速度の改善を目指して開発し、現在もKubernetes上で運用中の分散キャッシュシステムを紹介します。 PFNの機械学習基盤については、ブログ「2022年のPFNの機械学習基盤」もご参照ください。 深層学習における学習データセット読み込み 深層学習を高速化するため、深層学習に向いたアクセラレータの開発が日々続けられています。PFNで開発しているMN-Coreシリーズや、NVIDIA社製GPUもそのひとつです。これらのアクセラレータは高速に行列演算を行うことができ、深層学習の1イテレーションにかかる時間を高速化、ひいては深層学習を活用する研究開発全体を加

    深層学習のための分散キャッシュシステム - Preferred Networks Research & Development
    misshiki
    misshiki 2023/07/19
    “深層学習における学習データセット読み込み速度の改善を目指して開発し、現在もKubernetes上で運用中の分散キャッシュシステムを紹介”
  • Kaggle Happywhale - Whale and Dolphin Identificationで優勝&10位でソロ金メダルを獲得しました - Preferred Networks Research & Development

    2022年2月から4月にかけてkaggle competition Happywhale – Whale and Dolphin Identification が開催され、Preferred Networksのメンバー2名:山口(@charmq)、阿部( @knshnb)からなるチーム Preferred Dolphinが優勝しました。また、山川(@Yiemon773)が10位でソロ金メダルを獲得しました。 今回のコンペは1,588チームが参加し、kaggle世界ランクtop10のうち過半数が参加しているなど、非常に競争が激しいものとなりました。 記事ではこのコンペの概要と我々のソリューションについて紹介します。 コンペの概要について コンペでは、クジラやイルカの写真から各個体を識別するモデルの精度を競いました。 従来人手で莫大な時間をかけて行われていた個体識別を自動化することにより、

    Kaggle Happywhale - Whale and Dolphin Identificationで優勝&10位でソロ金メダルを獲得しました - Preferred Networks Research & Development
  • 深層学習を用いた物理探査技術の研究開発 - Preferred Networks Research & Development

    エンジニアの水野尚人です。PFN は、深層学習を用いた物理探査技術の研究開発を三井物産株式会社との合弁会社 Mit-PFN Energy を通じて行なっており、この取り組みの成果を第 82 回 EAGE ANNUAL Conference & Exhibition という物理探査分野の国際会議で発表しました。この発表では、実用的な学習用データセット生成と、物理探査に適した深層学習モデルの構築という 2 つの課題を改善する手法を提案しました。記事では物理探査に深層学習を用いる際に技術的にどのような難しさ・面白さがあるのかに触れつつ、発表内容について紹介します。 * 記事の図はいずれも下記の発表からの引用です。 T. Shibayama, N. Mizuno, H. Kusano, A. Kinoshita, M. Minegishi, R. Sakamoto, K. Hasegawa,

    深層学習を用いた物理探査技術の研究開発 - Preferred Networks Research & Development
    misshiki
    misshiki 2021/10/27
    事例
  • 表形式データに対する深層学習ライブラリの開発と実験 - Preferred Networks Research & Development

    記事は、2021年度PFN夏季インターンシップで勤務した平川雅人さんと畠山智之さんによる寄稿です。 はじめに 2021年度PFN夏季インターン生の平川雅人と畠山智之です。 今回のインターンでは、表形式データに対して様々な深層学習モデルを試すことができるライブラリを共同で開発しました。開発したライブラリは https://github.com/pfnet-research/deep-table で公開しています。 背景 近年、深層学習は画像や自然言語、音声の分野で目覚ましい成功を収めてきました。しかし表形式データに対しては、深層学習はそのような成功を遂げることは少なく、いまだにXGBoostやLightGBMのような決定木ベースのモデルが主流となっています。 深層学習の有望な手法として、決定木のアンサンブルを模倣して勾配ベースの学習を可能にしたNODE [1] や、スパースなattenti

    表形式データに対する深層学習ライブラリの開発と実験 - Preferred Networks Research & Development
  • AI創薬技術によるSARS−CoV−2プロテアーゼ阻害薬の探索 - Preferred Networks Research & Development

    新型コロナウイルスのメインプロテアーゼ (紫色)に結合して増殖を阻害する薬剤 (黄色) はじめに 新型コロナウイルス感染症 (COVID-19) は、現在、ワクチンの開発と接種により、感染の拡大が抑えられることが期待されているものの、ウイルスのさらなる変異によるパンデミックの再発を防止するには、SARS-CoV-2を標的とした治療薬の開発が強く望まれています。 レムデシビルなどの核酸合成系を標的とする化合物やREGN-COV2のようなウイルスの抗体を直接注入する治療法は一定の臨床効果が報告され認可されていますが、限定的な用途に限られています。それ以外にも、多くの既存薬剤についてドラッグリポジショニングの研究が行われていますが、認可を得るまでには至っていません。また、変異ウイルスへの脅威に対応するためにも、多様なCOVID-19の治療薬の開発が望まれています。 3CLプロテアーゼ (Mpro

    AI創薬技術によるSARS−CoV−2プロテアーゼ阻害薬の探索 - Preferred Networks Research & Development
    misshiki
    misshiki 2021/09/06
    事例
  • MN-Coreコンパイラを用いた深層学習ワークロードの高速化 - Preferred Networks Research & Development

    はじめに 深層学習を軸とした研究開発には大きな計算資源が必要です。 PFNでは深層学習ワークロードに特化した計算機資源として深層学習用アクセラレータであるMN-Coreを開発し、実際に弊社のスーパーコンピュータであるMN-3に搭載し運用を行っています。記事では、MN-Coreを利用した深層学習ワークロード高速化のためのコンパイラの概要及び、ワークロード高速化の実例について紹介します。 MN-Coreの概要とコンパイラの必要性 MN-Core(https://www.preferred.jp/ja/projects/mn-core/)とは深層学習ワークロードに特化したアクセラレータです。深層学習において頻出する畳み込み演算を高速化するために、多数の高効率な行列演算器ユニットを階層的に束ねた構造を持っています。各階層間においては縮約/放送など深層学習ワークロードでよく用いられる集団通信を行う

    MN-Coreコンパイラを用いた深層学習ワークロードの高速化 - Preferred Networks Research & Development
    misshiki
    misshiki 2021/06/17
    “MN-Coreを利用した深層学習ワークロード高速化のためのコンパイラの概要及び、ワークロード高速化の実例について紹介”
  • Neural Architecture Searchを用いたセマンティックセグメンテーションモデルの探索 - Preferred Networks Research & Development

    はじめに 近年、ニューラルネットワークを用いた機械学習の実用化が様々な分野で進んでいます。機械学習モデルの推論精度を向上させるためには、通常多くの試行錯誤が必要となりますが、モデルのデプロイ先の多様化に伴い、単純な精度向上だけでなく利用環境の制約(推論速度、メモリ使用量、バッテリー消費量、等々)も考慮したチューニングが必要となっています。 そのようなニューラルネットワークを実デバイス上での速度や精度の要求に合わせてチューニングする作業は、多くの人的資源と計算資源を要します。PFNでは、この作業を自動化しつつ人手よりもさらに良いモデルを作成する手法の一つとして、ニューラルアーキテクチャ探索(Neural Architecture Search、以降は”NAS”と表記)を効率的に行うためのエコシステムの整備を進めています。 記事では、開発を行っているNASエコシステムの概要と、その適用事例の

    Neural Architecture Searchを用いたセマンティックセグメンテーションモデルの探索 - Preferred Networks Research & Development
    misshiki
    misshiki 2021/05/12
    PFNで“開発を行っているNASエコシステムの概要と、その適用事例の一つとして、自律移動ロボット上で動作するセマンティックセグメンテーションモデルのアーキテクチャ探索を行った結果を紹介”
  • Pythonのlinter/formatterを誰でも手軽に設定できるようにするためのPFN社内ツール “pysen” の紹介 - Preferred Networks Research & Development

    Home Blog Pythonlinter/formatterを誰でも手軽に設定できるようにするためのPFN社内ツール “pysen” の紹介 Python向けのlinter/formatter設定ツール「pysen」を pypi.org および github.com で一般公開しました。 このツールは主にPython向けのlinter/formatterの設定を一元管理し、Preferred Networks社内でよく使われているツール環境を誰でも簡単に設定できるように支援するツールです。チームごとに分散しうるようなツールに関するノウハウをコードとして集約し、PFN社内での共有を促進させることを目的として開発しています。pysenは実際にPFN社内で使われており、2020年4月に開発がスタートしてから、2021年3月現在でおよそ100を超える社内リポジトリに導入されています。 上図:

    Pythonのlinter/formatterを誰でも手軽に設定できるようにするためのPFN社内ツール “pysen” の紹介 - Preferred Networks Research & Development
    misshiki
    misshiki 2021/03/29
    “Python向けのlinter/formatter設定ツール「pysen」を pypi.org および github.com で一般公開しました。”