タグ

ブックマーク / www.ai-shift.co.jp (6)

  • 【AI Shift Advent Calendar 2023】RAGを強化する | 株式会社AI Shift

    こんにちは、AIチームの二宮です。 この記事はAI Shift Advent Calendar 2023の20日目の記事です。 記事では、RAG(Retrieval Augmented Generation)を強化する技術について調査した結果をご紹介いたします。RAGの概要や基的な実装については、以前の記事で詳しく説明していますので、そちらをご覧ください。 はじめに RAGは、大規模な文書から関連箇所を効率的に獲得し、それを基に回答を生成する手法です。特にカスタマーサポート分野では、自社情報に基づいて回答することが重要であるため、RAGの導入検討が積極的に行われております。最近では、RAGに関連する技術が多数提案されていますので、改めてどのような改善ができるのか調査してみました。 記事では、詳細な実装までは触れず、関連するリンクを記載することに留めています。RAGの改善の方針を立てる

    【AI Shift Advent Calendar 2023】RAGを強化する | 株式会社AI Shift
  • 【AI Shift Advent Calendar 2022】SetFitによるfew-shotテキスト分類 | 株式会社AI Shift

    こんにちは!AIチームの戸田です。 記事はAI Shift Advent Calendar 2022の1日目の記事です。 記事では少量データで高精度なテキスト分類モデルを学習できると言われているフレームワークSetFit(Sentence Transformer Fine-tuning)をkaggleの入門コンテスト、Natural Language Processing with Disaster Tweetsで試して、他の手法と比較してみようと思います。 SetFitとは 背景 BERTをはじめとする大規模言語モデルは、fine-tuningによるタスク適用でデータリソースの少ないドメインでもロバストな精度を実現することができると言われていますが、それでもfine-tuningで安定した精度を出すためには数百のデータは必要になってきます。 近年話題になっているGPT-3はfew-s

    【AI Shift Advent Calendar 2022】SetFitによるfew-shotテキスト分類 | 株式会社AI Shift
  • Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 記事では前回に引き続き、私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます 前回は学習の効率化について書かせていただきましたので、今回は精度改善について書かせていただきます データ 前回に引き続きKaggleのコンペティション、CommonLit-Readabilityのtrainデータを使います validationの分け方などは前回の記事を参照していただければと思います 精度改善 一般的なニューラルネットワークモデルの精度改善方法として、ハイパーパラメータのチューニングやData Augmentationが上げられますが、ここではBERTを始めとするTransformerをベースとしたモデル(以降Transformerモデル)特有の工夫について

    Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜 | 株式会社AI Shift
  • Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 近年、自然言語処理タスクにおいて、BERTを始めとするTransformerをベースとした事前学習モデルを感情分類や質問応答などの下流のタスクでfine-tuningする手法が一般的になっています huggingfaceのTransformersなど、事前学習モデルを簡単に使うことのできるライブラリもありますが、Kaggleなどのコンペティションで上位に入るには素のモデルのままでは難しく、ヘッダや損失関数などの工夫などが必要です 記事では私がKaggleのコンペティションに参加して得た、事前学習モデルのfine-tuningのTipsを共有させていただきます 書きたい内容が多くなってしまったので、今回は学習の効率化について、次回精度改善について、と2回に分けて書かせていただきます 事前準備 学習データとして、先日終了したKaggleのコンペティション、C

    Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift
  • 社内SQL研修のために作った資料を公開します | 株式会社AI Shift

    こんにちは、Development Teamの三宅です。 先日、社内(AI事業部内)でSQL研修の講師を担当したので、今回はその内容について簡単に共有したいと思います。 はじめに 例年、AI事業部では、新卒エンジニアの育成のためにソフトウェアエンジニア研修を行っております。今年はフルリモートでの実施となりました。研修期間は2週間ほどで、内容は前半が講義、後半が実践(チーム開発)でした。私が担当したのは、講義パートの一部であるSQL研修です。SQLRDBにあまり慣れていない人でも、できるだけ体系的な学びが得られるようにすることを目標に、様々な資料をまとめて提供する方針で準備しました。結果的には、ハンズオン込みで4時間ほどのやや長い講義となりましたが、勉強になったという声も頂けたのでやって良かったと思っています。 研修資料 研修内容 SQL研修の内容は、基的には大学のデータベース講義で

    社内SQL研修のために作った資料を公開します | 株式会社AI Shift
  • AutoNLPを使った日本語文書分類 | 株式会社AI Shift

    こんにちは AIチームの戸田です 先日、huggingfaceのAutoNLPで日語が扱えるようになりました。 こんにちは日 ! 🤗 AutoNLP supports Japanese NOW!!! This means you can now train binary classification, multi-class classification, entity recognition, summarization and speech recognition models for Japanese using AutoNLP 🎉🎉! Check it out here: https://t.co/HyjPGE2eEA pic.twitter.com/VWfYmj9flQ — abhishek (@abhi1thakur) April 21, 2021 今回はAutoNL

    AutoNLPを使った日本語文書分類 | 株式会社AI Shift
  • 1