並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 831件

新着順 人気順

コーパスとはの検索結果401 - 440 件 / 831件

  • Appleのオンデバイス・サーバー基盤モデルの概要|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・Introducing Apple’s On-Device and Server Foundation Models 1. はじめにWWDC24で、iOS 18、iPadOS 18、macOS Sequoia に統合されたパーソナルインテリジェンスシステム「Apple Intelligence」を発表しました。「Apple Intelligence」は、ユーザーの日常的なタスクに特化した複数の高性能生成モデルで構成されており、現在のアクティビティに即座に適応できます。組み込まれている基盤モデルは、テキストの作成と調整、通知の優先順位付けと要約、家族や友人との会話のための遊び心のある画像の作成、アプリ間のやり取りを簡素化するためのアプリ内アクションの実行など、ユーザーエクスペリエンスに合わせてファインチューニングされています。 以下の概要で

      Appleのオンデバイス・サーバー基盤モデルの概要|npaka
    • 事前学習済み言語モデルの流行とリスク|NHK技研R&D

      Timothy John BaldwinProfessor, Associate Provost and Acting Head of the NLP Department of Mohamed Bin Zayed University of Artificial intelligence 近年,「事前学習済み言語モデル」の普及により,自然言語処理モデルの精度と汎用性が大幅に向上している。簡単に言うと,言語モデルは文脈の中で単語が出現する確率を予測するモデルである。例えば,“The baby emerged from its mother’s pouch. (赤ちゃん は母親のおなかの袋から出てきた)”という文において, を埋める単語として言語モデルは“kangaroo (カンガルー)”や“koala (コアラ)”に高い確率で割り当て,“kangaroos (カンガルー複数形)”,“ele

        事前学習済み言語モデルの流行とリスク|NHK技研R&D
      • 【LLM for NewsRec】大規模言語モデル(BERT)を活用したニュース推薦のPyTorchによる実装と評価

        1. はじめに 世は大インターネット時代。「ニュースは紙ではなく、スマホで。」が当たり前。日々生み出される膨大なニュースの中から個人の嗜好に基づいた記事を抽出するニュース推薦システムの需要は高まり、Microsoft NewsやYahoo News、Smart Newsなど数多くのオンラインニュースメディアが、その分野に多大なる労力を割いています。そして、近年用いられる手法の多くは機械学習技術が用いられています。 ニュース推薦における推薦アイテムは、いうまでもなく「ニュース記事」。そしてその大部分はテキスト情報から構成されます。機械学習 x テキスト処理となると、今最もホットなトピックといえば、やはり大規模言語モデルの応用です。 大規模言語モデルは、膨大なコーパスによる事前学習を通して深い言語理解を獲得した大規模なニューラルネットです。文書分類や翻訳、対話応答など、様々な自然言語処理タスク

          【LLM for NewsRec】大規模言語モデル(BERT)を活用したニュース推薦のPyTorchによる実装と評価
        • Google AI コミュニティによる、クラウドを使用した生物医学研究者の支援 | Google Cloud 公式ブログ

          ※この投稿は米国時間 2020 年 6 月 27 日に、Google Cloud blog に投稿されたものの抄訳です。 世界的なパンデミックに対応すべく、ホワイトハウスと研究グループの連合体は、世界最大のオンライン データ サイエンス コミュニティ、Kaggle に CORD19 データセットを公開しました。新型コロナウイルスや他の疾患についての理解を深めるという目標は、医療政策、研究、医学界において多くの注目を集めました。Nature の記事によると、Kaggle チャレンジは 3 月中旬に開始されて以来、約 200 万ページビューを獲得しています。 研究者や一般ユーザーが自由に利用できるデータセットには、150,000 以上の学術論文が含まれており、COVID-19(新型コロナウイルス感染症)関連だけで何千にも及びます。そのため、最新の文献の中から、常に最新情報を入手するのは容易では

            Google AI コミュニティによる、クラウドを使用した生物医学研究者の支援 | Google Cloud 公式ブログ
          • 言葉で説明できないとき:対話型インターフェースを超えるAIのためのデザイン | POSTD

            クイックサマリー:人工知能がコンピューティングパラダイムの進化をもたらしており、それに伴いデザイナーはより直感的なユーザーインターフェースを開発するチャンスに恵まれています。新しい機能のほとんどは、テキストベースの大規模言語モデルによって実現されているため、グラフィカルインターフェースからチャットボットのような対話型インターフェースへの移行が必要との声が多く聞かれるようになっています。しかし、多くのインタラクションパターンにおいて、対話は優れたインターフェースではないことをかなりの証拠が示しています。最新のAI機能によって、対話だけにとどまらずヒューマンコンピューターインタラクションの未来がどう変わりうるのか、マクシミリアン・ピラスが考察します。 人間とコンピューターのインタラクションのあり方を根本から変えうるような技術革新はそうそうありません。幸運なことに、次のパラダイムシフトは今まさに

              言葉で説明できないとき:対話型インターフェースを超えるAIのためのデザイン | POSTD
            • spaCy固有表現抽出(+Presidio)によるドキュメントの情報漏えいリスクチェック支援 - OPTiM TECH BLOG

              R&D チームの徳田(@dakuton)です。記事冒頭に書くことが思いつかなかったので先日のGPT記事にあるサンプルを使ってみました。 試してみたところ、Tech Blog記事っぽい出力にはなりました。 入力(Prompt): R&D チームの徳田([@dakuton](https://twitter.com/dakuton))です。 出力: 皆さんおひさしぶりです。遅くなりましたが、11/18(金)に行われましたRuby Machine Learningの勉強会の模様を記事にしました。 サンプルは下記参照 tech-blog.optim.co.jp 背景 本題ですが、目的は本記事タイトルのとおりです。 参考: 個人情報保護委員会が個人情報を漏えい パブリックコメント参加者の氏名や所属先を誤掲載 - ITmedia NEWS 技術要素としては下記と同じような内容です。本記事ではこれをspa

                spaCy固有表現抽出(+Presidio)によるドキュメントの情報漏えいリスクチェック支援 - OPTiM TECH BLOG
              • パラグラフ写経のすすめ 文体を入れ替える - Write off the grid.

                このエントリは、すでに英語でそれなりの量の文章を書いてきたものの、現状の作文力に不満を抱いており、どうにか改善したいと感じている──おもにそのような書き手にむけて書かれている。 わたし自身は人文系の大学院生なのだが、人文学は文章を読んでもらうことで読者を説得していく分野なので、その評価において文章力が大きな比重を占める。したがって外国語で書く場合、語学力がダイレクトに評価に影響してくる、ということだ。以下の文章は、そういった分野の執筆にたずさわる書き手にとりわけ役立つ内容になると思う。英語論文を例にして話をすすめるが、英語以外・論文以外の書き物にも応用可能である。 また以前に、初心者から初級者へ、そしておそらく中級レベルの後半くらいまで進むための方法論を紹介するエントリ「文体を作ろう!」を書いているので、そちらも参考にしていただきたい。今回はその続編、上級編である。 ところで上記のエントリ

                  パラグラフ写経のすすめ 文体を入れ替える - Write off the grid.
                • Huggingface transformersモデルのONNX runtimeによる推論の高速化 - Retrieva TECH BLOG

                  Chief Research Officerの西鳥羽 (Jiro Nishitoba (@jnishi) | Twitter) です。 今回はHugging Face TransformersのモデルのONNX runtimeで実行を試してみました。それにより特にCUDAでの実行では2.4倍近い高速化が行えました。 Hugging Face TransformersのモデルのONNX形式への変換方法から、ONNX runtimeでの実行も含めて紹介したいと思います。 ONNXとは ONNX形式への変換 ONNX形式に変換したモデルを用いて推論する ONNX形式のモデルからGPUでの推論 実験 まとめ ONNXとは ONNX とは、機械学習のモデルを表現するOpenなフォーマットです。機械学習を実現するフレームワークは数多くありますが、ONNX形式での出力をサポートしてるものも多数存在 *1

                    Huggingface transformersモデルのONNX runtimeによる推論の高速化 - Retrieva TECH BLOG
                  • 【朝日杯フューチュリティS 2022】2歳マイル王決定戦!vol.1 - 中央競馬に賭ける俺~情熱が止まらない~

                    18日、阪神競馬場で2歳マイル王を決める朝日杯フューチュリティステークス(G1 芝1600m)が開催されます。今年の出走予定馬を見ても3勝馬が不在で、例年以上に難解なレースになりそうです。 中でも注目したいのはドルチェモア。札幌の新馬戦を1番人気で快勝後2戦目のサウジアラビアRC(G3)をメンバー中最速の上がりで差し切る好内容で勝利。スタートが早く好位で競馬が出来るのがこの馬の強みか。 続くダノンタッチダウンは、先日の香港カップ(G1)2着のダノンザキッド(父ジャスタウェイ)の半弟。半兄ダノンザキッドはホープフルS(G1)を勝って最優秀2歳牡馬に輝いています。半兄同様に鋭い末脚が持ち味で、前走デイリー杯2歳S(G2)2着もメンバー中最速の上がりで駆け抜けている。 そのデイリー杯2歳Sを逃げ切って勝ったのがオールパルフェ。デビューから3戦全てで逃げるレースをしている。今回も逃げてどこまで粘り

                      【朝日杯フューチュリティS 2022】2歳マイル王決定戦!vol.1 - 中央競馬に賭ける俺~情熱が止まらない~
                    • Kotomamba: mamba-2.8B 学習知見

                      はじめに Kotoba Technologiesでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 Kotoba TechnologiesはNLPと分散並列学習に関する技術を用いて、日本及び非英語圏におけるLLMやマルチモーダルモデルの実運用に向けた研究開発を行っています。 本日(2024/2/19) 2つのmambaモデルをリリースさせて頂きました。 1つは、from scratchから日本語と英語のコーパスにて学習を行ったkotomamba-2.8B-v1.0、もう1つはstate-spaces/mamba-2.8b-slimpjから日本語と英語で継続事前学習を行ったkotomamba-2.8b-CL-v1.0です。 両方のモデルとも、同規模のTransformerモデルと並ぶ性能を示しました。 本記事では、kotomambaモデルの性能と、モデル

                        Kotomamba: mamba-2.8B 学習知見
                      • はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場

                        前回は BERT についてその概要と使い方を紹介しました。今回は自然言語処理ライブラリである spaCy と spaCy をフロントエンドとする日本語NLPライブラリの GiNZA について紹介します。 1. 始めに 本記事では欧米で有名な自然言語処理ライブラリである spaCy とリクルートと国立国語研究所の共同研究成果である日本語NLPライブラリ GiNZA について紹介します。記事の前半では、spaCy と GiNZA の概要と日本語を処理する際の基本的な機能/操作について説明します。後半では、spaCy で提供される文章分類機能について、前回までに紹介した手法も含めて精度を比較してみます。 2. spaCy と GiNZA の概要 spaCy は Explosion AI 社の開発する Python/Cython で実装されたオープンソースの自然言語処理ライブラリで MIT ライセ

                          はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場
                        • 資料

                          勉強会で使用されたサーベイ・発表資料を公開しています。 日本語LLMまとめも公開しています。 2024-01-22 観測データからのLLMの学習及び自己改善ループについて、因果推論手法との接地(京大 三内) ichikara-instructionを使ったLLMの人間による評価とGPTによる評価の比較分析 (理研 関根) Kotoba Tech.の状態空間モデルと音声能力開発 (Kotoba Tech. 小島) 大規模言語モデルSwallow (東工大 岡崎、水木) 安全性WG (関根) コーパス構築WG (河原) 評価・チューニングWG (宮尾) モデル構築WG (鈴木) 2023-11-29 LLM-jp 状況報告(黒橋) LLMの安全対策サーベイと日本語データ(理研AIP 鈴木久美) ビジネスのドメインや最新情報に対応した130億パラメータの日本語事前学習モデルの開発(ストックマーク

                          • 【ELYZA-japanese-Llama-2-70b】日本語特化モデル最大級の700億パラメーターLLMを使ってみた | WEEL

                            WEELメディア事業部LLMライターのゆうやです。 2024年3月12日、ELYZA-japanese-Llama-2-7bなどの日本語特化LLMを開発してきたELYZA社が、最新の700億パラメータの大規模言語モデル (LLM) である「ELYZA-japanese-Llama-2-70b」を公開しました。 【お知らせ】700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、グローバルモデルに匹敵する性能を達成しました。デモサイトも同時に公開しています。 詳細は以下をクリックしてご覧ください。https://t.co/kw8euBuKz5 — ELYZA, Inc. (@ELYZA_inc) March 12, 2024 このモデルは、これまでのモデルと同様に、Meta社の「Llama2」をベースに、日本語の追加事前学習と事後学習を行い、Llam

                            • GiNZAの固有表現抽出とElasticsearchを使って自動でタグ検索 - Taste of Tech Topics

                              こんにちは。@Ssk1029Takashiです。 最近は家でもどうにかラーメンを食べられないかと試行錯誤しています。 タグ検索とは、キーワード検索とは違い、検索する前からユーザーが選択肢からキーワードをセレクトボックスなどで選んで、検索できる検索方法です。 通常のキーワード検索と違って、ユーザーが0からキーワードを考える必要がないため、効率的に情報を絞り込めます。 もしくは、キーワード検索と併用して使用することも可能です。 ただ、コンテンツごとにタグを設定するのはとても手間がかかります。 コンテンツ作成者も必ずしもタグを設定してくれるとは限りません。 このような時に、自動でタグ付けをしてくれる仕組みがあると楽にタグ検索を実現できます。 ただ、単純な形態素解析で名詞をタグとすると、ゴミが多くなってしまいます。 そこで、今回は、日本語処理ライブラリであるGiNZAの固有表現抽出機能とElast

                                GiNZAの固有表現抽出とElasticsearchを使って自動でタグ検索 - Taste of Tech Topics
                              • Kaggle のデータ分析コンペ Shopee - Price Match Guarantee で『10位 / 2,426チーム』を獲得しました | MoT Lab (GO Inc. Engineering Blog)

                                初めまして。MoTのAI技術開発部アルゴリズム第一グループの島越 [1]です。本ブログでは、私が最近ソロで10位を獲得したKaggleのコンペティション「Shopee - Price Match Guarantee」で行った取り組みについてと上位の手法について紹介したいと思います。なお、本記事で使用している画像は特に断りがない限り、上記コンペの画像を使用しております。 1. 本コンペについて まず、今回のコンペがどのようなタスクを解く問題だったのかについてご紹介します。このコンペは、東南アジア最大級のECプラットフォームであるShopeeが開催したもので、データとしてはユーザが登録した商品画像と商品のタイトルが与えられます。また、ラベルとしてはユーザが登録した商品の種別が与えられています。このラベルは、ユーザが登録したものなので、ノイズが多く載っているものになっており、同じ画像や同じタイト

                                  Kaggle のデータ分析コンペ Shopee - Price Match Guarantee で『10位 / 2,426チーム』を獲得しました | MoT Lab (GO Inc. Engineering Blog)
                                • オックスフォード英語辞典が発表した2022年流行語大賞は「ゴブリンモード」その意味は?

                                  イギリスの名門辞書「オックスフォード英語辞典」によって、2022年に英語圏で流行った流行語大賞が発表された。 「オックスフォード・ワード・オブ・ザ・イヤー」は、過去12ヶ月間の人々の気分や関心事を反映し、今後も文化的な重要性を持つ言葉として定着するかもしれない単語や表現から選出される。 だが今年のワード・オブ・ザ・イヤーは、一般人の投票によって決めるという初の試みもなされている。 英語圏で暮らす30万人以上の投票者が選んだ今年の流行語大賞は「ゴブリンモード」だ。その意味とは?さらに2位、3位は? 流行語大賞 :ゴブリンモード ゴブリンモード(goblin mode)とは、「社会規範や世間体を無視し、気ままで、怠惰で、ずぼらで、浅ましい行為を悪びれることなく行う」ことを意味するスラングだ。「in goblin mode」や「to go goblin mode」といった表現で使われる。 この言

                                    オックスフォード英語辞典が発表した2022年流行語大賞は「ゴブリンモード」その意味は?
                                  • McKinsey、社員向けジェネレーティブAIツール「Lilli」を公開 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                    Image credit: McKinsey 100年近い歴史を持ち、世界最大級のコンサルティング会社であるMcKinsey and Company は今年初め、ジェネレーティブ AI ツールの急速な導入で大きな話題となった。 その McKinsey が、独自のAIツール「Lilli」を発表した。これは McKinsey の CTO Jacky Wright 氏が率いるチーム「ClienTech」が設計した社員向けの新しいチャットアプリケーションだ。情報、洞察、データ、計画を提供し、コンサルティングプロジェクトに最も適した社内の専門家を推薦する。 McKinsey のシニアパートナーで、この製品の開発を率いた Erik Roth 氏は、VentureBeat に次のように答えた。 McKinseyの 知識を総動員して質問し、(AI が)それに答えてくれるとしたら、それは会社にとってどんなこ

                                      McKinsey、社員向けジェネレーティブAIツール「Lilli」を公開 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                    • PyTorchを使ってジャパリパークの歌詞みたいなやつを生成させたい - Qiita

                                      はじめに 先日,Preferred Networks(PFN)社が提供している深層学習ライブラリ「Chainer」の開発が終了しましたね. 私の研究室ではTensorflow派とChainer派に分かれており,互いにマウントを取り合っていたのですが,開発終了と同時にChainer派が淘汰されてしまいました(キレそう). 私自身はChainerを愛用しておりましたのでとても残念に思うのと同時に,今まで使いやすいフレームワークを提供して頂いたことによる感謝の気持ちでいっぱいでございます(信者). さてそのPFN社なのですが,PyTorchの開発へ移行するらしいです. しかもPyTorch自体がChainerの記述に似ている面が多いと聞きます. また私の研究では主に使用したのがCNNやらGANなのですが,RNN関連に手を付けていませんでした.... 「これはPyTrochの使い方とRNNの仕組み

                                        PyTorchを使ってジャパリパークの歌詞みたいなやつを生成させたい - Qiita
                                      • 【AI&システム開発系】おすすめAdventCalendarと記事まとめ(19年12月前半編) - Qiita

                                        12月といえば Advent Calendarの季節です。 ※Advent Calendarとは、Qiitaの毎年恒例のイベントです。 特定のテーマや企業内でチームを作り、一か月間記事を投稿し続けます。 本記事では、 ・私が読んでいるAdventCalendar ・12月14日までの大量の記事のなかで、個人的におすすめの記事 を紹介します。 15日以降の続きは、(19年12月後半編)の記事にて紹介します。 それでは以下。 機械学習入門系 カレンダー 機械学習をどう学んだか by 日経 xTECH 機械学習ツールを掘り下げる おすすめ記事 失敗から学ぶ機械学習応用~Another Story~ SlideShareで人気の資料「失敗から学ぶ機械学習応用」 の増田さんの資料あとがき的な位置づけの記事です。 どのように機械学習を勉強されたのか、その流れと使用した書籍などが紹介されています。 また

                                          【AI&システム開発系】おすすめAdventCalendarと記事まとめ(19年12月前半編) - Qiita
                                        • オープンなKindle用英和辞書 - 豪鬼メモ

                                          Kindleの実機(無印、Paperwhite、Oasis、Voyage等)で使えるオープンな英和辞書を作ってみた。以前の記事で紹介したEPUB辞書をKindleのmobiフォーマットに変換したものである。データソースにはWordNetやWiktionaryなどのオープンに使えるものを使っている。辞書ファイルをダウンロードできるようにしておいたので、試しに使ってみてほしい。 何年かぶりに、Kindle Paparwhiteの新型が発売された。私にとっては待望だったので、早々に購入して使っている。画面が広くなってコントラストも高くなって動作も早くなって、値段が17000円と高い以外は、良いこと尽くめだ。とはいえ、よく使う期間には携帯電話よりも長時間触れるデバイスであるから、それなりの投資をするのに吝かではない。 Kindle端末には、もともとプログレッシブ英和中辞典がバンドルされている。日本

                                            オープンなKindle用英和辞書 - 豪鬼メモ
                                          • 自然言語処理で注目のBERT ~取り敢えず動かしてみる編~ - Qiita

                                            はじめに 業務にて自然言語処理に関わる事が多く、現在注目されているBERTに関して調べたのでまとめてみました。 ※様々な記事から勉強させて頂きましたので、随時引用させて頂いております。 前提事項 下記前提を踏まえた上で、記載内容をご確認ください。 あくまで「BERTを取り敢えず動かす」という事を目的として記載をしております。よって理解不足により、記載表現や内容に誤りがある可能性がございますので、その際はご指摘頂けると幸いです。 BERTに関する概念的な説明は記載しておりません。下記「BERTを勉強する上での参考資料」に上手くまとまっておりますので、こちらをご参考ください。 BERTを勉強する上での参考資料 BERTの公式レポジトリ(+その翻訳が記載されているQiita) google-research/bert [翻訳]BERTで自然言語AIをはじめる(github上のREADMEの翻訳)

                                              自然言語処理で注目のBERT ~取り敢えず動かしてみる編~ - Qiita
                                            • BERTによる文書分類 | CCT-recruit

                                              はじめに BERTとは、自然言語処理に使われる汎用言語モデルの名前である。Googleが2018年に発表した(原論文)。このモデルをファインチューニングすることにより、自然言語処理の多くのタスクでSOTA(State Of The Art)が達成されている。今回はこのBERTを用いた文書分類を、既存コードとライブラリを用いて行う。 問題設定 以下の問題を考える。 文書を複数個用意する。各文書はタイトルと本文(document)から成る。ここで、本文とは文(sentence)の集まりのことである。 文書は複数の分野から集める。 タイトルあるいは本文だけからその分野を予測したい。 最初に、タイトルによる分類(タイトル分類)を考える。 タイトル分類の方針 タイトルを1つの文とみなし、これをBERTを用いて1つの多次元ベクトル(文埋め込み:sentence embeddings)に変換する。分野を

                                              • 「どどめ色」はエッチな言葉か

                                                藤井風の新曲《青春病》に「青春はどどめ色」という歌詞があり、エッチだなあと思った。 周知のように、「どどめ色」は官能小説の専門用語で、年齢と経験を重ねた女性器に対して使う。 近所の出戻りお姉さんとか、同級生の母親とかに使うことが多い。 見たことないので知らんけど、やや黒ずんだサーモンピンクだと推察される。 …と思って朝日新聞の記事を見ていたら、全然違うことが書いてあった。 https://www.asahi.com/articles/DA3S14519316.html 「紫になった唇や打ち身の痕などに使われたようです」などと上品に述べているが、女性器については一文字も言及していない。 カマトトぶっているのか、ほんとうに知らないのか。 Wikipediaにも「どどめ色」という記事があり、そこだと女性器との関係についても簡単に触れている。 でも、「どどめ色=女性器」という私の認識からすると、ず

                                                  「どどめ色」はエッチな言葉か
                                                • 宮本浩次、椎名林檎、Chara、YUKI、長渕剛……数々のミュージシャンに称賛されるギタリスト・名越由貴夫。知られざる道程に迫る【インタビュー連載・匠の人】 | SPICE - エンタメ特化型情報メディア スパイス

                                                  宮本浩次、椎名林檎、Chara、YUKI、長渕剛……数々のミュージシャンに称賛されるギタリスト・名越由貴夫。知られざる道程に迫る【インタビュー連載・匠の人】 「ギター、名越さあああん!!」と、2021年10月から2022年6月まで、ツアー『日本全国縦横無尽』で、全都道府県で宮本浩次に紹介され続けて来た、日本を代表するロック・ギタリスト。ずいぶん前からこの『匠の人』のインタビューをオファーして来て、ついに実現しました! 90年代後半から現在までの間、ある程度の年数、日本のロックを好きで聴いているなら、「この人のギター、耳にしたことがありません」という人、まずいないと思う。 名越由貴夫。1990年代に、インディ・パンク・ブームの先駆け的存在で、海外でも評価されたベースレス・トリプル・ギター・バンド、Co/SS/gZ(コーパス・グラインダーズ)でキャリアをスタート。ただしそのコーパスが1996年

                                                    宮本浩次、椎名林檎、Chara、YUKI、長渕剛……数々のミュージシャンに称賛されるギタリスト・名越由貴夫。知られざる道程に迫る【インタビュー連載・匠の人】 | SPICE - エンタメ特化型情報メディア スパイス
                                                  • ChatGPTの仕組みと課題について解説!

                                                    皆さんこんにちは! 多くの方が1度は使ったことがあるであろうチャットAI、ChatGPT。従来のチャットAIからは想像もできない性能の高さを持ち、人間と会話する感覚で会話できることから大きな注目を浴びています。一方で、課題も明らかになっています。それは、人間なら気付くような単純なことでも、平気で間違った情報を答えるなど、内容の正確性や適切性に難がある点です。その為、ChatGPTの利用は、あくまでも補助的な位置づけに留めることが重要です。 とはいえ便利なものですので原理や今後の精度はどうなるのか気になりませんか? 今のままでは、その機能を活かしきれませんよね。ちょっともったいない気がしてしまいます。 今後、この課題は解決されるのでしょうか? 本記事では、ChatGPTの仕組みに踏み込んで原理を明らかにすることで、これらの課題が生じてしまう理由について知り、今後について考えていきたいと思いま

                                                      ChatGPTの仕組みと課題について解説!
                                                    • GPT-2をファインチューニングしてニュース記事のタイトルを条件付きで生成してみた。 - Qiita

                                                      はじめに GPT-2のファインチューニングの仕方がなんとなくわかってきたので、メモとして残しておきます。 事前学習モデルはrinna社が提供してくれている以下の日本語モデルを使用します。huggingface/transformersから簡単にロードして使うことができます。 https://huggingface.co/rinna/japanese-gpt2-medium こちらのモデルはmediumとあるので、TransformerのDecoderブロックが24層重なったやつですね。 今回紹介する内容はGPT-2条件付き文章生成です。 GPT-2のチュートリアル的な記事でよく見るのが、与えた文章の続きにくる文章を生成するようなものが多いかと思いますが、出力の形式等を入力の段階から制御するようなことをしてみようと思います。 GPT-2自体の理解や、使い方、ファインチューニングの仕方、生成文

                                                        GPT-2をファインチューニングしてニュース記事のタイトルを条件付きで生成してみた。 - Qiita
                                                      • BERTによるテキスト分類 - Gunosyデータ分析ブログ

                                                        はじめに こんにちはGunosy Tech Labの森本です。グノシーのニュース記事を実験的にBERTでテキスト分類しましたので、その結果を共有します。 BERTはご存知の通りGoogle AIが発表した双方向Transformerであり、Pre-trainingできる特徴があります。自然言語処理の代表的なデータセットを用いたタスクやベンチマークで発表当時複数のstate-of-the-artを記録しました。 arxiv.org 本記事ではテキスト分類に着目して実験を行いました。 テキスト分類は昨今の深層学習の熱気とは別に従来より研究されている分野であり、代表的なライブラリを使用することで実サービス上でも安定度の高い稼働を実現できます。 上図のようにグノシーにはエンタメ、スポーツのような様々なタブがあります。 これらタブにニュース記事を配置するときにテキスト分類が活躍します。 エンタメ、ス

                                                          BERTによるテキスト分類 - Gunosyデータ分析ブログ
                                                        • 超高精度で商用利用可能な純国産の日本語音声認識モデル「ReazonSpeech」を無償公開 - Reazon Human Interaction Lab

                                                          「ReazonSpeech」とは¶ 「ReazonSpeech」は、レアゾン・ヒューマンインタラクション研究所が開発した高精度な音声認識モデルを中心とするプロダクト群で、それぞれ以下のような特徴があります。 ReazonSpeech音声認識モデル: OpenAI Whisper※に匹敵する高精度な日本語音声認識モデル。商用利用可 ReazonSpeechコーパス作成ツール: TV録画データ等から音声コーパスを自動抽出するソフトウェアツール。商用利用可 ReazonSpeech音声コーパス: 世界最大19,000時間の高品質な日本語音声認識モデル学習用コーパス いずれも無償にて公開 [図] ReazonSpeech音声認識モデル使用例¶ [図] スマホの通話内容をReazonSpeechを使ってリアルタイムで自動文字起こししてslackに記録する例¶ 開発の背景¶ 近年、深層学習を用いた音声

                                                          • 感情分析でニュース記事のネガポジ度合いをスコア化する - Qiita

                                                            はじめに 文章の感情分析に挑戦したのでその内容をまとめます。 今回は公開されているニュースコーパスを材料にし、各記事のネガポジ度合いのスコア化に試みます。 参考 感情分析の実装に当たって下記を使用、参考にさせていただきました。 単語感情極性対応表 日本語評価極性辞書 感情分析とは何か 感情分析概要 感情分析とは様々なテキスト情報をテキストマイニングや機械学習の技術を用いて、その記述内容の感情を分析する手法です。ポジティブorネガティブの1軸の分析が最もオーソドックスな印象ですが、より細かい感情の分析に踏み込んでいるものもあります。 感情分析の方法 感情分析において最も一般的なのは文章に含まれる単語に着目する方法で、ポジティブ(ネガティブ)な文面にはそれ特有の単語が含まれるはずという考えに基づいています。そのような特定の単語を集めたリストを極性辞書と呼び、今回の感情分析ではこの極性辞書を用い

                                                              感情分析でニュース記事のネガポジ度合いをスコア化する - Qiita
                                                            • darts-cloneを使って最長一致法で分かち書きしてみる - 株式会社ホクソエムのブログ

                                                              ホクソエムサポーターの白井です。 呪術廻戦をみて喜久福が食べたくなりました *1。 今回は形態素解析について深堀りしてみます。 日本語の自然言語処理において、形態素解析は必ずといっていいほど通る道です。 形態素解析を必要としないSentencePieceのような深層学習向けのtokenizerも出現していますが、品詞単位で分割する形態素解析が重要であることは変わりありません。 そんなこんなで、『実践・自然言語処理シリーズ2 形態素解析の理論と実装』 (以降「形態素解析本」と表記)を読んでいます。 リンク先の目次を見て分かるとおり、基礎の部分から実装まで説明されている本です。 今回は4章で紹介されている darts-clone を使って、精度は粗いが高速で分かち書きができる最長一致法で、どれぐらい分かち書きが可能かを検証します。 事前知識・辞書引き darts-cloneを使ってみる 単語辞

                                                                darts-cloneを使って最長一致法で分かち書きしてみる - 株式会社ホクソエムのブログ
                                                              • TensorFlow Recommenders と Vertex AI Matching Engine によるディープ リトリーブのスケーリング | Google Cloud 公式ブログ

                                                                TensorFlow Recommenders と Vertex AI Matching Engine によるディープ リトリーブのスケーリング ※この投稿は米国時間 2023 年 4 月 20 日に、Google Cloud blog に投稿されたものの抄訳です。 以前のブログ投稿で、Google Cloud でレコメンデーション システムを実装する方法として、(1)Recommendations AI によるフルマネージド ソリューション、(2)BigQuery ML での行列分解、(3)Two-Tower エンコーダと Vertex AI Matching Engine を使用したカスタムのディープ リトリーブ手法の 3 つを紹介しました。このブログ投稿では、3 つ目の選択肢について詳しく説明し、プレイリストのレコメンデーション システムを構築するために Vertex AI でエンド

                                                                  TensorFlow Recommenders と Vertex AI Matching Engine によるディープ リトリーブのスケーリング | Google Cloud 公式ブログ
                                                                • Common Crawlから作る大規模日本語コーパスとその前処理(Mixtral 8x7Bを語彙拡張継続事前学習 Part2) - ABEJA Tech Blog

                                                                  ABEJAでデータサイエンティストをしている服部です。 ABEJAは国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が公募した「ポスト5G情報通信システム基盤強化研究開発事業/ポスト5G情報通信システムの開発」に当社提案の「LLMの社会実装に向けた特化型モデルの元となる汎化的LLM」に採択されたことを受け、LLMの事前学習を実施しました。 その中でモデルの学習だけでなく、学習に欠かせない大規模日本語言語コーパスを作りました。データセットのサイズとしては、語彙拡張前のMixtral Tokenizerで約400Bほどのものです。 特にその中で大部分を占めるCommon Crawlをベースとしてデータセットを作った過程について解説します。 データセットの概要 Common Crawlについて warcとwet データセット作成方針 前処理の流れ 1. 日本語の簡易判定、w

                                                                    Common Crawlから作る大規模日本語コーパスとその前処理(Mixtral 8x7Bを語彙拡張継続事前学習 Part2) - ABEJA Tech Blog
                                                                  • 【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa

                                                                    Abstract• Transformer モデルをテキスト生成タスクで使用する場合、計算コストに難がある • 計算コストを抑えつつ Transformer の予測性能を活かすために、Positional Encoding を LSTM に置き換えた LSTM+Transformer モデルを考案 • 生成にかかる時間を Transformer の約 1/3(CPU 実行時)に抑えることができた はじめにTransformer は現在の自然言語処理分野における代表的な深層学習モデルの1つです。さまざまなベンチマークを総なめにした Google の BERT とその派生系 (XLNet, ALBERT, etc.) や、OpenAI の GPT-2 など、最近の研究のベースにあるのが Transformer です。 Transformer の特徴として、LSTM などの従来の RNN にあっ

                                                                      【ディープラーニング自由研究】LSTM+Transformer モデルによるテキスト生成|tanikawa
                                                                    • (Part 1) tensorflow2でhuggingfaceのtransformersを使ってBERTを文書分類モデルに転移学習する - メモ帳

                                                                      現在、NLPの分野でも転移学習やfine-tuningで高い精度がでる時代になっています。 おそらく最も名高いであろうBERTをはじめとして、競ってモデルが開発されています。 BERTは公式のtensorflow実装は公開されてありますが、画像分野の転移学習モデルに比べると不便さが際立ちます。 BERTに限らず、公式のtensorflow実装は難解で、tf.kerasの学習済みモデルに関してもほとんど画像のモデルしかないです。 ただし、pytorch用のライブラリにpytorch-transformersという有用なものがありまして、 BERT, GPT-2, RoBERTa, DistilBert, XLNetなどの多言語学習済みモデルが利用可能で、カスタマイズもしやすいということで有名でした。 このライブラリが名前をかえてtensorflow2に対応してくれました。 Transform

                                                                        (Part 1) tensorflow2でhuggingfaceのtransformersを使ってBERTを文書分類モデルに転移学習する - メモ帳
                                                                      • Word2Vecを理解する - Qiita

                                                                        はじめに 今や自然言語処理の定番手法となっているWord2Vecについて勉強したことをまとめました。 そのアルゴリズムの概要を整理しライブラリを用いてモデルを作成しています。 参考 Word2Vecを理解するに当たって下記を参考にさせていただきました。 ゼロから作るDeep Learning ❷ ―自然言語処理編 斎藤 康毅 (著) 絵で理解するWord2vecの仕組み Efficient Estimation of Word Representations in Vector Space (元論文) gensimのAPIリファレンス Word2Vec概要 下記ではWord2Vecの前提となっている自然言語処理の考え方について記載しています。 単語の分散表現 単語を固定長のベクトルで表現することを「単語の分散表現」と呼びます。単語をベクトルで表現することができれば単語の意味を定量的に把握す

                                                                          Word2Vecを理解する - Qiita
                                                                        • 現代短歌のテキストマイニング―𠮷田恭大『光と私語』を題材に|いぬのせなか座|note

                                                                          英語圏では、自然言語処理の技術を実作の助けになるかたちで応用する学術研究が盛んです。日本語圏にも、半世紀以上に渡る、計量文体学や日本語コーパス構築の積み重ねがあります。それらの手… もっと読む

                                                                            現代短歌のテキストマイニング―𠮷田恭大『光と私語』を題材に|いぬのせなか座|note
                                                                          • ノンプログラミングでBERT,Word2Vec,tf-idf,BM25を試す|MatrixFlow

                                                                            こんにちは! 株式会社MatrixFlowのMatrixFlowチームです。 今回はMatrixFlow バージョン0.3.8で自然言語処理のアルゴリズムを大きく増やしたので、使ってみたいと思います。 まず、今回増やしたアルゴリズムですが、BERTとWord2VecとBM25+を使えるようにしました。 それぞれの解説を軽くしたいと思います。 BERTとはTransformerという手法を使ったDeep Learningのモデルです。 2018の10月にGoogleの研究チームが発表し、2020年7月の現在では5000近くの論文で引用されています。文章読解のベンチマーク「SQuAD 1.1」で人間の精度を初めて超えたことで話題になりました。また特定のタスクだけでなく多種類のタスクで最高精度を出したのも業界を驚かせました。 MatrixFlowは内部では「HuggingFace」のモジュールを

                                                                              ノンプログラミングでBERT,Word2Vec,tf-idf,BM25を試す|MatrixFlow
                                                                            • 言語学な人々 Advent Calendar 2022 - Adventar

                                                                              言語学をやっている,言語学が好き,言語が好き,言語に興味がある人達が言語に関する何かを書きます(21年に書いた趣旨説明)。例えば… 気になる言葉 研究の紹介 ツール・コーパスなどの紹介 本の紹介 調査でのエピソード その他,言語にまつわるエピソード,エッセイ 2021年のカレンダーも多数執筆していただきました。Twitter等で感想などを書くときは #言語学な人々 を付けてくれると嬉しいです。ちなみに番外編?もあります。

                                                                                言語学な人々 Advent Calendar 2022 - Adventar
                                                                              • 【学習セット用意編】RVCを用いたリアルタイムボイスチェンジを1から解説してみる|omiz

                                                                                はじめにこの記事は【準備編】RVCを用いたリアルタイムボイスチェンジを1から解説してみるの続編です。まだ読んでない人は準備編から見てね。 この記事で紹介している内容に関して私は一切の責任を負いません、自己責任でお願いします。また、声には著作権・肖像権が関係しているので、トラブルになるようなことはお控えください。 ①学習セットの条件 ②音声の加工 ③加工した音声を分割する ④wavファイルを書き出す ①学習セットの条件条件は、ノイズが少ない数秒間の発話音声(.wav)です。 理想はITAコーパスのような、ノイズのない数秒で区切られた音声ですが、用意する難易度が高いです。 なので、この記事ではBGMの無い数分から数十分の音声から作る方法を紹介します。 追記 だだぱんさんがBGM消し去るツールの記事書いてくれました。 ②音声の加工Audacity v2.4.2を開きます。 でてきた画面に用意した

                                                                                  【学習セット用意編】RVCを用いたリアルタイムボイスチェンジを1から解説してみる|omiz
                                                                                • IoTプロジェクトで使えるデータ可視化サービスまとめ – ツクレル – 自分自身のためにプログラミングしよう

                                                                                  IoTプロジェクトで良くあるのが、センサーデータを定期的にクラウドにアップロードすると言った処理です。その際、単にデータベースに蓄積するだけでは意味がありません。数値データであればグラフに可視化されてこそ意味があると言えるでしょう。 さらにIoTの場合、データはシームレスに送られてきます。そうしたデータにも対応できるストリーミングなグラフ描画に対応したサービスを紹介します。 Ambient – IoTデーター可視化サービス 指定されたURLにデータを送るだけで可視化されます。細かな初期設定も不要なので、すぐに使いこなせるでしょう。グラフの例です。 Ambient – IoTデーター可視化サービス SORACOM Harvest SORACOM HarvestはSORACOM SIMから送られてきたデータをグラフに可視化します。SIMが認証キーになるので、別途認証情報を用意する必要がありませ

                                                                                    IoTプロジェクトで使えるデータ可視化サービスまとめ – ツクレル – 自分自身のためにプログラミングしよう