並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 1370件

新着順 人気順

gpt-2の検索結果361 - 400 件 / 1370件

  • Elixirで機械学習に初挑戦⑥:いま、Elixir AI・MLで何が出来る?→ElixirでAI・MLを構築するメリット→2023年にElixirで攻略する領域 - Qiita

    Elixirで機械学習に初挑戦⑥:いま、Elixir AI・MLで何が出来る?→ElixirでAI・MLを構築するメリット→2023年にElixirで攻略する領域PythonElixir機械学習fukuoka.ex この記事は、Elixir Advent Calendar 2022 8の22日目です 昨日は、@RyoWakabayashi さんで「Livebook から Amazon DynamoDB の NoSQL データベースを操作する」でした piacere です、ご覧いただいてありがとございます この2年間で、Elixirの機械学習環境が凄まじく発展し、プロダクションに実戦投入しても問題無いフェーズに入ったので、「Eixirで機械学習に初挑戦」をテーマにシリーズコラムをお届けします 入門者向けに「機械学習とは何か?」や、機械学習の中で出てくる数々のキーワード解説もしていきますので、

      Elixirで機械学習に初挑戦⑥:いま、Elixir AI・MLで何が出来る?→ElixirでAI・MLを構築するメリット→2023年にElixirで攻略する領域 - Qiita
    • GitHub - microsoft/DialoGPT: Large-scale pretraining for dialogue

      This repository contains the source code and trained model for a large-scale pretrained dialogue response generation model. The human evaluation results indicate that the response generated from DialoGPT is comparable to human response quality under a single-turn conversation Turing test. The repository is based on huggingface pytorch-transformer and OpenAI GPT-2, containing data extraction script

        GitHub - microsoft/DialoGPT: Large-scale pretraining for dialogue
      • 48個の LLM を用いた Instruction データセットの品質スコアリング - Qiita

        LLM Advent Calendar 2023について こんにちは、LLM Advent Calendar 2023を企画しましたkunishouです。今年も気づけばあっという間に12月ですが皆さんいかがお過ごしでしょうか?ちょうど1年と1日前の2022年11月30日にChatGPTが世界に公開されたのは記憶に新しいですが、それを皮切りに世の中の機械学習/自然言語処理周りの技術トレンドも大きく変化した1年だったと感じました。私はちょうど1年ほど前に「オープンソースAIを用いた音声対話ロボットの作成」というBERTと音声対話する内容の記事を投稿しましたが1年経ち改めて読み返すとかなり陳腐な内容に見えてしまい、技術の進歩の速さに非常に驚いています。実際、技術の進歩は早く、この1年はLLM(Large Language Model)に関連する新しい技術や日本語対応したLLMが日々公開され、常に

          48個の LLM を用いた Instruction データセットの品質スコアリング - Qiita
        • はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場

          今回は DeepSpeed-Chat による RLHF のご紹介です。正直、データセットや計算資源の都合もあり、とりあえず動かしてみました!的な話にはなりますが、RLHF の効果が実際に確認できるか見てみたいと思います。 1. はじめに 今回は DeepSpeed-Chat1 を使って RLHF を試してみたいと思います。RLHF は Reinforcement Learning from Human Feedback の略で文字通り「人からのフィードバックを用いた強化学習」ということですね。OpenAI が InstructGPT(ChatGPT の元になったモデル)2 で使ったことで注目された手法になります。 LLM がらみで何か記事にしたいと思いつつ、日々新たな LLM が発表されている昨今に、隔月&内容が実時間から月単位で遅れ気味wの本連載です。 「どうしたもんかな。。。」と悩みに

            はじめての自然言語処理 DeepSpeed-Chat による RLHF の紹介 | オブジェクトの広場
          • チャットできるAI、ChatGPTが「そこまですごくない」理由。見えてしまった限界(BUSINESS INSIDER JAPAN) - Yahoo!ニュース

            イーロン・マスクやマイクロソフトが出資するOpenAIが発表した、チャットできるAI「ChatGPT」が注目を集めている。公開からわずか6日目にして利用者が「100万ユーザを突破した」とサム・アルトマンCEOは公表した。 【全画像をみる】チャットできるAI、ChatGPTが「そこまですごくない」理由。見えてしまった限界 すごいという気もするが、話題の割にあんまりという印象もある。 どんな質問にもそれっぽく答えてくれるのだが、同時にChatGPTを持ち上げすぎるのはいつものように危険だと、「AI」の研究・開発をしてきた経験から筆者は考える。 AI研究者は知っているOpenAIの「ビッグマウス」というのも、OpenAIはテキスト生成モデルの「GPT-2」の頃から「人間を超えたAIを開発してしまったのであまりにも危険」などという誇大広告とも言える主張を繰り返してきた「前科」がある。彼らが「あまり

              チャットできるAI、ChatGPTが「そこまですごくない」理由。見えてしまった限界(BUSINESS INSIDER JAPAN) - Yahoo!ニュース
            • 新たなオープンソースのAIコード生成モデル「PolyCoder」--カーネギーメロン大

              印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 複数のプログラミング言語を用いて訓練された自動コード生成モデル「PolyCoder」をカーネギーメロン大学(CMU)のリサーチャーが公開している。このモデルは特にC言語でのコード生成に長けているという。 リサーチャーは、人工知能(AI)を用いたコード生成という分野の研究が、オープンソースのPolyCoderによって民主化されていくことに期待している。この分野の研究はこれまでのところ、Alphabet傘下のDeepMindやOpenAIといった、豊富な資金力を有する企業によるものが主流となっている。 今回発表された論文には、「コード分野における大規模な言語モデル(LM)では最近、自然言語による記述からコードの補完や合成を実行するという処理

                新たなオープンソースのAIコード生成モデル「PolyCoder」--カーネギーメロン大
              • OpenAI の ChatGPT がセンター試験の英語を受けたら何点ぐらい取れるか試してみた

                2022年11月にOpenAIから“ChatGPT: Optimizing Language Models for Dialogue”というタイトルでChatGPTのアプリケーションが公開されました。 かなり話題になっているので知っている方や実際に使ったことがある方も多いかもしれませんが、ChatGPTとは、AI、特に自然言語処理の技術を使った対話のためのシステムといったところです。 今回はそのChatGPTの概要を簡単に説明し、ChatGPTが大学センター試験の英語を解いたら何点になるかを検証したいと思います。 私自身センター試験を受けたのは25年前ぐらいで、試験問題を解いたりする気にはならないので、基本的に答えが合っているか?だけを見ていきます。 深堀りしないので、そこはご容赦ください。 あと、下線を表現できないのどの問題があるので、ある程度質問の仕方を調整しています。 ですので厳密な

                  OpenAI の ChatGPT がセンター試験の英語を受けたら何点ぐらい取れるか試してみた
                • AIに絵本を描いてもらった - ニートの言葉

                  どうもこんにちは、あんどう(@t_andou)です。 最近『何かを生成するAI』に興味があり、触ってみました。 しかし、ただ「試してみた」だけでは面白みが無いので、何か作品を作りたいと考え、絵本を描いてもらうことにしました。 まずは完成作品をご覧ください。 youtu.be 違和感がすごいですね。 お気づきになった方も多いかとは思いますが、実はこちらの作品 絵だけじゃなく、物語、読み上げ音声、BGM、全てがAIによる生成物です。 完成度はまだ低いものの、あと数年もすれば違和感の無い作品が作れるようになりそうな予感がしますね。 使用した技術 全てを把握しているわけではないため自分用のメモ程度になりますが、使った技術を記載しておきます。 絵 絵にはVQGANとCLIPという技術を使っています。 これは凄くて、描いて欲しいものを文章で伝えると描いてくれます。 しかも、どんな画風で描いて欲しいかま

                    AIに絵本を描いてもらった - ニートの言葉
                  • AudioLDM: Text-to-Audio Generation with Latent Diffusion Models - Speech Research

                    AudioLDM 2: Learning Holistic Audio Generation with Self-supervised Pretraining Haohe Liu 📮,1, Qiao Tian2,Yi Yuan1, Xubo Liu1, Xinhao Mei1,Qiuqiang Kong2 Yuping Wang2, Wenwu Wang1, Yuxuan Wang2, Mark D. Plumbley1 1CVSSP, University of Surrey, Guildford, UK 2Speech, Audio & Music Intelligence (SAMI), ByteDance 📮Corresponding author 😃 For text-to-audio generation, we generated a total of 350 audi

                    • BERT Word Embeddings Tutorial · Chris McCormick

                      BERT Word Embeddings Tutorial 14 May 2019 In this post, I take an in-depth look at word embeddings produced by Google’s BERT and show you how to get started with BERT by producing your own word embeddings. This post is presented in two forms–as a blog post here and as a Colab notebook here. The content is identical in both, but: The blog post format may be easier to read, and includes a comments s

                      • chatGPTをローカル環境で構築できる?その方法を解説 | kuzguz.net

                        人工知能の自然言語処理技術の発展により、多くの企業や研究者がchatGPTを利用しています。ローカル環境でchatGPTを構築することを検討する人も増えていますが、高度な技術が必要であり、十分なハードウェアリソースも必要です。 本記事では、chatGPTの構築方法や活用法を紹介します。 ただし、構築方法については大まかなことしか触れておらず、実際の構築作業にはより詳細な知識と経験が必要となります。 chatGPTの構築方法 ローカル環境でchatGPTを構築する一例の、基本的な手順を記します。 必要な環境とツール まず、以下の環境とツールが必要です。 Python 3.6以降 Git CUDA(GPUを利用する場合) cuDNN(GPUを利用する場合) ライブラリのインストール 次に、Pythonのライブラリをインストールします。 $ git clone https://github.co

                        • めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート

                          OpenAIの「ChatGPT」やマイクロソフトの「Copilot」、グーグルの「Gemini」など、対話型AIの心臓部である大規模言語モデル(LLM)。だがその仕組を理解するにはプログラミングの知識が不可欠だ。 「Spreadsheets are all you need.ai」というウェブサイトでは、驚くことにExcelのスプレッドシートを使って、LLM(GPT2)がどのように動作するかを再現している。 GPT-2をローカルで再現 同サイトで提供されている「Spreadsheets-are-all-you-need」は、大規模言語モデル(LLM)の動きを再現するExcelシートだ。 ChatGPTのように、「Mike is quick. He moves(マイクは素早い。彼は◯◯動く)」とセルに入力するとチャット型AIのように「quickly(素早く)」と続きを出力してくれるという。

                            めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート
                          • Building Custom Deep Learning Based OCR models

                            OCR provides us with different ways to see an image, find and recognize the text in it. When we think about OCR, we inevitably think of lots of paperwork - bank cheques and legal documents, ID cards and street signs. In this blog post, we will try to predict the text present in number plate images. What we are dealing with is an optical character recognition library that leverages machine learning

                              Building Custom Deep Learning Based OCR models
                            • ChatGPTを使い始める前に理解しておく情報や用語など | DevelopersIO

                              Introduction ChatGPTは自然言語処理(NLP)を用いて対話を行うAIであり、 人間と話をするように自然な会話ができるサービスです。 2022年11月に公開されてから 毎日のように話題になっています。 私も毎日のようにChatGPTを使って 仕事の手助けをしてもらっているのですが、 まだまだ使いこなせていませんし、 その周りの技術や関連サービスもよく把握できていません。 なので、本稿にてChatGPTに関連する基本的な情報や用語について あらためて確認し、新しいChatGPT関連の情報が出たときに 理解しやすくなるよう準備しておきます。 なお、ここに記述してある情報は2023年5月時点でのものなので、 ご注意ください。 機械学習関連 ChatGPTの前に、まずは前提となる機械学習や深層学習関連について 簡単に説明します。 詳細については参考になる情報がたくさんあるのでそのへ

                                ChatGPTを使い始める前に理解しておく情報や用語など | DevelopersIO
                              • 巨大言語モデルに潜む大きなリスク?!巨大言語モデルから情報が流出する脆弱性を示した重要な論文の紹介!

                                3つの要点 ✔️ GPTシリーズのような汎化性能の高いモデルでさえ訓練データを記憶してしまい、それが情報流出につながる ✔️ GPT-2に実際に攻撃をしかけ、最大67%の精度で訓練データを抽出することに成功している ✔️ 大きなモデルほど訓練データを記憶する能力が高く、昨今のモデルを巨大化させる風潮に一石を投じた重要な論文となっている Extracting Training Data from Large Language Models written by Nicholas Carlini,Florian Tramer,Eric Wallace,Matthew Jagielski,Ariel Herbert-Voss,Katherine Lee,Adam Roberts,Tom Brown,Dawn Song,Ulfar Erlingsson,Alina Oprea,Colin Raff

                                  巨大言語モデルに潜む大きなリスク?!巨大言語モデルから情報が流出する脆弱性を示した重要な論文の紹介!
                                • GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models

                                  CTranslate2 is a C++ and Python library for efficient inference with Transformer models. The project implements a custom runtime that applies many performance optimization techniques such as weights quantization, layers fusion, batch reordering, etc., to accelerate and reduce the memory usage of Transformer models on CPU and GPU. The following model types are currently supported: Encoder-decoder m

                                    GitHub - OpenNMT/CTranslate2: Fast inference engine for Transformer models
                                  • 【自然言語処理】日本語GPT-2モデルをファインチューニングして文章生成をやってみる

                                    はじめに 2022年11月にOpenAIが公開したchatGPTの反響が凄いですね。 公開6日目にして100万人がユーザー登録したとか。 今のところは、無料で使うことができますが、いずれは利用が制限されるかもしれませんね。 ここでは、chatGPTよりは精度が落ちますが、無料で使うことができて、日本語に特化した事前学習済みモデルもあるGPT-2を採り上げ、文章生成にチャレンジしたいと思います。 具体的にはrinna社が開発したGPT-2モデルを使用します。 事前学習済みモデルだけでもそれなりの文章を生成できますが、せっかくなので、特定のドメインでファインチューニングさせてみて、文章生成をしていきたいと思います。 rinna社の日本語GPT-2の特徴 言語モデルは、会話や文章の「人間が使う言葉」を確率としてモデル化したものです。優れた言語モデルとは、確率を正確に推定できるものを指します。例え

                                      【自然言語処理】日本語GPT-2モデルをファインチューニングして文章生成をやってみる
                                    • BERTによる自然言語処理

                                      従来、 自然言語処理 における Deep Learning アルゴリズムと言えば、 LSTM や GRU といった RNN (Recurrent Neural Network) でした。ところが、2017年6月、 "Attention Is All You Need" という強いタイトルの論文が Google から発表され、機械翻訳のスコアを既存の RNN モデル等から大きく引き上げます。論文”Transformer: A Novel Neural Network Architecture for Language Understanding”において、RNN や CNN を使わず Attention のみ使用したニューラル機械翻訳 Transformer が提案された。 BERT(Bidirectional Encoder Representations from Transformer

                                      • NeurIPS 2022 参加報告 後編

                                        はじめに プロダクトオーナー兼機械学習エンジニアの本田志温です。 弊社高橋による前回の記事「NeurIPS 2022 参加報告 前編」 に引き続き、同会議の参加報告をします。本記事では、個人的に気になった論文(計53本)をいくつかのカテゴリで分類し、カテゴリごとに研究トレンドを大づかみにできるような形で書きます。特に重要だと感じた論文は詳しめに取り上げます。 会場の様子 また、本記事に関心をお持ちになった方は以下の過去記事もお楽しみいただけるのではないかと思います。ぜひ合わせてご覧ください。 AI開発の新たなパラダイム「基盤モデル」とは NeurIPS 2021 参加報告 前編 NeurIPS 2021 参加報告 後編 深層学習の原理 深層学習は様々なタスクで高い性能を発揮することが経験的に知られていますが、「なぜうまくいくのか」という原理についてわかっていることは多くありません。そのため

                                          NeurIPS 2022 参加報告 後編
                                        • 画像の半分から残りを生成、オープンAIがGPT-2を応用

                                          オープンAIは、機械学習技術を利用して、画像の半分から残り半分を予測し、1つの画像を完成させられるAIシステムを開発した。以前に開発した驚くほど自然な「フェイクニュース」を量産できる文章作成ツールの画像版だ。 by Karen Hao2020.07.22 24 18 6 6 サンフランシスコに拠点を置く非営利の研究機関オープンAI(OpenAI) は2019年2月、もっともらしい英語の文章を書ける人工知能(AI)システムを発表した。「GPT-2」と呼ばれるこのAIシステムに文章や段落の冒頭部分を入力すると、AIが文章の続きを勝手に考えてくれるというものだ。GPT-2はエッセー程度の長さの文章まで生成でき、その内容はまるで人間が書いた文章のように一貫性がある。 そして今、オープンAIは、GPT-2と同じアルゴリズムに、画像の一部を与えたら何が起きるのかを探っている。重大な影響力と可能性に満ち

                                            画像の半分から残りを生成、オープンAIがGPT-2を応用
                                          • Transformer (機械学習モデル) - Wikipedia

                                            Transformer(トランスフォーマー)は、2017年6月12日にGoogleの研究者等が発表した深層学習モデルであり、主に自然言語処理 (NLP)の分野で使用される[1]。 自然言語などの時系列データを扱って翻訳やテキスト要約などのタスクを行うべく設計されているのは回帰型ニューラルネットワーク (RNN)と同様だが、Transformer の場合、時系列データを逐次処理する必要がないという特徴がある。たとえば、入力データが自然言語の文である場合、文頭から文末までの順に処理する必要がない。このため、Transformer では 回帰型ニューラルネットワークよりもはるかに多くの並列化が可能になり、トレーニング時間が短縮される[1]。 その導入以来、Transformer モデルは自然言語処理の多くの問題に取り組む上で広く選択されており、 Long Short-term Memory(LS

                                            • OpenXLA is available now to accelerate and simplify machine learning

                                              The latest news from Google on open source releases, major projects, events, and student outreach programs. ML development and deployment today suffer from fragmented and siloed infrastructure that can differ by framework, hardware, and use case. Such fragmentation restrains developer velocity and imposes barriers to model portability, efficiency, and productionization. Today, we’re taking a signi

                                                OpenXLA is available now to accelerate and simplify machine learning
                                              • OpenAIがGPT-3を強化したテキスト生成APIをリリース | AI専門ニュースメディア AINOW

                                                イーロン・マスクらが共同設立したAI研究を行う非営利組織「Open AI」はテキスト生成AIモデルにアクセスできるAPIをリリースすると発表しました。 このAPIはテキストを入力するとテキストを出力するもので、汎用的なインターフェースを通して、ユーザは事実上あらゆる英語のタスクを試すことができるといいます。このAPIを介すことで、自社サービスに統合することが可能になります。 このAPIでは、与えられたパターンにマッチするように試行しながら、テキストを補完し、データを返します。また、特定のタスクの精度を向上させるために、ユーザが提供したフィードバックをもとに学習することが可能です。 このAPIは、OpenAIがリリースし話題になった「GPT-3」のモデルをさらに向上させ、また常に技術アップデートが行われているといいます。 「GPT-3」とは、人間と同程度の精度で文章生成が可能な「GPT-2」

                                                  OpenAIがGPT-3を強化したテキスト生成APIをリリース | AI専門ニュースメディア AINOW
                                                • How to generate text: using different decoding methods for language generation with Transformers

                                                  How to generate text: using different decoding methods for language generation with Transformers Note: Edited on July 2023 with up-to-date references and examples. Introduction In recent years, there has been an increasing interest in open-ended language generation thanks to the rise of large transformer-based language models trained on millions of webpages, including OpenAI's ChatGPT and Meta's L

                                                    How to generate text: using different decoding methods for language generation with Transformers
                                                  • 【祝!!無限増殖】寝てる間に話題のStable Diffusionが無限に動く仕組みを作ってみた - Qiita

                                                    こんにちは! Stable Diffusionネタです! サマリ 画像自動生成とテキスト自動生成を組み合わせて、勝手に無限に画像を作る仕組みを作ってみました。 結果 昨日からずっと画像が増殖を続けています。具体的にはこんな感じ。 stable Diffusionとは いい感じにテキストから画像を作ってくれるもので、最近モデルが公開されていて界隈で話題のものです。 引用: https://gigazine.net/news/20220824-stable-diffusion-google-colaboratory/ アイデア 散歩していると「テキストから画像が作るAIと、画像からテキストを作るAIを繋げれば、永久機関ができるのでは?」と閃いたのでやってみました。 テキストから画像が作れるAIと、画像からテキストを作るAIを繋ぐイメージ 課題 これだといろんな猫は無限に作れそうですが、それでは

                                                      【祝!!無限増殖】寝てる間に話題のStable Diffusionが無限に動く仕組みを作ってみた - Qiita
                                                    • セキュリティ診断・検査のGMOサイバーセキュリティ byイエラエ

                                                      GMOサイバーセキュリティ byイエラエ株式会社は国内トップクラスのホワイトハッカーが多数在籍するサイバーセキュリティの会社です。攻撃手法に関する豊富な知識と最先端の技術を持つホワイトハッカーが仮想敵となり、お客様の抱えるセキュリティ上の問題の可視化と課題解決をサポートします。 「誰もが犠牲にならない社会を創る」をミッションとして掲げ、デジタルネイティブの時代を生きるすべての人が安全に暮らせるインターネット社会創りに貢献します。

                                                        セキュリティ診断・検査のGMOサイバーセキュリティ byイエラエ
                                                      • LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減

                                                        LoRA(ローラ、ロラ、Low-Rank Adaptation)とはLLM(大規模言語モデル)や画像生成AI(人工知能)を効率良く調整する手法の1つだ。ある特定のタスクやジャンルに寄せた出力をするようにカスタマイズする「ファインチューニング」を行う際に用いる。 具体的にはLLMのパラメーターを固定したまま、別のパラメーターを「横付け」してその部分だけファインチューニングする。オプションパーツのようなイメージだ。 例えば文章を生成するAIに、ある特定の作者のような文体で文章を生成させたいとする。この場合、LLMのパラメーターを全てファインチューニングするには大量の計算が必要だ。そこで前述の手法を用いると、計算コストや、計算するためのGPU(画像処理半導体)に関するコストなどを現実的な範囲に抑えることができる。 この他にも「保険業界特有の専門用語を使った文章を生成したい」「この作者のような絵柄

                                                          LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減
                                                        • 「Transformers」を使って自然言語処理を試したり「やばい」実験をした話。 - CCCMKホールディングス TECH Labの Tech Blog

                                                          こんにちは、技術開発ユニットの三浦です。 「続けること」を増やすことをこの頃意識しています。なるべく毎日続けられる小さな習慣を、少しずつ増やしていきたいなぁと。今は短い英語の文章を、声に出してノートに書き写すことを習慣化しようとしています。 さて、前回深層学習のモデル「Transformer」について調べたことをまとめました。 techblog.cccmk.co.jp 今回はこのTransformerを実際に使ってみたい、ということで、Transformerベースの色々なモデルを使うことが出来るライブラリ「Transformers」を調べて使ってみた話をご紹介させていただきます。 Transformers Transformersはhuggingfaceが公開している機械学習、特に自然言語処理を主とした深層学習向けのライブラリです。 huggingface.co 2022年2月現在、バック

                                                            「Transformers」を使って自然言語処理を試したり「やばい」実験をした話。 - CCCMKホールディングス TECH Labの Tech Blog
                                                          • GPT-1の仕組みを解説!

                                                            皆さんこんにちは。近年、画像生成AIやテキスト生成AIなどの多数の生成AIが注目を浴びています。そんなか、2022年の末から2023年の初めにかけて多くの世間を驚かせたテキスト生成AIであるChatGPTはまだ記憶に新しいでしょう。本記事では、そんなChatGPTの技術の元となっているGPTの元祖、GPT-1について解説していきます。 GPT-1の概要 GPT-1とは、OpenAIが2018年に公開した大規模言語モデル(LLM)です。Googleが2017年に発表したTransformerと呼ばれる機械学習モデルのデコーダ部分をベースにしたモデルで、BookCorpusと呼ばれる大規模なコーパスで事前学習されました。Transformerはエンコーダデコーダの形状をしており、その生成部分に該当するデコーダを事前学習しているため、Generative Pretrained Transform

                                                              GPT-1の仕組みを解説!
                                                            • AIモデルの排出量と電力消費量は暗号通貨をしのぐ?

                                                              AIモデルの排出量と電力消費量は暗号通貨をしのぐ?2023.04.07 16:006,931 Mack DeGeurin - Gizmodo US [原文] ( Kenji P. Miyajima ) そりゃ電力食うよね…。 AIチャットボット時代の到来によって、世界が予期せぬ方向へ転換する予感が大きくなってきましたが、それにともなう環境コストもかなり大きくなるかもしれません。 スタンフォード大学人間中心人工知能研究所が発表した報告書によると、OpenAIのChatGPTみたいなAIモデルの学習には、平均的なアメリカ家庭の数百年分もの電力が必要なのだそうです。 なかでも、OpenAIのシステムによる電力消費量とそれに伴う炭素排出量は圧倒的だったとのこと。 排出量も電力消費量も圧倒的なGPT-32022年における機械学習モデルと実例の炭素排出量推定値比較(単位: トン)Image: The

                                                                AIモデルの排出量と電力消費量は暗号通貨をしのぐ?
                                                              • 最近読んだ論文"Guiding Large Language Models via Directional Stimulus Prompting"についてまとめてみます。 - CCCMKホールディングス TECH Labの Tech Blog

                                                                こんにちは、CCCMKホールディングス TECH LABの三浦です。最近は暖かくなってきました。寒い冬に比べると雨が降る日が多くなりましたが、晴れた日は外を歩くととても気持ちがいいです。あっという間に雨の季節が来て外を歩くと汗びっしょりになる夏になってしまうので、それまでに今のちょうどいい気候を楽しんでおこうと思います。 最近はLarge Language Model(LLM)に関する情報を色々と調べています。LLMの情報を調べていると、これからこのLLMとどう付き合っていくのがいいんだろう、考えてしまいます。そんな中、最近読んだ論文で提案されているLLMへのアプローチがこれまでのPrompt Engineeringのものとは少し違い、とても興味深く感じました。今回はこの論文を読んだ内容についてまとめ、感じたことを書きたいと思います。 LLMを使ってみて感じていること LLM、主にGPT-

                                                                  最近読んだ論文"Guiding Large Language Models via Directional Stimulus Prompting"についてまとめてみます。 - CCCMKホールディングス TECH Labの Tech Blog
                                                                • Kaggle Data Science Bowl 2019 上位解法まとめ - Tak's Notebook

                                                                  https://www.kaggle.com/c/data-science-bowl-2019/ Data Science Bowl 2019 所感 上位陣に共通していたポイント 異なる点 1st Place Solution リンク Summary Validation Feature Feature Selection Model 2nd Place Solution リンク Summary Validation Feature Feature Selection Model Others 3rd Place Solution リンク Summary Validation Feature Feature Selection Model Others 4th Place Solution リンク Summary Validation Feature Model Others 7th Pl

                                                                    Kaggle Data Science Bowl 2019 上位解法まとめ - Tak's Notebook
                                                                  • T5? BERTSUM? 最近の要約言語モデルってどうなってるの? 最新言語モデルを比較してみた | 株式会社CyberOwl

                                                                    ROUGEと呼ばれるこの指標は要約の自動評価尺度であり、F1値で表されています。また、値が大きい方が精度が良いことを示しています。 ROUGE-Nスコアは正解ラベルの要訳文のN-gramのうちどれくらい出力文のN-gramが一致しているかを示します。 ROUGE-Lスコアは生成した要約文と正解ラベルの要訳文の中で最も長く一致している文字数はどのくらいかを示します。 ROUGEスコアだけ見るとPEGASUSモデルが優れていますが、実際に人間が見た時にどのように感じるでしょうか。 それでは次のセクションで実際に出力を確認してみましょう! 比較 CNBCの記事を使って出力される要約文を比較していきます。 TikTok owner ByteDance takes on Tencent after acquiring major mobile gaming studio また、目視で判断するための参

                                                                      T5? BERTSUM? 最近の要約言語モデルってどうなってるの? 最新言語モデルを比較してみた | 株式会社CyberOwl
                                                                    • GitHub - thunlp/PLMpapers: Must-read Papers on pre-trained language models.

                                                                      Semi-supervised Sequence Learning. Andrew M. Dai, Quoc V. Le. NIPS 2015. [pdf] context2vec: Learning Generic Context Embedding with Bidirectional LSTM. Oren Melamud, Jacob Goldberger, Ido Dagan. CoNLL 2016. [pdf] [project] (context2vec) Unsupervised Pretraining for Sequence to Sequence Learning. Prajit Ramachandran, Peter J. Liu, Quoc V. Le. EMNLP 2017. [pdf] (Pre-trained seq2seq) Deep contextuali

                                                                        GitHub - thunlp/PLMpapers: Must-read Papers on pre-trained language models.
                                                                      • The State of Transfer Learning in NLP

                                                                        Update 16.10.2020: Added Chinese and Spanish translations. This post expands on the NAACL 2019 tutorial on Transfer Learning in NLP. The tutorial was organized by Matthew Peters, Swabha Swayamdipta, Thomas Wolf, and me. In this post, I highlight key insights and takeaways and provide updates based on recent work. You can see the structure of this post below: The slides, a Colaboratory notebook, an

                                                                          The State of Transfer Learning in NLP
                                                                        • 2021 Top Trending Machine Learning Topics

                                                                          Thanks to insights from our ODSC West researchers, attendees, and instructors we’ve pulled together some of the trending machine learning topics of 2021. We’re excited to host some of the leading experts and top contributors in each of these topics. Here are a few of our top picks. MLOps Everywhere MLOps has been featured at ODSC since 2018, but it really took off in 2020. It seems every company i

                                                                            2021 Top Trending Machine Learning Topics
                                                                          • Microsoft、GPT-3をAzureで使える「Azure OpenAI Service」を招待制で開始

                                                                            Microsoft、GPT-3をAzureで使える「Azure OpenAI Service」を招待制で開始:Microsoft Ignite 米Microsoftは11月2日(現地時間)、オンラインイベント「Microsoft Ignite」で、大規模自然言語処理モデル「GPT-3」をクラウド上で利用できる「Azure OpenAI Service」を発表した。有害な目的で使われたり不要なものが生成されたりするのを防ぐため、まずは招待制で提供を開始する。 GPT-3は、Microsoftも出資する非営利の米AI研究企業OpenAIが開発し、Microsoftがライセンスを取得した大規模自然処理言語モデル。自然言語をソフトウェアのコードに変換したり、長文を短く要約したり、質問への回答を作成したりできる。 OpenAIは2019年に先代に当たる言語モデル「GPT-2」を発表した際、フェイクニ

                                                                              Microsoft、GPT-3をAzureで使える「Azure OpenAI Service」を招待制で開始
                                                                            • OpenAI's GPT-3 Language Model: A Technical Overview

                                                                              Notice GPT-2 1.5B is trained with 40GB of Internet text, which is roughly 10 Billion tokens (conversely assuming the average token size is 4 characters). So GPT-3 175B has a lower data compression ratio 300 / 175 = 1.71 in comparison to GPT-2 1.5G 10 / 1.5 = 6.66. This raises the question that, with this amount of parameters, whether the model functions by memorizing the data in the training and p

                                                                              • Deep Tabnine - The Official Tabnine Blog

                                                                                Update (August 19): We’ve released Tabnine Local, which lets you run Deep Tabnine on your own machine. TL;DR: Tabnine is an autocompleter that helps you write code faster. We’re adding a deep learning model which significantly improves suggestion quality. You can see videos below and you can sign up for it here. There has been a lot of hype about deep learning in the past few years. Neural network

                                                                                  Deep Tabnine - The Official Tabnine Blog
                                                                                • 個人開発者あんどう氏に聞く「AIを使い倒す」楽しさと、つくり続ける秘訣

                                                                                  ソフトウェアエンジニア あんどう 個人開発者。現在はフリーランスのソフトウェアエンジニア。 ブログ「ニートの言葉」で、プロダクト開発の過程を紹介している。2016年、ブログ「【プログラミング不要】ディープラーニング(h2o.ai)で株価予測をやってみた」で一躍話題に。代表作は競艇予想AI「みずはのめ」。 「エンジニアたるもの、新しい技術が出たらとりあえず触って、何かをつくって公開してみることが大事」と言われます。けれども、本業もある中でそれを続けるのは簡単ではありません。どうすれば継続的にアウトプットすることができるのでしょうか。 なにかと話題になっているAIに関して、まさにそれを体現しているのがフリーランスの開発者・あんどうさんです。2016年からずっと、競艇予想AI「みずはのめ」、コウメ太夫のネタっぽい言葉を生成する「コウメAI太夫」、リアルな人間のような3Dモデルで聴衆と会話し24時

                                                                                    個人開発者あんどう氏に聞く「AIを使い倒す」楽しさと、つくり続ける秘訣