並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 533件

新着順 人気順

*algorithmの検索結果321 - 360 件 / 533件

  • 自然言語処理初心者が「GPT2-japanese」で遊んでみた | 豆蔵デベロッパーサイト

    文章を楽に書きたい。 日常生活でそう思ったことはないでしょうか? 文章を書く機会は社会人だけでなく学生でも多いと思います。 報告書やメール、レポート課題、そして今読んでいるようなブログなどです。 その時に出だしは順調でも途中で詰まったり、表現がわからずにネットで調べたりして、ちっとも進まないということがよくあります。 そういった場合に続きの文章を書いてくれる、もしくは続きの候補を出してくれるシステムがあると非常に便利ですよね? 私もそういう楽をしたいために色々探ってみましたが、どうやら文章自動作成ツールを作るには「自然言語処理」というものを学ぶ必要がありそう……。 しかもそれを学ぶ上では数々の用語や知識が必要でなかなか難しそうでした。 楽になるためにはまずは勉強をしなくてはダメか、と諦めかけていたのですが、ネットの海を漂っていると事前学習済みのモデルがあることがわかりました。 そのひとつが

    • 自作AIがスーパーマリオ1-1をやっとのことでクリアした - Qiita

      はじめに 今更感満載ですが・・・ ↑ ↑ ↑ このマリオ君が ↑ ↑ ↑ こうなるように頑張った話! Gitは以下。環境構築の流れとかも以下を参照。 開発環境 プラットフォームとか Hyper-V Ubuntu18 Anaconda Python3.8 Tensorflow2.2.0など、Pythonライブラリ色々 (envs/conda_env.yaml参照) エミュレータ FCEUX 2.2.2 開発環境以外の動作確認済み環境 GPU on WSL2環境 WSL2 Ubuntu20 GPU環境 (cuda toolkit 10.2) それより上のレイヤは開発環境と同様 ⇒ 学習がCPUよりとても速かった。 あと、WSLなのでHyper-Vより軽量。 ここの詳細はメインとは逸れるので、末尾に記載。 マリオが動くまで AnacondaとエミュレータであるFCEUX 2.2.2の環境構築は終

        自作AIがスーパーマリオ1-1をやっとのことでクリアした - Qiita
      • GiNZAのja-ginza-electraモデルでELECTRAベースの単語ベクトルを使用できるようにする - OPTiM TECH BLOG

        はじめに R&Dチーム所属の伊藤です。相も変わらず自然言語処理と格闘する毎日を送っています。 今回は個人的にとても楽しみにしていたGiNZA v5の新モデルであるja-ginza-electraを使って、前後の文脈を加味した単語ベクトルを求められるようにするまでの手順をまとめました。 はじめに GiNZA v5について セットアップ モデルのロード + 文の解析方法 行いたいこと Contextualな単語ベクトル ELECTRAモデルの出力と単語ベクトルの計算 spaCyのUser hooksの追加 おわりに GiNZA v5について GiNZAはspaCyをベースにしたPythonの日本語向け自然言語処理ライブラリです。 形態素解析をはじめとして、固有表現抽出や品詞タグ付け、構文解析などを行うことが可能です。 このGiNZAですが、2021年8月26日に最新バージョンであるv5が公開さ

          GiNZAのja-ginza-electraモデルでELECTRAベースの単語ベクトルを使用できるようにする - OPTiM TECH BLOG
        • 結局Kaggleって何を得られるの?

          Discovery DataScience Meet up (DsDS) #1での登壇資料です。 ・なぜ自分がKaggleをしているのか ・普段Kagglerが多くいる職場で働いていく上で感じたこと ・Kaggleが実際どういう点で役に立つのか などを個人的な観点で話しました。 初級者・中級者向けの内容です。

            結局Kaggleって何を得られるの?
          • Pathways Language Model (PaLM): Scaling to 540 Billion Parameters for Breakthrou

            Philosophy We strive to create an environment conducive to many different types of research across many different time scales and levels of risk. Learn more about our Philosophy Learn more

              Pathways Language Model (PaLM): Scaling to 540 Billion Parameters for Breakthrou
            • Monitoring feature attributions: How Google saved one of the largest ML services in trouble | Google Cloud Blog

              Monitoring feature attributions: How Google saved one of the largest ML services in trouble An emergency in the largest MLOps at GoogleClaudiu Gruia is a software engineer at Google who works on machine learning (ML) models that recommend content to billions of users daily. In Oct 2019, Claudiu was notified by an alert from a monitoring service. A specific model feature (let us call this feature F

                Monitoring feature attributions: How Google saved one of the largest ML services in trouble | Google Cloud Blog
              • How to get meaning from text with language model BERT | AI Explained

                In this video, we give a step-by-step walkthrough of self-attention, the mechanism powering the deep learning model BERT, and other state-of-the-art transformer models for natural language processing (NLP). More on attention and BERT: https://bit.ly/38vpOyW How to solve a text classification problem with BERT with this tutorial: https://bit.ly/2Ij6tGa 0:00 Introduction of NLP 0:39 Text tokenizati

                  How to get meaning from text with language model BERT | AI Explained
                • そもそもなぜ事前学習(Pre-training)が要るのか? - もちもちしている

                  はじめに この記事では,ニューラルネットワークを乱数初期化のまま学習させたときに発生する 「初期化の罠」 を整理し,その回避策としての事前学習を原理から紹介します.Transformer や ResNet がどうして安定的に学習できるのか.最新の理論をもとに掘り下げながら,「事前学習モデルを微調整するのが一番コスパが良い理由」を示したいと思います. 1. いきなり Fine‑tune はダメ? 深層モデルの損失関数は高次元かつ非凸ですが,実際には Transformer や ResNet がサクッと収束するケースのほうが多いです.ところが,小規模データをゼロから Transformer で Fine‑Tune しようとすると,勾配が発散したり精度がガタ落ちしたりするシーンが報告されています.たとえば Spider (∼7 k 訓練例) では,標準初期化の Transformer は 8 層

                    そもそもなぜ事前学習(Pre-training)が要るのか? - もちもちしている
                  • GitHub - postgresml/postgresml: Postgres with GPUs for ML/AI apps.

                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                      GitHub - postgresml/postgresml: Postgres with GPUs for ML/AI apps.
                    • GBDTのハイパーパラメータの意味を図で理解しつつチューニングを学ぶ - まずは蝋の翼から。

                      この記事は何か lightGBMやXGboostといったGBDT(Gradient Boosting Decision Tree)系でのハイパーパラメータを意味ベースで理解する。 その際に図があるとわかりやすいので図示する。 なお、ハイパーパラメータ名はlightGBMの名前で記載する。XGboostとかでも名前の表記ゆれはあるが同じことを指す場合は概念としては同じ。ただし、アルゴリズムの違い(Level-wiseとLeaf-wise)によって重要度は変わるし、片方にのみ存在するハイパーパラメータもあるので注意。 lightgbm.readthedocs.io また、記事の構成などは以下を大いに参考にさせていただいた。 nykergoto.hatenablog.jp 網羅的には以下の記事もよさげ qiita.com この記事は何か そもそもGBDTとは ハイパーパラメータ どのような決定木

                        GBDTのハイパーパラメータの意味を図で理解しつつチューニングを学ぶ - まずは蝋の翼から。
                      • OpenCALM-7BをLoRAでinstruction tuningするための実装解説 / QLoRAの実装も紹介 - Qiita

                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに ※本記事で「現時点」という言葉は2023/6/1を指すこととします。 先日(2023年5月17日)、サイバーエージェントが日本語に特化したLLM(Large Language Model)をhuggingface上に公開されました。 現時点で日本語に特化したLLMで最大級のパラメータを持つモデル 商用利用可能 という点が非常に魅力的であり、すでにたくさんの方がこのOpenCALM-7Bを動かしたり、チューニングしたりされてるように、自分も勉強がてらこのLLMのチューニングに挑戦してみました。 とはいえ、パラメータ数が68億と巨

                          OpenCALM-7BをLoRAでinstruction tuningするための実装解説 / QLoRAの実装も紹介 - Qiita
                        • 日本語ニュース分類から見る多言語モデル

                          グローバル化が進む現代において、様々な言語で情報収集を行う必要性がこれまで以上に高まっています。Stockmark ではそうしたお客様の情報収集を支援するために多言語テキストの解析にまつわる研究が行われています。本日はその基礎技術である多言語モデルについて紹介します。 多言語モデル (multilingual language models, crosslingual language models) は複数の言語を扱うことができる言語モデルです1。リソースが十分にない言語での下流タスクにおいて、多言語モデルのパフォーマンスが単言語の言語モデルよりも優れていることが報告されています (Wu and Dredze 2019)。また多言語を1つのモデルで扱えるようになることで、言語ごとに異なるモデルを用意する必要がなくなるという運用上の利点もあります。こうした点から近年では多言語モデルは自然言

                            日本語ニュース分類から見る多言語モデル
                          • Japanese Language Analysis by GPU Ready Open Source NLP Frameworks

                            Japanese Language Analysis by GPU Ready Open Source NLP Frameworks Hiroshi Matsuda GPU Technology Conference 2020 1 This document is published under CC BY 4.0 license from Megagon Labs, Recruit Co., Ltd. Contents 自然言語処理技術の進歩とGPUが与えた影響  ルールベースからTransformersまで NLP Frameworkを用いた日本語の解析  世界の全言語を統一的に扱うUniversal Dependenciesとその日本語化  GiNZAの文節API GPU Ready OSS NLP Frameworks  spaCy v2.3 → v3.0  Stanza

                            • https://deepimagination.cc/eDiffi/

                              • 機械学習のルール:  |  Machine Learning  |  Google for Developers

                                ML エンジニアリングのベスト プラクティス Martin Zinkevich 氏 このドキュメントは、ML に関する基本的な知識をお持ちの方を対象としています。 Google のベスト プラクティスを ML で活用できます。これは、 Google C++ スタイルガイドに類似した、ML のスタイルを提示します その他一般的な実用的なプログラミング ガイドです。すでにクラスを受講した場合 ML モデルの構築や利用に携わった場合 このドキュメントを読むために必要な背景知識があることを前提としています。 Martin Zinkevich が紹介するお気に入りのルール 10 個 学びましたここでは、43 のルールをすべて見ていきましょう。 用語 次の用語は、効果的なセキュリティに関する論考で何度も登場します。 ML: インスタンス: 作成するインスタンス できます。たとえば、このインスタンスは、

                                  機械学習のルール:  |  Machine Learning  |  Google for Developers
                                • BERTの埋め込み空間の可視化を最速で

                                  BERTのtoken embeddings(入力部分にある単語id->単語埋め込みに変換する層)の埋め込み空間の可視化をやったので、手順をまとめた。 文脈化単語埋め込みの方(BERTの出力ベクトル)の可視化も似たような手順でできると思う。 今回は東北大の乾研の方が公開されている日本語BERT(cl-tohoku/bert-base-japanese-whole-word-masking)を利用した。 使用する技術は主に以下。 huggingface/transformers: 事前学習済みモデルの利用 holoviews: 可視化まとめツール t-SNE: 次元削減 poetry: パッケージマネージャ 環境構築 poetryでいい感じにやった。 以下のpyproject.tomlをコピペしてpoetry installすればよさそう。 [tool.poetry] name = "hoge

                                    BERTの埋め込み空間の可視化を最速で
                                  • Machine Learning  |  Google for Developers

                                    基礎コースでは、機械学習の基礎と核となるコンセプトについて説明します。 下記の順序に沿って更新することをおすすめします。

                                      Machine Learning  |  Google for Developers
                                    • DreamerV2の実装: 世界モデルベース強化学習でブロック崩し - どこから見てもメンダコ

                                      世界モデル系強化学習の先端手法であるDreamerV2をブロック崩し(BreakoutDeterministic-v4)向けに実装しました。 はじめに 世界モデルベース強化学習とは DreamerV2:Atari環境で初めてモデルフリー手法に並んだ世界モデルベース強化学習 世界モデル(World Models)について 方策の獲得 Dreamerへの系譜 Wolrd Models (2018) PlaNet: Deep Planning Network (2019) Dreamer (2020) DreamerV2 (2021) 非VAEの状態遷移モデル:MuZero(2020) Tensorflow2による実装例 世界モデル部 ロールアウト部 強化学習エージェント部 学習結果 雑記 DreamerV3 論文: DreamerV2: [2010.02193] Mastering Atari

                                        DreamerV2の実装: 世界モデルベース強化学習でブロック崩し - どこから見てもメンダコ
                                      • AIを一週間トレーニングしたら、素敵な世界を出力しだした|深津 貴之 (fladdict)

                                        AI勉強1ヶ月目。風景画を生み出すAIをトレーニングしました。 トレーニング期間1週間ほど。 遠目にはボブ・ロスに戦いをいどめそうなレベルには、育ちました。 以下、AIがジェネレートした存在しない風景による、異世界紀行です。 花畑朝焼けの湖畔霧につつまれた森素敵な遺跡 カードゲームの地形カードや、ゲームの初期コンセプトアートとしては使えるレベルの画像を、無限に出力できるようになりました! 地形別のサンプル 平地平地平野は安定して出力できます。多くはダート系なのですが複数種が混ざったり、麦、菜の花、茂みなどが生まれることもありました。 木々樹木のジェネレートに関しては、かなり安定したクオリティがでます。一方で、双子の木が生まれやすい傾向があり、この原因は謎です。 山嶺 山岳山々。雲や水とセットで出力されることが多い印象です。切り立った岩山から、雪の被った霊峰までバリエーションをもって出力され

                                          AIを一週間トレーニングしたら、素敵な世界を出力しだした|深津 貴之 (fladdict)
                                        • JAXライクなfunctorchで機械学習を速くする – part 1 – Rest Term

                                          PyTorch 1.11からβ版として追加された functorch と呼ばれる機能を試してみました。PyTorch 1.9くらいのときから試験版として本体に組み込まれて提供されていましたが、どうやらfunctorchという別モジュールに切り出して提供されるようになったようです。 pytorch/functorch: functorch is JAX-like composable function transforms for PyTorch. functorchとは PyTorch公式サイトには以下のように説明されています。 functorch is a library that adds composable function transforms to PyTorch. It aims to provide composable vmap (vectorization) and a

                                            JAXライクなfunctorchで機械学習を速くする – part 1 – Rest Term
                                          • Hugging Face + WRIMEデータセットで、8クラスの感情分類 - Qiita

                                            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 作るもの 本記事では、日本語文の感情分析をするAIモデル を作ります。 入力文に含まれる感情を、8つの基本感情 の軸で推定します。 こんな感じです。 上記の棒グラフは、「今日から長期休暇だぁーーー!!!」という文章には「喜び」と「期待」の感情が含まれている、という推定結果を示したものです。 (夏季休暇を目前にして、「せっかくの休みで時間もあるし、あれもしたいし、これもしたいな♪」と喜びと期待に胸を躍らせていた私の気持ちが見透かされているようで怖いです……。) 概要 タイトルの通り、「Hugging Face」と「WRIMEデータセット」

                                              Hugging Face + WRIMEデータセットで、8クラスの感情分類 - Qiita
                                            • 世の人もすなる Airflow というものを、してみんとてするなり | 株式会社オープンストリーム

                                              みなさんこんにちは。技術創発推進室の高岡です。 気の早い桜は咲き始めたようですが、そろそろ年度末、みなさまいかがお過ごしでしょうか。 このところの私は、これまでの AI 関連の開発を振り返って、実験管理、結構面倒くさかったな、という反省をしているところです。機械学習系の案件に関わっている皆さんには、ご同意いただけるんじゃないでしょうか。 ■実験管理は必須。でも面倒! 機械学習モデル開発のワークフローでは、次のような作業がよく発生します。 あるデータと設定で、機械学習モデルを訓練して、パラメータを得る訓練済みの機械学習モデルの性能を調べて、記録するモデル同士の性能を比較する こうした「条件設定と訓練、性能測定、比較」のサイクルを「実験」と呼び、実験を繰り返しながら、より良いモデルを模索するわけです。経験者の皆さんにはおなじみですね。 このとき「このモデルはどういう条件の下で得られたか」「それ

                                                世の人もすなる Airflow というものを、してみんとてするなり | 株式会社オープンストリーム
                                              • deno で機械学習

                                                はじめに 最近、deno が面白くなり始めています。deno はコマンドラインバイナリを1つインストールすれば、import によりパッケージの読み込みはインターネットからダウンロードしてキャッシュされ、開発者が package.json を書く事もなく、とてもお手軽に TypeScript を書くことができます。 もし、機械学習をやりたいとして、事前準備(npm でインストールしたり、conda/pip 等で依存物をインストールしたり)が大幅に削減できるなら、とても便利だと思いませんか? deno で機械学習 deno で機械学習と聞くと tensorflow.js を使いたくなりますが、残念ながら現在はまだ deno で tensorflow.js を扱える様にはなっていません。しかし deno 1.8 では GPU を扱う為の機能が追加されており、ジワジワではありますが目標に向かって

                                                  deno で機械学習
                                                • Anewsへの応用を見越した既存ニュース推薦手法の性能確認実験

                                                  ML事業部の金田です。今回はAnewsへの応用を見越して実施した、公開データセット(MINDデータセット)を用いた既存ニュース推薦手法の性能確認実験について紹介します。なお、実験で用いたコードはこちらに公開しています。 背景当社の開発する法人向けサービスのAnewsには、ニュース推薦システムが実装されています(その概要は以前の記事で紹介したとおりです)。 このシステムは、製品開発の初期段階に構築されたものです。その際には顧客要求を素早く叶えることが優先されており、当時はニュース推薦システムの研究動向を十全にフォローアップできていませんでした。構築以降に実施されたシステム品質改善も、顧客から寄せられた問題の解消を目的としていたため、「そもそも技術的観点から現行システムにどの程度改善の余地があるのか?」という疑問に対して、これまで明確な回答を用意できていませんでした。 この問題を解消するため、

                                                    Anewsへの応用を見越した既存ニュース推薦手法の性能確認実験
                                                  • グーグルはスマートテキスト選択をどう改善したのか?その手法が明らかに

                                                      グーグルはスマートテキスト選択をどう改善したのか?その手法が明らかに
                                                    • GPT Index のナレッジグラフ機能を試す|npaka

                                                      GPT Index のナレッジグラフ機能を試したので、まとめました。 1. ナレッジグラフ「ナレッジグラフ」 (Knowledge Graph) は、さまざまな知識の関係をグラフ構造で表したものです。知的システムの基盤となるデータベースとして用いられます。 「GPT Index」は、RDF フレームワークと直接互換性のある「トリプル」 (主語、述語、目的語) として表されるナレッジグラフデータをサポートします。内部的には、グラフデータは有向グラフとして管理されます。 現在、「GPT Index」は、LLMがサポートするトリプルの操作を2つ提供しています。 ・グラフ抽出 (Graph extraction) : 与えられたテキストからトリプルを抽出 ・グラフQ&A (Graph Q&A) : グラフデータを応答合成のコンテキストとして利用 2. グラフ抽出Google Colabでの「GPT

                                                        GPT Index のナレッジグラフ機能を試す|npaka
                                                      • 関数データ解析への招待

                                                        2023/04/26に開催されたザッピングセミナーでの講演資料です。当日の質問内容に対する回答を一部追記しています。

                                                          関数データ解析への招待
                                                        • 【インターンレポート】量子化による大規模言語モデル軽量化の効果測定

                                                          LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog この度、LINEの技術職 就業型コースのインターンシップに参加させていただきました、お茶の水女子大学修士課程1年の佐藤杏奈と申します。 インターンシップではNLP Platform Devチームに所属し、量子化による大規模言語モデル(LLM)の軽量化について検証を行いました。本レポートではその成果について、ご報告いたします。 0. 大規模言語モデルの量子化とは 量子化とは、重みなどのパラメータをより少ないビットで表現することで、モデルの軽量化、高速化を図る手法の一つです。 昨今活躍する大規模な言語モデルの多くは数十億、数百億以上のパラメータを持っており、これらの訓練には通常、多くのGPUで数ヶ月と、膨大なコストが必要になります

                                                            【インターンレポート】量子化による大規模言語モデル軽量化の効果測定
                                                          • GPT-3で遊んでみた - Qiita

                                                            昨日の@hcpmiyukiさんの記事では、Supabaseという今あついBaaSについて書いてくれました! MYJLab Advent Calendar 2021の3日目はGPT-3に関してです 論文を要約してAPIで遊びます GPT-3とは イーロン・マスク氏が共同会長を務める非営利のAI研究企業であるOpenAIが発表した、汎用言語モデルの3世代目です ネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの自己回帰言語モデルで、なんと1750億個のパラメータで動作するそうです あまりの精度の高さに以前話題沸騰でした This is mind blowing. With GPT-3, I built a layout generator where you just describe any layout you want, and it generat

                                                              GPT-3で遊んでみた - Qiita
                                                            • インテルから消えたNervanaと入れ替わったHabana Labs AIプロセッサーの昨今 (1/4)

                                                              また2週ほど空いてしまったが、AIプロセッサーの話に戻ろう。2019年のHotChips 31で一番会場を沸かせたのが連載572回で紹介したCerebras SystemsのWSE(Wafer-Scale Engine)だった、という話はすでに説明した通り。 ちなみに同社、今年のHotChips 32では“The Second Generation Cerebras Wafer Scale Engine”という講演を予定している。まさか7nmに微細化だったらすごいのだが。 さてそのHotChip 31でそのCerebras Systemsの講演を挟んで行なわれた講演が、インテルのSpring Crest(Nervana NNP-T)と、Habana LabsのGOYA/GAUDIであった。講演の際はWSEにやられたという感じでそれほど話題にならなかったが、年末になっていろいろ騒がれ始めたこ

                                                                インテルから消えたNervanaと入れ替わったHabana Labs AIプロセッサーの昨今 (1/4)
                                                              • クックパッドが取り組むレシピレコメンドの面白さと難しさ

                                                                Recommendation Industry Talks #2 で発表した内容です。 https://recommendation-industry-talks.connpass.com/event/310180/

                                                                  クックパッドが取り組むレシピレコメンドの面白さと難しさ
                                                                • 分類問題の予測結果の評価指標(Accuracy, Precision, Recall, F値, AUC)について整理してみた - Ledge Tech Blog

                                                                  こんにちは。レッジインターン生の大熊です。 今回は分類問題のタスクにおける予測結果の評価指標について、代表的なものをピックアップして書いていきます。 評価指標は各タスクに合わせて設定しなければならず、またその評価値の閾値も個別に設定することが多いです。 本記事を評価指標の選定の参考にしていただければ幸いです。 分類問題における正解・不正解のパターン 分類問題における実測値と予測値の関係性は以下のマトリクスで表現できます。 正(実測) 負(実測) 正(予測) TP FP 負(予測) FN TN TP:True Positive。実測値と予測値の両方が正であったもの。 FP:False Positive。実測値が負なのに、誤って正と予測値したもの(誤検知、偽陽性)。 TN:True Negative。実測値と予測値の両方が負であったもの。 FN:False Negative。実測値が正なのに、

                                                                    分類問題の予測結果の評価指標(Accuracy, Precision, Recall, F値, AUC)について整理してみた - Ledge Tech Blog
                                                                  • 実は強い 非ViTな画像認識モデル

                                                                    社内のCV輪講で使用した資料です。 CNNを構造の中心とした画像認識モデルアーキテクチャについて、近年登場したものを紹介しました。 以下スライド中の参考文献のリンク [1] https://arxiv.org/abs/2103.07579 [2] https://arxiv.org/abs…

                                                                      実は強い 非ViTな画像認識モデル
                                                                    • 熱気球で世界中にインターネットを提供するGoogle発の「Loon」プロジェクトが大きく飛躍、その勝因とは?

                                                                      世界にはインターネット接続が行えない場所が多く残されており、そんな場所にもインターネット環境を提供すべくSpaceXが「Starlink計画」で人工衛星を打ち上げたり、Facebookが「2Africa」で海底ケーブルを設置しようとしたりしています。Googleは「熱気球」でインターネット環境を提供する「Project Loon」を2015年から続けていますが、強化学習を利用したAIの開発により、プロジェクトが大きく前進したと発表されました。 Autonomous navigation of stratospheric balloons using reinforcement learning | Nature https://www.nature.com/articles/s41586-020-2939-8 Drifting Efficiently Through the Stratos

                                                                        熱気球で世界中にインターネットを提供するGoogle発の「Loon」プロジェクトが大きく飛躍、その勝因とは?
                                                                      • キーフレーズを抽出して遊ぶ - エムスリーテックブログ

                                                                        AI・機械学習チームで2021年新卒の氏家です。 この記事はエムスリーAdvent Calendar 2021の23日目の記事です。 最近チームでスタンディング&ステッパーが流行っているのでその流れに乗ろうと試みましたが、スタンディングの時点で挫折してしまいました。 さて、今回のテーマは自然言語処理です! AI・機械学習チームでは普段から自然言語処理をはじめとした機械学習を用いてプロダクトの開発・運用を行っています。 しかし、業務にあまり関係ない技術で遊びたい気持ちがあるのもまた事実。 そこで今回は、キーフレーズ抽出と呼ばれる技術に着目して、弊社に関連するデータに適用して遊んでみたいと思います。 キーフレーズ抽出とは 使用した手法 いざキーフレーズを抽出 テックブログ AskDoctors キーフレーズを使った応用 まとめ We are hiring! キーフレーズ抽出とは キーフレーズ抽

                                                                          キーフレーズを抽出して遊ぶ - エムスリーテックブログ
                                                                        • Vertex AI AutoML で作成した機械学習モデルを Cloud Run にデプロイする - G-gen Tech Blog

                                                                          G-gen の佐々木です。当記事では Google Cloud(旧称 GCP)の機械学習サービスである Vertex AI の AutoML で作成した機械学習モデルを、サーバーレスなコンテナ実行基盤である Cloud Run にデプロイしていきます。 Vertex AI および Cloud Run とは? Vertex AI で作成したモデルのデプロイについて 当記事で Cloud Run にデプロイするモデル Vertex AI Model Registry からモデルをエクスポートする ローカルの Docker コンテナで予測を実行する Artifact Registry にモデルをアップロードする Cloud Run にモデルをデプロイする Cloud Run サービスに予測リクエストを送信する Vertex AI & Cloud Run Vertex AI および Cloud R

                                                                            Vertex AI AutoML で作成した機械学習モデルを Cloud Run にデプロイする - G-gen Tech Blog
                                                                          • TensorFlowのSavedModelの便利さを紹介する - 生き抜くぜ21世紀

                                                                            はじめに 今は2020年8月なのですが、コロナ禍だし、暑いし、経済状況最悪で暇だし、良いことないですね。 暇になったので、1年ぶりにkaggleをやってみました。 Landmark Retrievalという建物の画像検索コンペに出たところ、そのコンペの提出形式がTensorFlowのSavedModel形式でした。 私はTensorFlow案件をけっこうやってきたので抵抗はなかったのですが、この制約が原因となったのか、あまりこのコンペの参加者は多くなかったようです。 kaggleの提出形式としては賛否両論あると思いますが、実務ではとても便利な形式だと私は思っています。 それなのにもし実務でも敬遠されているとしたらもったいないと思い、この記事ではSavedModelの便利さについて紹介してみます。 ちゃんとした使い方は公式リファレンスを当たってもらうとして、概念やsaved_model_cl

                                                                              TensorFlowのSavedModelの便利さを紹介する - 生き抜くぜ21世紀
                                                                            • Pix2Pixで宅地利用調査から任意の衛星画像を生成するアルゴリズムを作る | 宙畑

                                                                              簡単な塗り絵のような画像を作るだけで、お好みの衛星画像を生成するアルゴリズム制作にチャレンジしてみました。ハート形や六角形の池を作ることにも成功しています。 お絵描きをするように衛星画像を生成する方法があるとしたら、使ってみたいと思いませんか? 今回、宙畑では、任意の色を選び、簡単な塗り絵のような画像を作るだけで、お好みの衛星画像を生成するアルゴリズム制作にチャレンジしてみました。 ※本記事で利用したコード及びデータは以下にアップロードしています。 ※ご自身でコードを動かしてみたい方は以下からダウンロードの上で実行してみてください。 https://github.com/sorabatake/article_27179_pix2pix やりたいことのイメージ Credit : 国土地理院ウェブサイト (1)本記事で実施すること、解析手法、利用するデータ 利用する手法とデータ 今回は宙畑でも

                                                                                Pix2Pixで宅地利用調査から任意の衛星画像を生成するアルゴリズムを作る | 宙畑
                                                                              • gpt-neox-20b を 3090 x 2 で動かすメモ(3090 x 1 でも動く!) - Qiita

                                                                                ChatGPT(GPT-3.5?) しゅごいよねぇ... ローカルで(GPU で)似たようなの動かしたい... 追記: 2023/06 時点ですと 8bit 量子化が成熟してきていてで 3090 x 1 で問題なく動きました. また日本語ですと rinna 3.6B がいい感じでした. https://zenn.dev/syoyo/articles/946c17666e10fb LangChain + GPT-NEOX-Japanese-2.7b で日本語 LLM やりとり整備するメモ https://qiita.com/syoyo/items/d0fb68d5fe1127276e2a GPT-NEOX-Japanese-2.7b 試したけどなんか微妙だったネ... とりま LLM では大きさは正義と思いますので, gpt-neox-20b 試します. https://www.infoq.

                                                                                  gpt-neox-20b を 3090 x 2 で動かすメモ(3090 x 1 でも動く!) - Qiita
                                                                                • ヤフーの全社共通レコメンドプラットフォームでのMLOpsの取り組み #mlopsコミュニティ | ドクセル

                                                                                  スライド概要 「第27回 MLOps 勉強会」で発表した内容になります。 https://mlops.connpass.com/event/270245/ 社内で利用されている全社共通レコメンドプラットフォームでのモデル開発の効率化や品質向上に関するMLOpsの取り組みの紹介

                                                                                    ヤフーの全社共通レコメンドプラットフォームでのMLOpsの取り組み #mlopsコミュニティ | ドクセル

                                                                                  新着記事