並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 726件

新着順 人気順

*algorithmの検索結果241 - 280 件 / 726件

  • LEIA: 言語間転移学習でLLMを賢くする新しい方法

    Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日本語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

      LEIA: 言語間転移学習でLLMを賢くする新しい方法
    • プロンプトは頑張らず雑コラで始める stable diffusion でのAIイラスト生成 - MANA-DOT

      実は最近StableDiffusionで画像生成を楽しんでいます。 おそらく多くの人とは違い、自分はtxt2imgでプロンプトを頑張ることはせず、img2imgメインでイラスト生成をしています。覚書の意味も含めてイラスト生成の手順を紹介します。 今回は「商店街のど真ん中でダイソンのコードレス掃除機を自慢する緑髪の魔女の女の子」を生成します。 利用しているのは AUTOMATIC1111/stable-diffusion-webui 、モデルは Delcos/Hentai-Diffusion です。HentaiDiffusionは名前はいかがわしいですが、かわいいイラストを出しやすいです。 完成形 「商店街のど真ん中でダイソンのコードレス掃除機を自慢する緑髪の魔女の女の子」です。 0. 元絵の準備 素材の用意 構図を大雑把に脳内でイメージし、必要な素材を集めます。 魔女の女の子のポーズを取ら

        プロンプトは頑張らず雑コラで始める stable diffusion でのAIイラスト生成 - MANA-DOT
      • Midjourneyが人物のポーズを作るのが苦手な理由|shi3z

        Midjourneyが人物のポーズを作るのが苦手な理由

          Midjourneyが人物のポーズを作るのが苦手な理由|shi3z
        • 読者の行動データを用いたnote記事レコメンドをリファクタリングした話|むっそ

          noteのMLチームで主にMLOps関係の開発をしている、むっそです。 先日「読者の行動データを用いたnote記事レコメンドのMLパイプラインツアー」という題材でMLパイプラインについてご紹介いたしました。 今回はnoteの読者の行動データを用いたnote記事レコメンドをリファクタリングした話をしたいと思います。 ※前回の記事をまだ読んでいなくても、この記事は読めます! ホーム画面の「あなたへのおすすめ」には、ユーザーがよく読む記事に近いレコメンドがされるAWS環境にてnoteユーザーの行動データを用いたnote記事レコメンド機能を提供しております。 リファクタリング前のAWSアーキテクチャリファクタリング前のAWSアーキテクチャ(左側がnoteリポジトリ/右側がMLリポジトリ)行動データを用いたnote記事レコメンドのリファクタリングする前のアーキテクチャを大まかに分解すると、下記のプロ

            読者の行動データを用いたnote記事レコメンドをリファクタリングした話|むっそ
          • NVIDIA×滋賀大学、1000ページ超の機械学習教育用資料の日本語版を公開

            NVIDIAは9月8日、デジタルスキル育成プログラム「DLI(Deep Learning Institute)」より、「DLI データサイエンス教育キット」の日本語版の提供を開始したことを発表した。このキットは日本のデータサイエンス教育の普及を目的としており、滋賀大学と共同で翻訳を進めたとのこと。教育機関に所属する教員は無償でダウンロード可能。 DLI データサイエンス教育キットの英語版は、ジョージア工科大学およびプレイリー ビュー A&M 大学の研究チームがNVIDIAと共同開発した。キット内容には、講義用のスライドや演習課題、DLI オンライン トレーニングへのアクセス権、クラウドの GPU インスタンスのクレジットなどを含む。 この教材ではデータサイエンスのさまざまな領域の基礎と応用の学習が可能だとしており、データ収集、前処理、NVIDIA RAPIDSによるアクセラレーテッド デー

              NVIDIA×滋賀大学、1000ページ超の機械学習教育用資料の日本語版を公開
            • GPT-neoxの学習用にマルチノード並列学習環境を整えた with DeepSpeed - ABEJA Tech Blog

              1. はじめに 2. 並列学習環境を調べる 並列学習方法を調べる ネットワーク、コンピューティング周りを調べる 3. インフラ環境を構築する コンパクトプレースメントポリシーの作成 Compute Engine を起動する (Fast Socket と gVNIC を利用する) 4. まずはシングルノードで動かす 5. 次はマルチ環境で動かす w/ Docker リポジトリをクローン ssh/config を作成 authorized_keys を作成 hostfile を作成 Docker を build 6. つまずいたポイント 学習途中に出力したファイルを再利用するのでNFSが必要に NFSのリージョンを間違えて速度が出なかった 大量のGPUの調達はリソースを確保できないかもしれないので要サポート確認 コンパクトプレースメントポリシーは邪魔になりそうだった 7. 結果 8. まとめ

                GPT-neoxの学習用にマルチノード並列学習環境を整えた with DeepSpeed - ABEJA Tech Blog
              • 100+ Best GitHub Repositories For Machine Learning

                There are millions of GitHub repos and filtering them is an insane amount of work. It takes a huge time, effort, and a lot more. We have done this for you. In this article, we’ll share a curated list of 100+ widely-known, recommended, and most popular repositories and open source GitHub projects for Machine Learning and Deep Learning. So without further ado, Let’s see all the hubs created by exper

                  100+ Best GitHub Repositories For Machine Learning
                • Feature Attributions の監視:Google はいかに大規模な ML サービスの障害を乗り越えたのか | Google Cloud 公式ブログ

                  ※この投稿は米国時間 2021 年 9 月 29 日に、Google Cloud blog に投稿されたものの抄訳です。 Google で起きた大規模 MLOps の危機クラウディ・グルシアは Google のソフトウェアエンジニアであり、何十億ものユーザーにコンテンツを推薦している機械学習(ML)モデルに関わっています。2019 年 10 月、彼は ML 監視サービスからアラートを受けました。モデルの特徴量(ここでは、この特徴量を F1 とします)の重要度が下がってきていたのです。この特徴量の重要度は、モデルの予測において、特徴量の影響の大きさを表す指標である「Feature Attributions」で計測されています。この重要度の減少とともに、モデルの精度が急激に低下していました。 このアラートを受け、彼はすばやくモデルを再学習させました。その結果、F1 の代替となる 2 つの特徴量

                    Feature Attributions の監視:Google はいかに大規模な ML サービスの障害を乗り越えたのか | Google Cloud 公式ブログ
                  • グラフ機械学習のヘルスケア分野への応用の最前線 - Ridge-institute R&D Blog

                    こんにちは,株式会社Ridge-iのリサーチチームの@machinery81です. 今回はグラフデータを扱う機械学習のヘルスケア分野への応用のお話を紹介します. TL;DR 機械学習・データマイニングの応用先としてのヘルスケア分野 万能薬から精密医療へ 電子カルテ 創薬 患者調査 ヘルスケア分野を繋ぐグラフマイニング グラフ上の機械学習 古典的なアプローチ グラフの統計量に基づく手法 ランダムウォークに基づく手法 行列因子分解/テンソル因子分解に基づく手法 Graph Neural Network Graph Convolutional Network 創薬分野へのグラフデータの応用 ターゲットの識別 分子特性予測 グラフマイニングによる既存薬再開発 薬品と疾患の相互作用の分析 Combination repurposing 今後の見通し その他の話題 さいごに 参考文献 TL;DR 機械

                      グラフ機械学習のヘルスケア分野への応用の最前線 - Ridge-institute R&D Blog
                    • グラフからコミュニティ構造を抽出する 〜リッチフローによるグラフの時間発展〜

                      コミュニティ抽出とは簡単に言えばグラフにおけるノードのクラスタリング手法です。具体的なアルゴリズムとしてはGirvan–Newman法をはじめ様々なアルゴリズムが存在しますが、この記事では去年(2019年)提案された新しい手法について解説したいと思います[1]。 [1907.03993] Community Detection on Networks with Ricci Flow 話の元になっているのはこちらの論文で、グラフをリッチフローによって変形し、伸びたエッジを切断していくことでクラスタを求めるというアルゴリズムです。リッチフローという聞き慣れない言葉が出てきましたが、ちゃんと後で説明するので気にせず進めましょう。 まずは実際にグラフのクラスタリングを行う様子をアニメーションで見てみてください。 アルゴリズム自体はそれほど難しくありませんが、背景を含めて理解するためには2つの理論

                        グラフからコミュニティ構造を抽出する 〜リッチフローによるグラフの時間発展〜
                      • Googleによる機械学習の実応用をテーマにしたCoursera の講義は、機械学習プロジェクトに携わるなら一度は見ておいても損はない

                        Googleによる機械学習の実応用をテーマにしたCoursera の講義は、機械学習プロジェクトに携わるなら一度は見ておいても損はない 2022-03-17 過去に執筆した記事1を見返していたら そういえば講師陣がめちゃくちゃ良いこと言ってるんだけど記事内に掲載してなかったなと思い、動画を見返すと今でも学びが多かったので、講義のスクリーンショットを見返しつつ筆をとってみた。 今見たら、日本語版の講義 How Google does Machine Learning 日本語版も公開されているので、興味の湧いた方はぜひ受講しましょう。Certificate を発行しないなら無料で受講できると思います。 講義内容の説明は、過去記事1で行っているので気になる方は御覧ください。 機械学習プロジェクトの努力の割当: 期待と現実 ML Surprise https://www.coursera.org/

                          Googleによる機械学習の実応用をテーマにしたCoursera の講義は、機械学習プロジェクトに携わるなら一度は見ておいても損はない
                        • Microsoftのノーコード開発ツール「Power Automate」に文章でフローを生成できる新機能

                          この記事は新野淳一氏のブログ「Publickey」に掲載された「[速報]マイクロソフト、Power Automateに自然言語の指示でフローを生成する新機能。Ignite 2022」(2022年10月13日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 米Microsoftは現在開催中のイベント「Microsoft Ignite 2022」で、サービス連携機能やRPA機能などを備えたローコード/ノーコード開発ツールの「Power Automate」に、AIによって自然言語による指示を認識し、フローを自動生成する機能を搭載したことを発表しました。 Power Automateは、さまざまなコネクタにより複数のサービスやアプリケーションをワークフローのように接続する機能と、マウスやキーボードなどの操作をソフトウェアで自動化するRPAの機能などを搭載したサービス連携サー

                            Microsoftのノーコード開発ツール「Power Automate」に文章でフローを生成できる新機能
                          • Argo Workflowsを使った機械学習環境の構築手順 - アダコテック技術ブログ

                            はじめに テックリードの柿崎です。私たちは、機械学習のパラメータチューニングを効率よく行うため、KubernetesネイティブのワークフローエンジンであるArgo Workflowsを採用しています。この記事では、その導入手順の要点を紹介いたします。 導入の目的 Argo Workflows導入以前は機械学習のパラメータチューニングを行うにあたり以下の機能を独自に実装しており、属人化していました。 パラメータ探索のアルゴリズム インスタンスのスケーリング インスタンスの稼働状況の可視化 ジョブの進行状況の可視化 これらをより柔軟に活用できるようにして、開発、更新サイクルを早めていくことが導入の目的です。 前提条件 Kubernetes(EKS)はすでに構築済みであること Kubernetes、Helmについての基本的な知識があること Argo Workflowsの基本的な知識があること K

                              Argo Workflowsを使った機械学習環境の構築手順 - アダコテック技術ブログ
                            • トピックモデルを使って問い合わせ内容を分析した話 - Classi開発者ブログ

                              この記事はClassi developers Advent Calendar 2021の18日目の記事です。 昨日は基盤インフラチームのめるさんによる「バックエンドエンジニアが基盤インフラチームに異動して半年ほど経った話」でした。 こんにちは、データAI部でデータサイエンティストをしている高木です。 弊社では顧客である先生、生徒、保護者からClassiの機能や契約に関する問い合わせを日々頂いております。 これらの問い合わせの内容を分析し、Classiの現状の課題や今後解決していくための施策などを社内で検討しています。 今回は問い合わせ内容を言語処理技術の一つであるトピックモデルを使って分析した内容についてご紹介します。 なぜ分析する必要があったのか? Classiへの問い合わせやその対応の内容は、担当者によってテキスト化された状態で管理されています。 弊社のカスタマーサポート・カスタマーサ

                                トピックモデルを使って問い合わせ内容を分析した話 - Classi開発者ブログ
                              • 分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ

                                エムスリーエンジニアリンググループ AI・機械学習チームでソフトウェアエンジニアをしている中村(@po3rin) です。 好きな言語はGo。仕事では主に検索周りを担当しています。 Overview 最近、社内で情報検索論文輪読会を立ち上げました。 情報検索論文読み会のスケジュール そこでNGT-ONNGについての論文*1を紹介したところ1時間の予定のところを盛り上がりすぎて2時間超えてしまいました。 大盛り上がりのついでに、今回は情報検索論文輪読会で紹介した近似最近傍探索ライブラリNGTを内部で利用するValdを使って、類似文書検索がどのように出来るのか、現状の問題を解決できるのかを試したのでその結果を報告します。 Overview 弊社が抱える類似文書検索の課題 Sentence-BERT Valdを使った近似最近傍探索 NGT Vald Vald×Sententce-BERTで類似文書

                                  分散密ベクトル探索エンジンValdとSentence-BERTを使った類似文書検索を試す - エムスリーテックブログ
                                • Advanced linear algebra

                                  This is an introduction to advanced linear algebra, with emphasis on geometric aspects, and with some applications included too. We first review basic linear algebra, notably with the spectral theorem in its general form, and with the theory of the resultant and discriminant. Then we discuss the Jordan form and its basic applications to physics, and other advanced decomposition results for the mat

                                  • ChatGPTを学生が利用すると“質の良い論文”が書ける? 医学生18人を調査 クロアチアの研究者が発表

                                    Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2 クロアチアのスプリット大学に所属する研究者らが発表した「Better by you, better than me, chatgpt3 as writing assistance in students essays」は、ChatGPTを利用して論文を書く学生グループと、従来の方法で論文を書くグループとを比較し、執筆スピードや内容の質などを評価した研究報告である。 ChatGPTは、あくまで学習した内容を返しているだけにすぎないため、専門的過ぎるととんちんかんな答えが返ってくる。それは当然のことだが、人間が自動車を開発して楽に遠くへ行く手段を手に入れた

                                      ChatGPTを学生が利用すると“質の良い論文”が書ける? 医学生18人を調査 クロアチアの研究者が発表
                                    • タイミーにおける H3を活用したレコメンドの改善事例

                                      自己紹介 2 小関 俊祐(Shunsuke Ozeki)/ @ozeshun_ - お仕事 - 2022年にDSとしてタイミーに入社 - MLモデルの改善、ML pipelineの構築、 推薦API基盤の運用など幅広くやってます - 最近検索にも手を出し始めました - 趣味 - 野球全般。ロッテ、レンジャースが好き - 海外旅行 - 個人開発的な

                                        タイミーにおける H3を活用したレコメンドの改善事例
                                      • 同人などで使えそうなAI背景作画について[StableDiffusion]|abubu nounanka

                                        2022/08/21 StableDiffusionのweb版「DreamStudio」が開始されました。 こんにちは。StableDiffusionを使用したAI背景作画についてご紹介します。StableDiffusionの詳細やβ参加方法は前回の投稿で解説していますので詳しくはそちらをご覧ください。 あと学習済みモデルの一般向け公開がカミングスーンだそうです。そうだよ!StableDiffusionはオープンソースで誰でも自由に使えてVRAM容量10GBのローカルPCで動かせる画像AIだよ! Pleasure working with 🤗 to get AI more easily accessible to all. Just like the transformers library diffusers makes it easy to train, fine tune and

                                          同人などで使えそうなAI背景作画について[StableDiffusion]|abubu nounanka
                                        • テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development

                                          2025/04初頭時点で、OpenAIのtext-embedding-3-largeなどの他社モデルを上回り、日本語テキスト埋め込みモデルとしてトップのスコアを記録しています (**)。特にテキスト埋め込みモデルの主要な用途と言えるRetrieval (検索タスク) では既存のモデルの最高スコアから2ポイント以上の更新を達成しており、情報検索での利用に適したモデルであることを示唆していると言えます。 (*) コンテキスト長1024で計測 (以降も断りがなければ同様)。これは学習時に用いたコンテキスト長が1024までであるため。ただし、ベースモデルの最大コンテキスト長であり、PLaMo-Embedding-1Bのconfig上の最大コンテキスト長である4096で計測しても、そこまで性能が下落するわけではないことがわかっています (Appendix参照)。 (**) 2025/04/14にRu

                                            テキスト埋め込みモデルPLaMo-Embedding-1Bの開発 - Preferred Networks Research & Development
                                          • 生TensorFlow七転八倒記(11):TensorFlow周りの最近のアップデートについて - 渋谷駅前で働くデータサイエンティストのブログ

                                            2年ぐらい前に必要があって生TensorFlowとTensorFlow-Hubによる様々なモデルやフレームワーク並びに事前学習済みモデルの実装を試していたのですが、TF2の浸透に伴いそれらの多くの仕様が変更になっており、中には回らなくなっていたコードもあったので、それらを調べるついでに最近のTF-Hubのアップデートも覗いてきました。ということで、自分向けの備忘録として簡単にまとめておきます。 TensorFlow-Hubの事前学習モデル Estimatorクラス 余談 TensorFlow-Hubの事前学習モデル まず試したのがUniversal Sentence Encoderの多言語版。リンク先を見れば分かるように、16言語(アラビア語・簡体字中国語・繁体字中国語・英語・フランス語・ドイツ語・イタリア語・日本語・韓国語・オランダ語・ポーランド語・ポルトガル語・スペイン語・タイ語・トル

                                              生TensorFlow七転八倒記(11):TensorFlow周りの最近のアップデートについて - 渋谷駅前で働くデータサイエンティストのブログ
                                            • 検索システムを適切に評価したい - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 情報検索・検索技術 Advent Calendar 2021 の22日目の記事です。 Motivation 検索エンジニアはバックエンドエンジニアのサブセットだと見なされることがありますが、ある程度の規模のプロダクトに携わる検索エンジニアの業務内容は新しい機能やAPIを作るというよりも、典型的な検索アプリが持っているSearch API、Auto-Completion API、Query Suggestion APIのような、すでに実装されているAPIのインタフェースを変えずに中身を変えることが多いという点で、バックエンドエンジニアとは

                                                検索システムを適切に評価したい - Qiita
                                              • SantaとAHCと遺伝的アルゴリズム

                                                DeNAの2023/2/21のDS輪講の発表資料です。

                                                  SantaとAHCと遺伝的アルゴリズム
                                                • Amazon Lookout for Visionで青森認証やってみた - Qiita

                                                  不良品検出のAIサービス「Amazon Lookout for Vision」が先週25日(木)に東京リージョンでの提供開始が発表されましたが、27日(土)には早くも「AWSの基礎を学ぼう」コミュニティのハンズオンが開催され、実際に体験してみることができました。 AI、機械学習系のハンズオンということで待ち時間なんかもあるわけですが、そこにソラコムの @ma2shita さんの「Amazon Lookout for Vision 向いてるコト、使いどころと注意点」とかJAWS-UG名古屋の @nori2takanori さんの「画像ベース異常検知Amazon Lookout for Visionを使ってみよう」とかLTが入って、退屈する暇のない2時間でした。その中で出てきたスライドの一枚がこちら。 Lookout for Visionは不良品検知にしか使えないサービスじゃないぞ、と。アイデ

                                                    Amazon Lookout for Visionで青森認証やってみた - Qiita
                                                  • 実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足

                                                    深層学習が著しく発展し、今まで人間にしかできないと思われていたことができるようになってきました。そのおかげで、今まで機械学習と縁が薄かった分野でも、機械学習を使った研究がしたいという声が上がるようになっています。 前々回は、それを裏付けるように非情報系の学生さんが機械学習を使った研究をしたいという応募がサイボウズ・ラボユースに増えているという話、前回はいままで機械学習や深層学習に縁のなかった人が何から勉強したらいいかという話を書きました。 今回はその続き、研究に必要な実験用 PC 環境をどのように準備したらいいかというお話です。 深層学習の実験をするには、十分な性能の GPU を積んだ PC が必要です。 今どきの機械学習関連の研究室では、院生有志がメンテナンスしている GPU のクラスタがあって、それを使わせてもらえることが期待できます。自分用の PC を手配する場合も、研究テーマに適し

                                                      実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足
                                                    • 遅すぎるCNN処理、日立の自動運転研究部が原因と対処術を発表

                                                      日立製作所 研究開発グループ 自動運転研究部は、GPUによるCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)処理において期待したような性能が出ない理由やその対処方法について、「DAシンポジウム2022 −システムとLSIの設計技術−」(情報処理学会 システムとLSIの設計技術研究会(SLDM)が2022年8月31日~9月2日に開催)で発表した。CNN処理は、ADAS(先進運転支援システム)や自動運転における画像認識でよく使われる演算である。 発表した日立の島村光太郎氏によれば、CNN処理をGPUで実行すると、その演算性能がGPUメーカー発表のピーク性能より桁違いに低い場合があるという(図1)。例えば、データセンターでの推論処理でよく使われている米NVIDIA(エヌビディア)のGPUカード「Tesla T4」の16ビット浮動小数点演算(FP1

                                                        遅すぎるCNN処理、日立の自動運転研究部が原因と対処術を発表
                                                      • 情報検索の国際学会 ICTIR2023 / SIGIR2023 に現地参加して来ました - Taste of Tech Topics

                                                        こんにちは。 Acroquestのデータサイエンスチーム「YAMALEX」に所属する@shin0higuchiです😊 YAMALEXチームでは、コンペティションへの参加や自社製品開発、技術研究などに日々取り組んでいます。 さて、先日7/23-7/27にICTIR2023およびSIGIR2023という情報検索関連の国際会議が台北で開催されました。年に一度開かれる国際会議で、毎年この分野の研究を色々と聞くことができ、個人的にとても楽しみにしているイベントです。 ここ数年はCOVID-19の事情もありオンラインで参加していたのですが、今年は思い切って現地参加して来ましたので、その様子を共有したいと思います。 sigir.org 概要 会場は台北のTICC(Taipei International Conventional Center)という場所でした。台北101のすぐ近くにある広くてキレイな

                                                          情報検索の国際学会 ICTIR2023 / SIGIR2023 に現地参加して来ました - Taste of Tech Topics
                                                        • もしも推薦システムの精度と多様性が単一の指標で測れたら

                                                          RecSys 2021採択論文の中で気になっていた "Towards Unified Metrics for Accuracy and Diversity for Recommender Systems" を読んだ。 独特かつ曖昧な表記の数式が並ぶ「読んでいてイライラするタイプの論文」ではあったものの、推薦結果の Relevance(履歴に基づく類似度;古典的な“精度”に直結)と Novelty(ユーザにとっての推薦結果の新規性・多様性;セレンディピティに寄与)を相互に検討する際の論点、手法に求められる性質、実験のフレームワークのリファレンスとして有用な研究であるように思う。 一方、提案手法の筋の良さ、およびその実用性は疑わしい。定義の曖昧なパラメータを内在し、データに関して十分に事前知識のあるオフラインでの性能評価にユースケースを限定しているためだ。 いずれにせよ「精度の先にある、ユーザ

                                                            もしも推薦システムの精度と多様性が単一の指標で測れたら
                                                          • 受講したら「理解度が下がった」? 満足度88%、経産省が「AI Quest」で取り組むAI人材育成の今

                                                            講師からの講義より参加者同士の学び合い マスクド まず、AI Quest立案の背景を教えてください。 上出さん(経産省) 近年、AIやデータを使って企業の課題を解決できる人材が求められています。AI人材育成を加速させるには、参加者同士の学び合いによる拡大生産性のある育成プログラムの確立が必要と考えました。講師に依存するような形では、講師不足の問題がボトルネックになるからです。 実施に先立ち、中小企業のAI導入による生産性向上効果を分析しました。「機械などへのセンサー取り付けによる予知保全による費用最小化」「売上実績、気候などのデータ分析による需要予測」など、19のAI導入領域を特定し、その領域ごと、また業界ごとの経済効果を推計しました。AI Questの教材は、この分析に基づき、特にAI導入インパクトの大きい領域を優先して作成しています。 「理解度が下がった」という声と「満足度88%」が両

                                                              受講したら「理解度が下がった」? 満足度88%、経産省が「AI Quest」で取り組むAI人材育成の今
                                                            • Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita

                                                              はじめに Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages という論文では、LLMの学習済み重みパラメータの足し引きによって、事前学習済みモデルに対話能力を与えることができるという結果が示されています。 具体的には、英語で事前学習されたモデル(以下ではベースモデルと呼びます)と、ベースモデルを指示チューニング (instruction tuning)してチャット形式の対話ができるようにしたモデル(英語チャットモデル)、ベースモデルを英語以外の言語で継続事前学習したモデルの3つのモデルを用います。 英語チャットモデルの重みからベースモデルの重みを引いたものは、チャット形式で対話ができる能力を表したベクトルであり、そのベクトルを

                                                                Chat Vectorを使って日本語LLMをチャットモデルに改造する - Qiita
                                                              • 大規模サービスで効率よくレコメンドを提供するためにTensorflow Recommendersを活用する - DMM inside

                                                                はじめに こんにちは、DMMで機械学習エンジニアをしている二見です。 2020年に新卒で入社し、普段は検索やレコメンドの改善に従事しています。 DMMでは50を超えるサービスを提供しており、様々なデジタルコンテンツを取り扱っています。 また、各サービスには多くのユーザーの膨大なデータが日々蓄積されてます。 我々のグループでは、それらのビックデータを活用した改善施策を行うことで、各事業部の成長に日々貢献しております。 本記事では、新たにディープニューラルネットワークベースの先端的なレコメンドシステムを構築し、サービスに導入した事例を紹介したいと思います。 レコメンドエンジンの導入を検討している方・ニューラルネットベースのレコメンドに興味がある方の参考になれば幸いです。 目次 はじめに 目次 DMMにおけるレコメンドへの取り組み 背景 Tensorflow Recommendersとは 1.

                                                                  大規模サービスで効率よくレコメンドを提供するためにTensorflow Recommendersを活用する - DMM inside
                                                                • DreamBooth

                                                                  DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation Nataniel Ruiz Yuanzhen Li Varun Jampani Yael Pritch Michael Rubinstein Kfir Aberman Google Research It’s like a photo booth, but once the subject is captured, it can be synthesized wherever your dreams take you… [Paper] (new!) [Dataset] [BibTeX] Abstract Large text-to-image models achieved a remarkable leap in the

                                                                  • 業務の最適化とマラソンマッチの違い - gasin’s blog

                                                                    最近マラソンマッチが流行ってるみたいなので流行に乗って書いてみます 新卒のペーペーですが複数社でヒューリスティックな最適化系のタスクしてきたので参考程度にはなるかも? そもそも最適化とは ja.wikipedia.org まぁこれなんですが、簡単に言うと、パソコンとか数学使って賢いことをすることでリソース(お金)を得る(節約する)ことです。 巡回セールスマン問題(TSP)は有名な例で、複数の荷物を届けるときにどの順番で家を訪れれば最も移動距離が短くできるかみたいな問題は、パソコンを使うと人間よりもかなり賢く解けます。 マラソンマッチとは (組合せ)最適化問題が与えられるので、最もいいスコアが出せた人が優勝!っていう競技です。 昔は海外サイトばかりでしたが、最近はAtCoderというサイトでマラソンマッチが割と頻繁に開かれるようになりました。 競技なので勿論問題設定や各種制約が厳密で、終盤に

                                                                      業務の最適化とマラソンマッチの違い - gasin’s blog
                                                                    • TransformersのPipelinesで日本語固有表現抽出 - Retrieva TECH BLOG

                                                                      こんにちは。TSUNADE事業部研究チームリサーチャーの坂田です。 本記事では、Hugging Face 社が開発しているTransformersのPipelinesという仕組みを使って日本語の固有表現抽出を行う方法をご紹介します。 Transformersとは? 日本語学習済み言語モデル Pipelines Trainer 固有表現抽出とは? 実際に日本語NERTを試してみる 必要な各種依存ライブラリのインストール 使用するデータ 日本語固有表現抽出データセットでのFine-tuning Pipelinesを使った固有表現抽出 実行例 おわりに 参考 Transformersとは? TransformersはHuggingFace社が公開しているPython用ライブラリで、BERTを始めとするTransformer系の言語モデルを使用する際のデファクトスタンダードになっています。また、最

                                                                        TransformersのPipelinesで日本語固有表現抽出 - Retrieva TECH BLOG
                                                                      • 「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足

                                                                        2004年ごろに Google の猫で深層学習が一躍脚光を浴びたとき、画像認識は特徴抽出が難しいので深層学習で良い結果が出るが、自然言語処理は特徴量*1がリッチなので、深層学習を適用するのは難しいだろうと思っていた。 特徴量がリッチとは、例えば「ホームラン」のたった1語でその文はスポーツ、特に野球の話題である可能性が高くなる、みたいな話である。一方、ピクセルの1つが緑であることから何の画像か当てるのは不可能だ。 その後、自然言語処理でも深層学習が当たり前になったのは誰もがご存知のとおりであり、自身の不明を恥じるばかりだ。ただ言い訳をさせてもらえるなら、自然言語処理のえらい先生方も同じように言っていたのだ。 2014年ごろ、LSTM などの深層学習モデルが発展し、自然言語処理でも目覚ましい結果が出始めた。機械翻訳など多くのタスクで、人間の平均といい勝負になったのもこの頃だったと思う。すると、

                                                                          「論理処理が必要と思ったことが確率処理でできるとわかった」のは AI だけだろうか - 木曜不足
                                                                        • 強化学習100題

                                                                          Web site created using create-react-app

                                                                            強化学習100題
                                                                          • BigQuery MLでスロット使用量が急増しているプロジェクトやユーザーを異常検知する - yasuhisa's blog

                                                                            背景 どうやって異常を検知するか BigQuery MLでの異常検知 検知できるモデルの種類 共通設定 データの前準備 モデルの学習 モデルを元にスロット使用量が異常に増加していないか予測する 所感 背景 BigQueryはオンデマンドとフラットレート(定額料金)がある オンデマンドはスキャン量がお金に直結するため、INFORMATION_SCHEMA.JOBS_BY_*などを使ってクエリ警察をしている方も多いはず INFORMATION_SCHEMAに代表されるデータ管理に役に立つ現場のノウハウを最近会社のTech Blogに書いたので、そちらも見てね 一方で、フラットレートに関しては定額使いたい放題のプランであるため、オンデマンドよりはクエリ警察をしていない場合もある 見れるなら見たいが、どうしても支出に直結するオンデマンドを優先して見てしまいがち。工数も限られている が、あまりに自由

                                                                              BigQuery MLでスロット使用量が急増しているプロジェクトやユーザーを異常検知する - yasuhisa's blog
                                                                            • 100fps超え画像生成StreamDiffusionのデモに飽きたら次に進もう。stremオブジェクトで動かすコツ公開|めぐチャンネル

                                                                              解説を論文執筆者でプロジェクトの代表でもある「あき先生」が解説してくださっているYuTubeもあります。論文の拾い読みもしていただいており、とても参考になりますので、ぜひご覧ください。(3時間と長いですが飛ばせるような、無駄な部分はありません) デモやサンプルコードも豊富にあるので、機能や性能を知りたい場合はそちらを動かしてください。大変興味深いデモもあります。アプリに組み込む場合もラッパーが準備されているのでそちらを使えば厄介なpipeやstreamオブジェクトの操作は必要ありません。しかし、性能を引きだしなが柔軟にアプリで使用するためには直接pipeやstreamを操作する方がよさそうです。この記事では後者のケースでStreamDiffusionを使用する時のコツについてこれまでにテストした手法を解説します。 環境構築Readmeに記述されているとおりに構築を進めます。デモやexamp

                                                                                100fps超え画像生成StreamDiffusionのデモに飽きたら次に進もう。stremオブジェクトで動かすコツ公開|めぐチャンネル
                                                                              • 顔のみをアニメ風にして動画配信。動く人の顔を高品質に漫画化するスタイル転送技術「VToonify」【研究紹介】 | レバテックラボ(レバテックLAB)

                                                                                静止画像ベースのスタイル転送のために設計されたアプローチは数多くあり、その多くはモバイルアプリケーションという形で誰でも簡単にアクセスできるようになった。また深層学習技術の出現により、ポートレートスタイルの自動転送を通じて、実顔画像から高品質のポートレートをレンダリングできるようになった。 この潮流は動画にも派生し、動画内の動くポートレートにもスタイル転送できるようになった。ここ数年、動画コンテンツは急速にソーシャルメディアの主役となり、ポートレートビデオのスタイル転送のようなビデオ編集に対する需要も増加した。 既存のビデオベースのスタイル転送技術の多くは、静止画像ベースのスタイル転送技術(StyleGANなど)を動画に適応したアプローチを採用しているため、固定のフレームサイズ、顔の位置合わせ、顔以外の詳細の欠落、時間的不整合など、出力結果の品質に制限があり、課題として残っている。 本研究

                                                                                • GPU1枚、1日未満で学習!超高速学習GAN、「Lightweight GAN」

                                                                                  3つの要点 ✔️ Skip-Layer Excitationとself-supervised Discriminatorを提案し、パラメータの大幅削減に成功 ✔️ 少量データでも学習可能 ✔️ 1024×1024の画像もGPU1枚、数時間で学習可能 Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image Synthesis written by Anonymous (Submitted on 29 Sep 2020) Comments: Accepted at ICLR2021 Subjects: Computer Vision and Pattern Recognition (cs.CV); Image and Video Processing (eess.IV) Comm 概要 これまでのG

                                                                                    GPU1枚、1日未満で学習!超高速学習GAN、「Lightweight GAN」

                                                                                  新着記事