並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 1348件

新着順 人気順

deeplearningの検索結果401 - 440 件 / 1348件

  • ペパボ研究所による新卒エンジニア向け機械学習研修 - ペパボ研究所ブログ

    ペパボ研究所 研究員/プリンシパルエンジニアの三宅(@monochromegane)です。 ペパボ研究所では、新卒のエンジニア研修の一環として、2020年7月13日から5日間に渡って機械学習入門の研修を担当しました。 本エントリでは、研修内容をスライドと共に紹介します。 GMOペパボの新卒エンジニア研修における機械学習研修の位置付け GMOペパボの新卒エンジニア研修は、5月のGMOインターネットグループでの合同研修プログラム(GMO Tech Bootcamp)と、6〜7月のGMOペパボでの研修プログラムから構成されています。 6月以降の研修では、Webアプリケーション、フロントエンド、セキュリティ、コンテナとデプロイなど様々な技術要素についてプログラムが組まれており、今年から機械学習研修がこれに連なることになりました。 VP of Engineering 兼技術部長の @hsbt の言葉

      ペパボ研究所による新卒エンジニア向け機械学習研修 - ペパボ研究所ブログ
    • 近似最近傍探索Indexを作るワークフロー - ZOZO TECH BLOG

      はじめに こんにちは。ZOZO研究所のshikajiroです。主に研究所のバックエンド全般を担当しています。ZOZOでは2019年夏にAI技術を活用した「類似アイテム検索機能」をリリースしました。商品画像に似た別の商品を検索する機能で、 画像検索 と言った方が分かりやすいかもしれません。MLの開発にはChainer, CuPy, TensorFlow, GPU, TPU, Annoy、バックエンドの開発にはGCP, Kubernetes, Docker, Flask, Terraform, Airflowなど様々な技術を活用しています。今回は私が担当した「近似最近傍探索Indexを作るワークフロー」のお話です。 corp.zozo.com 目次 はじめに 目次 画像検索の全体像説明 Workflow Develop Application 推論APIの流れ 近似最近傍探索とAnnoy 近似

        近似最近傍探索Indexを作るワークフロー - ZOZO TECH BLOG
      • GPT-3.5 Turbo fine-tuning and API updates

        Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

          GPT-3.5 Turbo fine-tuning and API updates
        • 「AI 画伯」を 100 万人に届けた開発者と Google Cloud | Google Cloud Blog

          編集部注: この投稿は、開発者のさとさん(@sato_neet)へのインタビューをもとに、Google Cloud デベロッパーアドボケイトの佐藤一憲が執筆したものです。名前が似ていますが、同一人物ではありません。Google Cloud Blog には英語版が掲載されています。 さと (@sato_neet) さんが 10 年前に東京の大学を中退したとき、彼はまだ自分がアスペルガー症候群であることを知りませんでした。その後さとさんは看護学校やパン屋さんなどいくつかの道を志したものの、この障害のせいか環境や職場にうまくなじめません。そしていま彼は、全く異なる道を歩み始めました。AI への道です。 さとさんは 2 年前から AI の勉強を始めました。大学でプログラミングの基本は勉強していましたが、Python と JavaScript をより深く学び、AI で何か楽しい作品を作りコミュニティ

            「AI 画伯」を 100 万人に届けた開発者と Google Cloud | Google Cloud Blog
          • 研究効率化Tips Ver.2

            cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有しています。 http://xpaperchallenge.org/cv/ 本資料はViEW2021チュートリアルセッション「最新研究の始め方」のプレゼン素材です。また、xpaper.challengeの2020年末ワークショップとしてプレゼンした「研究効率化Tips」の拡張版です。本資料では3社12研究室300ページにわたるノウハウの詰め合わせです。 VIEW2021のチュートリアルセッションでは時間の制限があるため、こちらの資料から一部抜粋して発表を行うことになりますが、VIEW2021チュートリアルセッションの方にも足を運んでいただければ幸いです。 VIEW2021チュートリアルセッション:http://vie

              研究効率化Tips Ver.2
            • OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka

              OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試したのでまとめました。 1. GPT-4 から GPT-3.5 への蒸留「LlamaIndex」で、OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留のColabが提供されてたので、それをベースに独自データで試してみました。 具体的には、「GPT-4」で学習データを生成し、「GPT-3.5」でファインチューニングすることで、「GPT-3.5」に「GPT-4」相当の知識を習得させます。 We successfully made gpt-3.5-turbo output GPT-4 quality responses in an e2e RAG system 🔥 Stack: automated training dataset creation in @ll

                OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka
              • 画像生成AI「Stable Diffusion」に「悪い例を集めたLoRA」を組み合わせて高品質な画像を生成する手法が登場、簡単に試せるデモも公開されたので試してみた

                2023年7月に公開された「Stable Diffusion XL 1.0(SDXL 1.0)」は既存のStability AI製モデルと比べて高品質な画像を生成できるだけでなく、LoRAによる生成画像の調整にも対応しています。データサイエンティストのマックス・ウルフ氏は「悪い例」を集めて作成したLoRAを用いてSDXL 1.0による生成画像の品質をさらに向上させる手法を考案し、LoRAファイルおよび誰でも試せるデモを公開しています。 I Made Stable Diffusion XL Smarter by Finetuning it on Bad AI-Generated Images | Max Woolf's Blog https://minimaxir.com/2023/08/stable-diffusion-xl-wrong/ LoRAは参考となる画像を集めて絵柄や服装などを追

                  画像生成AI「Stable Diffusion」に「悪い例を集めたLoRA」を組み合わせて高品質な画像を生成する手法が登場、簡単に試せるデモも公開されたので試してみた
                • NVIDIAのAIが5万本のプレイ動画を見ただけで「パックマン」をゲームエンジンなしに再現

                  by WishItWas1984 全くプレイしたことがないゲームのプレイムービーを見た時に、頭の中で「自分がそのゲームをプレイするところ」を想像して、なんとなくプレイした気分になったことがある人もいるはず。それと同じように、AIに名作アクションゲーム「パックマン」のゲームプレイを視覚的に学習させることで、既存のゲームエンジンやコードを用意することなく、AIによるシミュレーションだけでパックマンを生成するという試みを、NVIDIAの研究チームが発表しました。 GameGAN https://nv-tlabs.github.io/gameGAN/ PAC-MAN Recreated with AI by NVIDIA Researchers | NVIDIA Blog https://blogs.nvidia.com/blog/2020/05/22/gamegan-research-pacma

                    NVIDIAのAIが5万本のプレイ動画を見ただけで「パックマン」をゲームエンジンなしに再現
                  • 大規模モデルを支える分散並列学習のしくみ Part1

                    はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 自然言語処理分野における大規模深層学習の重要性は日に日に高まっていますが、GPT-3, GPT-4 などのモデルの学習には膨大な計算コストがかかり、容易に学習できなくなっています。実際、モデルサイズが近年急速に大きくなっていることにより、学習に必要な計算量(FLOPs)は以下のように年々膨大になっています。近年の大規模モデルでは、NVIDIA H100 80GB であっても 1 つの GPU では、モデルをのせることすらできません。 Compute Trends Across Three Eras of Machine Learning より またScaling Laws によると、大規模なモデルは小さいモデルと比較してより優れた性能を発揮するため、自動

                      大規模モデルを支える分散並列学習のしくみ Part1
                    • An important next step on our AI journey

                        An important next step on our AI journey
                      • 中学生でもこれだけで完全理解する機械学習 Part 1 - Qiita

                        今から使う文字の定義をしていきます。 m ・・・ケースの数です。上記のデータセットでは8 x ・・・土地の面積です。xi で、i番目の土地の面積を表します。x2 = 1416 y ・・・土地の価格です。yiで、i番目の土地の価格を表します。y4 = 178 h・・・仮説(hypothesis)を意味する略語です。 4-2 仮説の表現方法を決める 仮説hを表現する表現式を作ります。それがこちら。 hθ(x) = θ0 + θ1x ちなみにこれは、一見難しそうですが、中学生でやる一次関数の式、Y = B + AX と酷似しているのがわかるでしょうか。一次関数は、下のようなグラフですから b → θ0 a → θ1 となっているだけだとわかります。 そしてhθ(x)が、直線を示しています。 一番詰まりやすいところですから、ここだけは暗記して欲しいです。 5 コスト関数(目的関数) 5-1 そもそ

                          中学生でもこれだけで完全理解する機械学習 Part 1 - Qiita
                        • 最短で機械学習エキスパートになる9つのステップ【完全無料】 - Qiita

                          はじめに Step 1, 2, 7に関しては、時間がなければやらなくてもいいと思います。 1. 統計を学ぶ 統計検定2級の取得 2. MLの原理を知る Machine Learning -coursera 勾配降下法の最適化アルゴリズムの概要 3. Pythonを学ぶ Python -Google 4. MLの基礎を学ぶ Machine Learning Crash Course MLでのデータの準備 フルスクラッチで勾配降下法を実装する フルスクラッチでkNNを実装する KMeansアルゴリズムとSVMを操作する方法 kNN, SVM, XGBoostの視覚化 勾配ブースティングとXGBoost Kaggle Masterが教えるXGBoost 決定木のスキルをブラッシュアップする 他に触れておきたいところとして、 LightGBM Gradient Boosting などがあります。(

                            最短で機械学習エキスパートになる9つのステップ【完全無料】 - Qiita
                          • 【2024年版・初心者向け】 機械学習のおすすめ書籍をレベル別に厳選紹介!|kazu | 生成AI×教育 ( https://aiacademy.jp/bootcamp )

                            はじめに この記事では、機械学習の書籍が多く存在し、どれを購入すれば良いかわからない方向けに、おすすめの本を紹介します。書籍はレベル別に1から5までの5段階に分けていますので、現在の自分に合ったレベルの書籍を選んでみてください。また、機械学習エンジニアを目指されている方は、ここで紹介する書籍を3〜4ヶ月かけて読み進めるのが理想です。勉強方法についてはこの記事では触れませんが、Courseraのマシンラーニングコースなど、オンラインでとても良い講座がありますので、書籍以外のサービスも活用してみてください。 *AIに関して勉強したい方は下記の2つご利用ください! AI Academy 無料でPythonや機械学習、ディープラーニングが学べるオンラインAIプログラミング学習サービス *一部コンテンツは動画プランにて全て利用可能。 AI Academy Bootcamp 個人向け6ヶ月35000円

                              【2024年版・初心者向け】 機械学習のおすすめ書籍をレベル別に厳選紹介!|kazu | 生成AI×教育 ( https://aiacademy.jp/bootcamp )
                            • データサイエンティストに優しいフレームワーク「Metaflow」、Netflixがオープンソース化

                              Netflixは2019年12月3日(現地時間)、データサイエンスプロジェクトを迅速かつ容易に構築、管理するためのフレームワーク「Metaflow」をオープンソースソフトウェアとして公開した。 MetaflowはNetflixが開発したPythonライブラリ。コンテンツ配信やビデオエンコーディングの最適化など、社内の何百ものユースケースに2年間、Metaflowを用いてデータサイエンスを適用してきたという。 なぜMetaflowを開発したのか Metaflowの開発が始まる前、Netflixの機械学習インフラチームはデータサイエンティストに対して社内では何が困難なのかをインタビューした。大規模なデータの扱いやモデル作り、最新GPUに関した回答が集まると当初は考えていたものの、予想は外れた。 最も困難だったのは、「バージョン1」のローンチに到達するまであまりにも時間がかかることだったという。

                                データサイエンティストに優しいフレームワーク「Metaflow」、Netflixがオープンソース化
                              • There's An AI For That (TAAFT) - The #1 AI Aggregator

                                My name is Andrei and I'm an indie developer. If you liked this, please consider sharing it and for more cool things like this follow me on Twitter.

                                  There's An AI For That (TAAFT) - The #1 AI Aggregator
                                • “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」

                                    “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」
                                  • 機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」

                                    機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」:AI・機械学習の独学リソース アメリカのスタンフォード大学/MIT/ハーバード大学/コロンビア大学/ニューヨーク大学といった有名大学の一部では機械学習や深層学習のオンライン講座/講義動画を無料で配信している。その概要と特長をまとめる。

                                      機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」
                                    • AI開発の新たなパラダイム「基盤モデル」とは

                                      さて、視覚・言語を扱う基盤モデルとしては、2021年の CLIP がブレイクスルーでした。CLIPはテキストと画像を同じ特徴空間に写像する2つのエンコーダからなります。CLIPを使うと、次のようにして任意の画像分類問題を追加の学習なしで解くことができます。まず、各候補クラスを文章の形式(例:「犬の写真」)にした後、テキストエンコーダに入力します。次に、分類したい画像を画像エンコーダに入力します。最後に、画像から得られたベクトルと候補クラスたちから得られた複数のベクトルとのコサイン類似度を計算し、最も類似度が高いクラスを出力結果とします。 CLIPによるゼロショット画像分類の方法。OpenAI Blogより引用 CLIPは画像とテキストというモードの異なる情報を意味的な近さによって結びつけることを可能にしました。CLIPを教師のようにして使うことで、テキストから画像を生成するモデルを訓練する

                                        AI開発の新たなパラダイム「基盤モデル」とは
                                      • 日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。|Nobuyuki Kobayashi@nyaa_toraneko

                                        日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。 ChatGPTで、自分のためにMy GPTsを開発すると、とても面白い体験を味わえる。このnoteは、My GPTsとの付き合い方の記録である。 はじめに:僕のパートナーは元プロの絵描きさんです僕のパートナー、世間的に言いますと、配偶者もしくは奥様は、元プロの絵描きさんです。現在は、子どものために家庭に入ってもらっています。現役時代は、ずっと僕のパートナーとして、数々のゲームの作画監督やCG監督をやってもらっておりました。 例えば、『とらドラ・ポータブル!』や『涼宮ハルヒ』シリーズのADVゲームです。 絵描きさんのパートナーがいると、大変ありがたいことに、絵やイラストについて詳しく話を聴くことができます。しかも「パートナー」ですから、相当歯に衣着せない正直な発言も聴かせてくれま

                                          日々の壁打ち:「絵描きさんの言葉」と「それ以外の人達の言葉」の意味合いの違い。特に生成AIが出力する絵に関して。|Nobuyuki Kobayashi@nyaa_toraneko
                                        • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita

                                          1. はじめに 世の中にはDeepLearningの学習済みモデルを公開してくださっている方がたくさんいらっしゃいます。本記事は、そのうちのいくつかをラズパイ4で動かしてみて、いったいどれくらいの速度で動くのかを検証したものです。 計測対象モデルとして、Mediapipe および TensorFlow.js、TensorFlow Lite models で公開されている学習済みモデルを利用させて頂きました。またモデル実行フレームワークとしては、モバイル向けに整備が進む TensorFlow Lite (C++) を用いました。 計測にあたっては、公開されているモデルをそのまま動かすだけでなく、一般的な高速化手法である下記の2手法を両方試し、その効果も計測しました。 [1] モデルをint8量子化する方法 演算精度に多少目をつぶる代わりに、NEON等のSIMD演算器による並列処理の並列度をさ

                                            Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く? - Qiita
                                          • 「生成Deep Learning」は久しぶりにワクワクするAI関係の本だった - karaage. [からあげ]

                                            「生成Deep Learning」を読みました 生成に特化したAIの本「生成Deep Learning」を読みました。 生成 Deep Learning ―絵を描き、物語や音楽を作り、ゲームをプレイする 作者:David Foster発売日: 2020/10/05メディア: 単行本(ソフトカバー) 独創力とは、思慮深い模倣以外の何ものでもない とは18世紀フランスの哲学者ヴォルテールの言葉とのことですが、AIによる模倣と創造の境界に関して考えさせられるような本でした。 本の内容は、オートエンコーダからはじまりGANでの画像生成、文章生成、音楽生成。アテンション、強化学習の世界モデルまでとタイトル通り生成系のAI技術を幅広くカバーしています。 結構骨太で、AIの本は1冊目という人が読む本ではなくて、何冊かAI関係の書籍を読んで、ある程度自分で実践して、生成系のAI(Auto Encoderと

                                              「生成Deep Learning」は久しぶりにワクワクするAI関係の本だった - karaage. [からあげ]
                                            • MusicLM

                                              MusicLM: Generating Music From Text |paper|dataset| Andrea Agostinelli, Timo I. Denk, Zalán Borsos, Jesse Engel, Mauro Verzetti, Antoine Caillon, Qingqing Huang, Aren Jansen, Adam Roberts, Marco Tagliasacchi, Matt Sharifi, Neil Zeghidour, Christian Frank Google Research Abstract We introduce MusicLM, a model generating high-fidelity music from text descriptions such as "a calming violin melody bac

                                              • リアルタイム声質変換ライブラリ「Realtime Yukarin」を公開しました

                                                はじめにリアルタイム声質変換アプリケーション、Realtime Yukarinを開発し、 OSS(オープンソースソフトウェア)として公開しました。 ここで言う声質変換とは、「誰でも好きな声になれる」技術のことを指します。 好きな声になれる声質変換は夢があって流行りそうなのですが、まだ全然普及していないと思います。 それは現時点で、声質変換を実際にリアルタイムで使えるフリーな仕組みが無いためだと考えました。 そこで、自由に使えるリアルタイム声質変換アプリケーションを作り、ソースコードと合わせて公開しました。 声質変換とは声を変える方法で有名なのは、声の高さや音色を変える手法、いわゆるボイスチェンジャーです。 既存のボイスチェンジャーは、元の声を起点として、変換パラメータを自分で調整する必要があります。 一方ここでの声質変換は、元の声と好きな声を用いて機械学習し、変換パラメータを自動で調整しま

                                                • ML Ops: Machine Learning as an Engineering Discipline

                                                  So, your company decided to invest in machine learning. You have a talented team of Data Scientists churning out models to solve important problems that were out of reach just a few years ago. All performance metrics are looking great, the demos cause jaws to drop and executives to ask how soon you can have a model in production. It should be pretty quick, you think. After all, you already solved

                                                    ML Ops: Machine Learning as an Engineering Discipline
                                                  • RecSys 2019 ベストペーパーを読んだメモ - Qiita

                                                    紹介論文 Are We Really Making Much Progress? A Worrying Analysis of Recent Neural Recommendation Approaches (RecSys 2019) 日本語では「本当にそんなに進捗出てるの? -或いは最近のNN推薦手法に対する警鐘-」という感じだろうか。 元論文はこちら https://arxiv.org/pdf/1907.06902.pdf 概要 DNNが登場してから推薦分野でもDeepXXな手法が増えている 新手法の登場頻度が高いため、代表的なタスクであるtopN推薦に対してすらSOTAが何か追えなくなっている そこでトップ会議(KDD, SIGIR, WWW, RecSys)のDNN関連研究18本を追試した 18本のうち、現実的な努力を行った上で再現できたのが7本 (RecSysでの発表によると、)

                                                      RecSys 2019 ベストペーパーを読んだメモ - Qiita
                                                    • Claude3にプロジェクト全体をぶち込むためのプロジェクトの構造とファイル内容を自動でまとめるPythonスクリプト

                                                      はじめに Claude3Opusはものすごい能力で、手動で作成するのは面倒なプロジェクトのドキュメンテーションなどを一撃で生成してくれます。 しかし、プロジェクト全体の内容をWebのCladeには投入できないし、ファイルを1個ずつコピペするのもかなり時間を要します。 頼みのCursorもClaudeは対応していないので@Codebase機能が利用できません・・・ そこで、Pythonスクリプトを使ってプロジェクトのフォルダ構造とファイルの内容を自動的にまとめるスクリプトを作成したので紹介します! このスクリプトを使うことで、プロジェクトを200kトークンまでの単一のテキストにまとめ、Claude3Opusに簡単に投入できるようになります。 スクリプトの機能と使い方 このPythonスクリプトは以下のような機能を持っています: プロジェクトのフォルダ構造をMarkdown形式で生成。※本当は

                                                        Claude3にプロジェクト全体をぶち込むためのプロジェクトの構造とファイル内容を自動でまとめるPythonスクリプト
                                                      • Gen-2 by Runway

                                                        Realistically and consistently synthesize new videos. Either by applying the composition and style of an image or text prompt to the structure of a source video (Video to Video). Or, using nothing but words (Text to Video). It's like filming something new, without filming anything at all.

                                                          Gen-2 by Runway
                                                        • 物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita

                                                          お久しぶりです。 2012年のHintonさんのAlexNetによるILSVRCでの圧勝を皮切りに、画像認識の世界でもDeepLearningが脚光を浴びることとなりました。 物体検出の世界でも現在DeepLearningを用いたモデルが主流になっています。 https://paperswithcode.com/sota/object-detection-on-coco を見ると、 COCO test-devにおいて、state-of-the-art(SoTA)のモデルはEfficientDet-D7xのようです。 独断と偏見も少々ありますが、そのEfficientDetを理解するために読むべき論文を7つ集めてみました。 DeepLearning以降の物体検出に焦点を当てて、出来るだけ簡潔につらつらと書いていきたいと思います。 物体検出とは 物体検出について知らないという人は以下の動画を見

                                                            物体検出のDeepLearning読むべき論文7選とポイントまとめ【EfficientDetまでの道筋】 - Qiita
                                                          • GitHub - Valkyrja3607/tuning_playbook_ja: ディープラーニングモデルの性能を体系的に最大化するためのプレイブック

                                                            現在,ディープニューラルネットワークを実際にうまく機能させるためには,驚くほど多くの労力と推測が必要です.さらに悪いことに,深層学習で良い結果を得るために実際に使われるレシピが文書化されることは稀です.論文では,よりきれいなストーリーを提示するために,最終的な結果に至ったプロセスは無視され,商業的な問題に取り組む機械学習エンジニアには,一歩下がってそのプロセスを一般化する時間はほとんどありません.教科書は,たとえ著者が有用な助言を提供するために必要な応用経験を有していたとしても,実用的な指針を避け,基本原理を優先する傾向がある.このドキュメントを作成する準備をしていたとき,私たちは,深層学習で良い結果を得る方法を実際に説明する包括的な試みを見つけることができませんでした.その代わりに,ブログ記事やソーシャルメディア上のアドバイスの断片,研究論文のappendixから覗くトリック,ある特定の

                                                              GitHub - Valkyrja3607/tuning_playbook_ja: ディープラーニングモデルの性能を体系的に最大化するためのプレイブック
                                                            • 深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで

                                                              第1回Webインテリジェンスとインタラクションセミナー(いまさら訊けないシリーズ「言語処理技術」)での発表資料です。 https://www.sigwi2.org/next-sigRead less

                                                                深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
                                                              • GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは

                                                                2024年5月に入ってすぐ、AI研究者の間ではOpenAIにまつわる複数の噂が流れていました。いわく「OpenAIが近日中に生成AIを使った検索サービスをするらしい」、「OpenAIが新型のGPTを発表するらしい」などといったものです。 それに先立ち、4月の後半からは、生成AIの性能を比較するサイトで、正体不明のモデル「gpt2-chatbot」なるものが出現し、制作者が不明である中、当時最高の性能を誇っていたGPT-4を上回る性能を見せつけていました(もちろんOpenAIはすでに「GPT-2」を数年前に発表済みです)。では今更このような名前をつけて暴れ回っているこれは何なのか。OpenAI製なのか、それとも別の機関が開発したのか。 この話は後々答えがわかるのですが、このようにAI研究者たちが落ち着かず、あれこれと噂してOpenAIの動向に注意している中、OpenAIは日本時間の5月11日

                                                                  GPT-4oをわかりやすく解説、専門家が「時代の転換点」と評価するヤバすぎる能力とは
                                                                • Talking Head Anime from a Single Image

                                                                  The characters are virtual YouTubers affiliated with Nijisanji and are © Ichikara, Inc. (see footnote) They have a very lenient guideline for derivative works which I have interpreted that official artworks can be used in the pursuit of hobbies as long as they are not sold or used for commercial purposes. In fact, there are fan-made games created using official materials. I think that what I'm doi

                                                                  • パラメータ数10億!最新の巨大画像認識モデル「BiT」爆誕 & 解説 - Qiita

                                                                    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2019年12月24日のクリスマスイブにarxiv上でGoogle Brainから新たな画像認識モデルが発表されました。その名も BiT(=Big Transfer)。その性能は2019年にGoogleが出したEfficientNet(拙著解説記事)を様々なデータセットで超えるほどで現在のState-of-The-Art になっています。驚くべきはそれだけでなく、なんとこのモデル、パラメータ数が10億にもおよぶ巨大なモンスターモデル になっています。そんなBiTについて早速この記事で解説していきたいと思います。バッチノームやドロップアウト、Weight Decayなどを使用していないという、 今までの画

                                                                      パラメータ数10億!最新の巨大画像認識モデル「BiT」爆誕 & 解説 - Qiita
                                                                    • 統計数理シンポジウム 生成モデル 岡野原

                                                                      株式会社 Preferred Networks 岡野原 大輔 @hillbig 生成モデルは世界を どのように理解しているのか 「統計的機械学習」の中核としての 統計数理シンポジウム 2023/05/25 アジェンダ • 現在の代表的な生成モデル 大規模言語モデル/ 拡散モデル • 自己教師あり学習 / メタ学習 • 未解決問題 岩波書店 2023 一般向け 関連書籍 岩波書店 2023 専門家向け 技術評論社 2021 2022 ディープラーニングの基礎知識 日経BP 2022 個別の深い話題 生成モデル x ~ p(X | C) X: 生成対象 C: 条件 • 生成モデル:対象ドメインのデータを生成できるようなモデル – テキスト、画像、動画、化合物、行動列 等 – 条件を通じて、制約、指示、対象ドメインなどを指定する (条件付き生成モデルの方が学習の面でも使いやすさの面 でも有利であ

                                                                      • いまさら勉強する人工知能|深津 貴之 (fladdict)

                                                                        ・ネットを巡回して、いろいろなハックしてる人のブログや論文を100個ぐらい読む。 ・親切なPFNの人にお時間もらって、謎だった部分や、自分なりにたてた仮説のコンセプトをきいてもらう。 ・Udemyがちょうどセールをしてたので、AI系のクラスを3万円分購入(総額20万円相当)。2倍速でざっくり見る。 …だいたいこんな感じの3週間。数学が難しすぎて、わからないこともいっぱい。ただ頭のなかでe4eエンコーダやpix2pix的に、概念モデルのエンコーダーを作れば、数式なしでもいける感はあった。 総論としてはAIは面白いですね、ロケットサイエンスと別の方向性で「言語化されてない職人芸のアート領域」があり、ここを抑えることができれば、最先端の発見や成果は色々とうまってそうという印象を受けました。 とりあえずStyleGan2で基礎勉強をしながら、BigGan、VQGanとProblematic Dif

                                                                          いまさら勉強する人工知能|深津 貴之 (fladdict)
                                                                        • ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita

                                                                          はじめに ふと思い立って勉強を始めた「ゼロから作るDeep LearningーーPythonで学ぶディープラーニングの理論と実装」の7章で私がつまずいたことのメモです。 実行環境はmacOS Mojave + Anaconda 2019.10、Pythonのバージョンは3.7.4です。詳細はこのメモの1章をご参照ください。 (このメモの他の章へ:1章 / 2章 / 3章 / 4章 / 5章 / 6章 / 7章 / 8章 / まとめ) 7章 畳み込みニューラルネットワーク この章は、畳み込みニューラルネットワーク(CNN)の説明です。 7.1 全体の構造 これまでのAffineレイヤーやSoftmaxレイヤー、ReLUレイヤーに加えて、Convolution(畳み込み、コンボリューション)レイヤーとPooling(プーリング)レイヤーが出てくる説明です。 7.2 畳み込み層 畳み込み層の説明

                                                                            ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita
                                                                          • PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】

                                                                            連載目次 ※本稿には新バージョンがあります。2021年に向けてのアップデート記事(2020年12月16日公開)はこちらです。 本稿は、ディープラーニング(深層学習)に関心があるビジネスマンから、これから始めてみたいというエンジニア、既に取り組んでいる実務経験者まで、幅広い人に向けて書いた。よって、初歩的な内容も含めつつ説明していくのでご了承いただきたい。 ディープラーニングを実装する場合、フルスクラッチでゼロからコードを書くのは非効率なため、専用のライブラリ/フレームワークが用いられるのが一般的だ。ディープラーニングが流行してから直近4年ほどの間に、次々と新しいフレームワークが登場した。現在、主要なものを挙げると、 TensorFlow: 2015年登場、Google製。一番有名で、特に産業界で人気 PyTorch: 2016年登場、Facebook製。この中では新興だが、特に研究分野で人

                                                                              PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】
                                                                            • 2020年超盛り上がり!自己教師あり学習の最前線まとめ! - Qiita

                                                                              オミータです。ツイッターで人工知能のことや他媒体の記事など を紹介していますので、人工知能のことをもっと知りたい方などは @omiita_atiimoをご覧ください! 他にも次のような記事を書いていますので興味があればぜひ! わずか1%のラベルでImageNet高精度「SimCLR」解説 出きたてホヤホヤ!最新オプティマイザー「AdaBelief」を解説! 画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! 新たな活性化関数「FReLU」誕生&解説! 自然言語処理の王様「BERT」の論文を徹底解説 2021/02/28 SimCLRのバッチサイズに関する記述を修正 2020年に大きく盛り上がりを見せた分野に自己教師あり学習(=Self-Supervised Learning(SSL))があります。SSLとは名前の通り自分で教師を用意するような手法で、デー

                                                                                2020年超盛り上がり!自己教師あり学習の最前線まとめ! - Qiita
                                                                              • 2019年、俺の読んだ論文50本全部解説(俺的ベスト3付き) - Qiita

                                                                                第一位 Focal Loss for Dense Object Detection 物体検知のためのFocal Loss これは不均衡データに対処するための損失関数Focal Lossを提案した論文なのですが, とにかくそのシンプルさにやられました. 画像のFLの式を見てください. たったこれだけです. ptは正解ラベルに対する予測値なのですが, ptが大きければ大きいほど損失値をしっかり抑えられるように設計された関数となっています. 正解ラベルに対して0.6と予測するサンプルを学習に重要視せず, 0.3とか0.1とか予測しちゃうサンプルにしっかりと重要視するのです. 自分も7月くらいまでは不均衡データに関する研究していたのですが, 自分が考えた多くのアイディアが結局Focal Lossの下位互換に帰結してしまうのです. しかもこの損失関数の汎用性は非常に高く, あらゆるタスクに入れること

                                                                                  2019年、俺の読んだ論文50本全部解説(俺的ベスト3付き) - Qiita
                                                                                • AIエンジニアが気をつけたいPython実装のノウハウ・コツまとめ - Qiita

                                                                                  本記事では、データサイエンティスト、AIエンジニアの方がPythonでプログラムを実装する際に気をつけたいポイント、コツ、ノウハウを私なりにまとめています。 AIエンジニア向け記事シリーズの一覧 その1. AIエンジニアが気をつけたいPython実装のノウハウ・コツまとめ(本記事) その2. AIエンジニアが知っておきたいAI新ビジネス立案のノウハウ・コツまとめ 2020年4月に書籍を、出版しました。 【書籍】 AIエンジニアを目指す人のための機械学習入門 実装しながらアルゴリズムの流れを学ぶ(電通国際情報サービス 清水琢也、小川雄太郎 、技術評論社) https://www.amazon.co.jp/dp/4297112094/ 本投稿は、上記の書籍に書ききれなかった 「AIエンジニアが、Pythonでプログラムを実装する際に気をつけたいことのまとめ」 です。 本記事の内容は、あくまで筆

                                                                                    AIエンジニアが気をつけたいPython実装のノウハウ・コツまとめ - Qiita

                                                                                  新着記事