並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 156件

新着順 人気順

"image recognition"の検索結果1 - 40 件 / 156件

  • 30分で完全理解するTransformerの世界

    はじめに 初めまして。ZENKIGENデータサイエンスチームのはまなすです。正式な所属はDeNAデータ本部AI技術開発部なのですが[1]、業務委託という形で今年度から深層学習系の開発等に携わっています。 深層学習界隈では、2017年に衝撃的なタイトル(Attention Is All You Need)の論文が発表されてから早5年半、元出自の機械翻訳タスクを大きく越えて、Transformer関連の技術が様々な領域で用いられる汎用アーキテクチャとして目覚ましく発展し続けています。 今回はそんなTransformerが現時点までにどのように活用されてきたか、また、どのように工夫されてきたかをざっくりと俯瞰し、流れをおさらいする目的の記事になります。本記事の大枠は、2021年時点でのサーベイ論文である A Survey of Transformers に倣いつつ、適宜、2023年2月上旬現在ま

      30分で完全理解するTransformerの世界
    • Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita

      08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けましたので追記いたしました。線形変換においては「チャネル間の加重和である1x1畳み込み」を実装では用いています。 08/31 (2020): 本論文で提案されているモデルの呼称に関して認識が誤っていたためタイトルおよび文章を一部修正しました。 言葉足らずの部分や勘違いをしている部分があるかと思いますが、ご指摘等をいただけますと大変ありがたいです。よろしくお願いします!(ツイッター:@omiita_atiimo) 近年の自然言語処理のブレイクスルーに大きく貢献したものといえば、やはりTransformerだと思います。そこからさらにBERTが生まれ、自然言語の認識能力などを測るGLUE Benchmarkではもはや人間が13位(2020/08現在)にまで落ちてしまっているほ

        Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita
      • 画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! - Qiita

        0. 忙しい方へ 完全に畳み込みとさようならしてSoTA達成したよ Vision Transformerの重要なことは次の3つだよ 画像パッチを単語のように扱うよ アーキテクチャはTransformerのエンコーダー部分だよ 巨大なデータセットJFT-300Mで事前学習するよ SoTAを上回る性能を約$\frac{1}{15}$の計算コストで得られたよ 事前学習データセットとモデルをさらに大きくすることでまだまだ性能向上する余地があるよ 1. Vision Transformerの解説 Vision Transformer(=ViT)の重要な部分は次の3つです。 入力画像 アーキテクチャ 事前学習とファインチューニング それぞれについて見ていきましょう。 1.1 入力画像 まず入力画像についてです。ViTはTransformerをベースとしたモデル(というより一部を丸々使っている)ですが、

          画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! - Qiita
        • 【AI動画生成】Sora 要素技術解説

          もう全部OpenAIでいいんじゃないかな はじめに 月間技術革新です。 ということで、昨日OpenAIから発表された新しい動画生成AI「Sora」が非常に話題となっていますね。 圧倒的な一貫性の保持と1分間に及ぶ長時間動画が生成可能という事で、現状の動画生成技術を圧倒的に凌駕する性能を持っているようです。 在野エンジニアの小手先テクニックなど一笑に付すような圧倒的性能を Soraの凄さは色んなエンジニアやインフルエンサーがたくさん語っているのでそちらを見てもらうとして、この記事ではSoraを構成する各技術について簡単に解説していければと思います。 Soraの技術構成 論文が公開されているわけではないですが、OpenAIが要素技術の解説ページを公開してくれているため、そのページを参考にしていきます。 原文を見たい方はこちらからどうぞ 全体構成 Soraは以下の技術要素で構成されているとのこと

            【AI動画生成】Sora 要素技術解説
          • Transformer Explainer: LLM Transformer Model Visually Explained

            What is a Transformer? Transformer is a neural network architecture that has fundamentally changed the approach to Artificial Intelligence. Transformer was first introduced in the seminal paper "Attention is All You Need" in 2017 and has since become the go-to architecture for deep learning models, powering text-generative models like OpenAI's GPT, Meta's Llama, and Google's Gemini. Beyond text, T

              Transformer Explainer: LLM Transformer Model Visually Explained
            • Deep Learning ideas that have stood the test of time

              Deep Learning is such a fast-moving field and the huge number of research papers and ideas can be overwhelming. The goal of this post is to review ideas that have stood the test of time. These ideas, or improvements of them, have been used over and over again. They’re known to work. If you were to start in Deep Learning today, understanding and implementing each of these techniques would probably

              • Announcing New Tools for Building with Generative AI on AWS | Amazon Web Services

                AWS Machine Learning Blog Announcing New Tools for Building with Generative AI on AWS The seeds of a machine learning (ML) paradigm shift have existed for decades, but with the ready availability of scalable compute capacity, a massive proliferation of data, and the rapid advancement of ML technologies, customers across industries are transforming their businesses. Just recently, generative AI app

                  Announcing New Tools for Building with Generative AI on AWS | Amazon Web Services
                • 2020年のおもしろかったDL/ML論文10選 - Qiita

                  はじめに 2020年も,機械学習コミュニティでは多くの新しい成果が見られました.2019年に引き続き,1年を振り返ってもっとも面白かった論文を10本紹介したいと思います. * 本記事は,私のブログにて英語で書いた記事を翻訳し,適宜加筆修正したものです. ** 記事中の画像は,ことわりのない限り対象論文からの引用です. 論文10選(公開順) 普段から,読んだ論文を簡単にまとめてツイートしているので,それを使って公開日順に振り返っていきます.対象はおおまかに「2020年に公開された論文」と「2020年に学会・雑誌で発表されたもの」とします.全くの主観で選んでいるので,私の興味範囲である深層学習および応用研究に偏っている点はご容赦ください. 紹介するのはこちらの10本です! Rigging the Lottery: Making All Tickets Winners PIFuHD: Multi

                    2020年のおもしろかったDL/ML論文10選 - Qiita
                  • 認めたくないものだな… Neural Networkの力学系表現というものを - Qiita

                    この記事は、NTTコミュニケーションズ Advent Calendar 2019の18日目の記事です。 昨日は @yusuke84 さんの記事、WebRTC Platform SkyWayのサポートについて考えていること でした。 メリークリスマス! はじめに 会社のAdvent Calendarということで、当初はある程度流れに忖度して技術的なTipsを書こう! とか考えて、Neural Networkについてネタ探ししてたのですが、結局自分が興味のある話、それも実装よりも理論一辺倒な話に落ち着いてしまった、本記事はそんな成れの果てです。 (まあ1人くらい暴走しても良いですよね、きっと) というわけで、Neural Networkを用いた物理系の表現について、少し前から気になってる話をツラツラと書いていきます。そのうちに、この辺の話を端緒に新規性のある手法を論文化するから、それ相応の評価

                      認めたくないものだな… Neural Networkの力学系表現というものを - Qiita
                    • RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog

                      Amazon Prime 一ヶ月無料 Seq2seqからBERTまでのNLPモデルの歴史をざっとまとめる。 DNNは知ってるけどTransformerってなんだかわからない、って人におすすめです。 Abst. 画像認識にもTransformerが使われることが多く、DeepRLやGPT-3といったNLPモデルも身近になってきています。"Attention is 何?"と言えなくなってきたので勉強しました。 Feedforward NetworksからSeq2Seq, Attention機構からTransformer登場、そしてBERT GPTといった最新モデルまでの流れを広く浅く記述する予定。 またKaggle NLPコンペの上位解法から利用例を探る。 Tl;DR TransformerはSelf-Attentionという機構でデータ内の時系列的特徴を抽出でき、従来のRNNを始めとするNN

                        RNNからTransformerまでの歴史を辿る ~DNNを使ったNLPを浅く広く勉強~ - arutema47's blog
                      • 2020年機械学習総まとめ 興味深い論文/記事85選|akiraTOSEI

                        この記事では、2020年に発表された論文や記事のうち、特に興味深かったものを合計85紹介します。下記12のトピックに分けて紹介していますが、あくまで便宜上の分類です。私の個人的な2020年総括は以下の通りです。 ---------------------   個人的2020年総まとめと所感  --------------------- 2020年はTransformerが大躍進しました。自然言語処理では大規模なTransformerモデルであるGPT-3が高い精度を多くのタスクで叩き出しています。大量のデータと大量のパラメータを使って画像分類でも最高精度であったBig Transferを超えるものが出てきています。 差別的要素や著作権の問題のないフラクタル画像データセットはAIの倫理がさらに重視されるであろう今後は、非常に重要なものになってくるかもしれません。ImageNetにアクセスでき

                          2020年機械学習総まとめ 興味深い論文/記事85選|akiraTOSEI
                        • 【初学者必見】 CNN の過去のモデルから紐解いて学ぶと理解が深まった話 - Qiita

                          はじめに はじめまして。株式会社キカガクの河原です。 キカガクは、「AI を含めた先端技術の研修」を行っている会社です。 さっそくですが、CNN の構造ってどのように決めるのか、難しいと感じた方も多いのではないでしょうか。 フィルタのサイズは、なぜ $3\times3$ が多いのか Convolution と Pooling は何回繰り返したらいいのか Convolution を何度も繰り返すと、計算量膨大になるのでは みなさん、様々な疑問を抱いてるかと思います。 私自身、学び初めの頃は、どのように CNN のアーキテクチャを構成すればいいのか、理解出来ずにいました。 そこで、CNN の過去のモデルから紐解いて学ぶ事によって、上記の疑問が解消された背景から、本記事を書いていきます。 本記事を通して、皆様の抱いていた疑問が少しでも解消されれば幸いです。 本記事を参考にして欲しい方 ニューラル

                            【初学者必見】 CNN の過去のモデルから紐解いて学ぶと理解が深まった話 - Qiita
                          • 画像検索のwebアプリを雑に作ってみる - Re:ゼロから始めるML生活

                            可愛かったのでアイキャッチ画像にしました ちょっと画像検索が必要になることがあり、良い機会なので復習しようということになりました。 過去にはこんなのをやってみたりしました。 www.nogawanogawa.com 今回は改めて、主にこちらの資料を参考に画像検索に関して復習してみました。 docs.google.com 今回はこちらを参考にアプリを作ってみたのでそのメモです。 画像検索 TBIRとCBIR CBIRの実現方法 画像検索として使用する特徴量 RGB Histgram Average Hash Perceptual Hash SIFT SURF NN Embedding 類似度の評価方式 Bag of keypoints Earth Mover's Distance SVM ハミング距離 コサイン類似度 要するに 作ってみる 対象画像 画面まわり 検索周り pHash - ハミ

                              画像検索のwebアプリを雑に作ってみる - Re:ゼロから始めるML生活
                            • コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog

                              目次 目次 はじめに 論文紹介 The Norm Must Go On: Dynamic Unsupervised Domain Adaptation by Normalization OcclusionFusion: Occlusion-aware Motion Estimation for Real-time Dynamic 3D Reconstruction EPro-PnP: Generalized End-to-End Probabilistic Perspective-N-Points for Monocular Object Pose Estimation Cascade Transformers for End-to-End Person Search TrackFormer: Multi-Object Tracking With Transformers Global T

                                コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog
                              • Host your LLMs on Cloud Run | Google Cloud Blog

                                Run your AI inference applications on Cloud Run with NVIDIA GPUs Developers love Cloud Run for its simplicity, fast autoscaling, scale-to-zero capabilities, and pay-per-use pricing. Those same benefits come into play for real-time inference apps serving open gen AI models. That's why today, we’re adding support for NVIDIA L4 GPUs to Cloud Run, in preview. This opens the door to many new use cases

                                  Host your LLMs on Cloud Run | Google Cloud Blog
                                • 機械学習チームで論文読み会を実施してみました(A ConvNet for the 2020s解説) - BASEプロダクトチームブログ

                                  BASEの機械学習チームで論文読み会を実施してみました こんにちは。BASEのDataStrategy(DS)チームでエンジニアをしている竹内です。 DSチームではBASEにおける様々なデータ分析業務をはじめ、機械学習技術を利用した検索、推薦機能のサポート、商品のチェックや不正決済の防止などに取り組んでいます。 先日、チーム内で最新の機械学習技術についての知見を相互に深めるための試みとして、各々興味のある機械学習系の論文を持ち寄って紹介し合う、いわゆる論文読み会というものを実施してみました。 この記事では、その会で私が発表した内容の一部を紹介したいと思います。 ※ 中身は論文読み会用から本記事用に一部修正を加えています。 A ConvNet for the 2020s 紹介する論文について タイトル: A ConvNet for the 2020s 著者: Zhuang Liu, Hanz

                                    機械学習チームで論文読み会を実施してみました(A ConvNet for the 2020s解説) - BASEプロダクトチームブログ
                                  • OpenAI Sora に使われる技術

                                    TL; DR OpenAI が非常に高品質な動画生成モデル Sora を公開 画像生成モデル Diffusion-Transformer を利用 動画を3次元画像として扱うことで画像モデルを拡張 キャプションは DALL•E3 同様、キャプション生成モデルで作成 OpenAI Sora Sora は OpenAI が今年の2月に発表した、動画生成モデルです。まずはこのモデルの出力例を見てみましょう。 図1. Sora の生成例: https://cdn.openai.com/sora/videos/big-sur.mp4 各フレームの画像が非常に美しく生成されています。また、従来の動画生成では時間が経った際に写っているオブジェクトを保つことが難しく、消えたり現れたり、急に歪んだりするものが多かったのに対し、Sora では一度隠れてから再度現れる場合であっても、矛盾なく生成できています。 こ

                                      OpenAI Sora に使われる技術
                                    • Facebook AI主催の画像のコピー検知のコンペで入賞した際の取り組み | BLOG - DeNA Engineering

                                      はじめに データ統括部データサイエンス第二グループ所属の横尾です。普段はデータサイエンスやコンピュータビジョンなどを扱う業務をしながら、Kaggleなどのコンペに空き時間を見つけて参加しています。本記事では Facebook AI主催のコンペ で入賞した際の取り組みについて紹介します。 早速ですが、忙しい方のために以下に解法をまとめました: Data augmentationを工夫し、画像のコピー&改変をデータセットに忠実に再現 Contrastive lossとcross-batch memoryを組み合わせた距離学習 Progressive learningによるEfficientNetV2の学習 類似の負例を用いたベクトルに対する後処理 こちらは、本コンペの自分の解法をまとめた技術レポートとコードのリンクです。 arXiv GitHub ※ 一定深層学習分野に関する知識がある読者を想

                                        Facebook AI主催の画像のコピー検知のコンペで入賞した際の取り組み | BLOG - DeNA Engineering
                                      • 顔特徴量の関係性を規定しない新しい顔認識アルゴリズム「BioMetricNet」とは?

                                        3つの要点 ✔️ ユークリッド距離や角度距離など特徴量間の関係性を事前に定める必要がない新しいアルゴリズム「BioMetricNet」を提案 ✔️ 代わりに、マッチングと非マッチングが事前に定められたそれぞれの分布に従うよう学習 ✔️ 顔認識で高精度を達成している手法(CosFace、ArcFace、SphereFace)と比べて、一貫して高い精度を報告 The Effect of Wearing a Mask on Face Recognition Performance: an Exploratory Study written by Arslan Ali, Matteo Testa, Tiziano Bianchi, Enrico Magli (Submitted on 13 Aug 2020) Comments: Accepted at ECCV2020 Subjects: Com

                                          顔特徴量の関係性を規定しない新しい顔認識アルゴリズム「BioMetricNet」とは?
                                        • 機械学習で「似ているヘアスタイル」を見つける手法 〜 Yahoo! BEAUTYでの実装事例

                                          ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。CTO直下のR&D組織であるテックラボにて、メディア処理系の研究開発に取り組んでいる志賀と三浦です。本記事ではYahoo! BEAUTYにおける「似ているヘアスタイル」表示機能の性能を改善した方法を紹介いたします。 Yahoo! BEAUTYと「似ているヘアスタイル」 Yahoo! BEAUTYは「好みのヘアスタイルからスタイリストを探せて出会えるサービス」として2019年12月にスタート。ヘアスタイルに関する検索、ヘアスタイル写真、スタイリスト情報、ヘアサロン情報などの機能やコンテンツを提供しています。 ユーザーが好みのヘアスタイルを見つけるための機能のひとつとして提供されているのが、ヘアスタイル詳細画面で表示された

                                            機械学習で「似ているヘアスタイル」を見つける手法 〜 Yahoo! BEAUTYでの実装事例
                                          • Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita

                                            3~4ヶ月かけてA4・195ページの薄くない薄い本を書きました。タイトルは『モザイク除去から学ぶ 最先端のディープラーニング』です。TensorFlow2.0全対応です。 Inpaintingとは 画像の一部を塗りつぶしてもっともらしく画像を復元するタスク。画像全体ではなく、白く塗りつぶした部分の生成を目標とします。 画像:https://github.com/JiahuiYu/generative_inpaintingより 関連: * GLCICで無かったことにしたいアレコレ(GANを使った画像生成を Globally and Locally Consistent Image Completion で理解してみる) * 【論文読み】Image Inpainting for Irregular Holes Using Partial Convolutions ※Inpaintingという言

                                              Inpaintingからディープラーニング、最新のGAN事情について学べる本を書いた - Qiita
                                            • Android端末をターゲットに「OCRソフトウェアで仮想通貨の認証情報を盗むマルウェア」が280種類以上も見つかる

                                              光学文字認識(OCR)技術を用いて画面上に表示されている文字情報を認識することで、仮想通貨ウォレットアプリの認証情報を盗み出す悪意のあるAndroidアプリの存在を、セキュリティ企業のMcAfeeが指摘しています。McAfeeによると、OCRを用いて認証情報を盗む悪意のあるアプリは、280種類以上も存在するそうです。 New Android SpyAgent Campaign Steals Crypto Credentials via Image Recognition | McAfee Blog https://www.mcafee.com/blogs/other-blogs/mcafee-labs/new-android-spyagent-campaign-steals-crypto-credentials-via-image-recognition/ SpyAgent Android

                                                Android端末をターゲットに「OCRソフトウェアで仮想通貨の認証情報を盗むマルウェア」が280種類以上も見つかる
                                              • すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! | ドクセル

                                                スライド概要 ■ タイトル: すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! - 日付: 2024年5月25日 - スピーカー: 出戻りガツオ(De’modori Gatsuo) - 主催: ビリビリ☆Power Apps 同好会 ### スピーカープロフィール - 名前: 出戻りガツオ(De’modori Gatsuo) - 役職: Microsoft 365 コンサルタント、インドの青鬼 語り隊 隊長 - スキル: Power Apps、Power Automate、Python、Excel VBA、Google Apps Script、RPA、Power BI、SharePoint #### セッション内容 1. テーマ紹介 - GPT-4o(オムニ)について - Azure OpenAI APIの使用方法とその事前準備 - 利用コストと

                                                  すごすぎ!GPT-4oをPower Apps、Power Automateで楽しんでみよう! | ドクセル
                                                • 電気信号に変換せず光のまま考える!? 1秒間に20億枚の画像処理をするチップを開発! - ナゾロジー

                                                  人間は目から映像を取り込んで脳で処理しますが、コンピュータにも同じことができます。 スマホの顔認証システムのように、カメラで画像を取得して、チップで処理しているのです。 そんなコンピュータの画像処理の分野に革新が訪れようとしています。 アメリカ・ペンシルバニア大学(UPenn)電気システム工学科に所属するファシッド・アシティアニ氏ら研究チームが、1秒間に20億枚の画像処理が可能なニューラルネットワークを開発したのです。 従来は光を電気に変換してから処理していましたが、光のまま処理できるシステムを作ることで、処理速度を大きく向上させています。 研究の詳細は、2022年6月1日付の科学誌『Nature』に掲載されました。 Penn Engineers Create Chip That Can Process and Classify Nearly Two Billion Images per

                                                    電気信号に変換せず光のまま考える!? 1秒間に20億枚の画像処理をするチップを開発! - ナゾロジー
                                                  • 2021/04/18 第6回全日本コンピュータビジョン勉強会「Transformer論文読み会」発表資料まとめ - takminの書きっぱなし備忘録 @はてなブログ

                                                    ※(2021/04/19)shade-treeさんとlosnuevetorosさんの資料へのリンクが古かったため修正しました。 関東、名古屋、関西のコンピュータビジョン勉強会合同で開催している全日本コンピュータビジョン勉強会の6回目です。 今回は、Visionでも応用が進んできたTransformer縛りの論文読み会を行いました。 注目なテーマなだけに、たくさんの発表者/聴講者の方にご参加いただきました。ありがとうございます。 以下、リンク等をまとめます。 今回、発表資料の中には質疑応答用のSlackのみで公開されているものもありますのでご了承ください。 登録サイト kantocv.connpass.com Togetter togetter.com Youtube ※勉強会開始は動画開始から30分後 www.youtube.com 発表資料 発表者 論文タイトル 発表資料 Seitaro

                                                      2021/04/18 第6回全日本コンピュータビジョン勉強会「Transformer論文読み会」発表資料まとめ - takminの書きっぱなし備忘録 @はてなブログ
                                                    • ICLR 2022 — A Selection of 10 Papers You Shouldn’t Miss

                                                      Image by Zeta Alpha.The International Conference in Learning Representations (ICLR) will be held online (for the third year in a row!) from Monday, April 25th through Friday, April 29th. It’s one of the biggest and most beloved conferences in the world of Machine Learning Research, and this year is no exception: it comes packed with more than a thousand papers on topics ranging from ML theory, Rei

                                                        ICLR 2022 — A Selection of 10 Papers You Shouldn’t Miss
                                                      • A complete guide to OCR using Pytesseract and OpenCV in 2024

                                                        Published: Feb 27, 2023 ● Updated: Jul 24, 2024 In this blog post, we will try to explain the technology behind the widely used Tesseract Engine, which was upgraded with the latest knowledge researched in optical character recognition. This article will also serve as a how-to guide/ tutorial on how to implement PDF OCR in python using the Tesseract engine. We will be walking through the following

                                                          A complete guide to OCR using Pytesseract and OpenCV in 2024
                                                        • Semi supervised, weakly-supervised, unsupervised, and active learning

                                                          An overview of semi supervised learning, weakly-supervised learning, unsupervised learning, and active learning. Focused on recent deep learning-based image recognition approaches.Read less

                                                            Semi supervised, weakly-supervised, unsupervised, and active learning
                                                          • OpenAI customer story: Be My Eyes

                                                            Since 2012, Be My Eyes has been creating technology for the community of over 250 million people who are blind or have low vision. The Danish startup connects people who are blind or have low vision with volunteers for help with hundreds of daily life tasks like identifying a product or navigating an airport. With the new visual input capability of GPT-4 (in research preview), Be My Eyes began dev

                                                              OpenAI customer story: Be My Eyes
                                                            • 「Jetson Nano」でにゃんこを判別してLチカで知らせるエッジAIデバイスを作る

                                                              「Jetson Nano」でにゃんこを判別してLチカで知らせるエッジAIデバイスを作る:Jetson Nanoで組み込みAIを試す(5)(1/4 ページ) NVIDIAが価格99ドルをうたって発表した組み込みAIボード「Jetson Nano」。本連載では、技術ライターの大原雄介氏が、Jetson Nanoの立ち上げから、一般的な組み込みAIとしての活用までを含めていろいろと試していく。第5回では、猫とその種類の判別結果をLED点灯(Lチカ)で知らせる機能を作成してみる。 ⇒連載「Jetson Nanoで組み込みAIを試す」バックナンバー Jetson Nanoが優秀な猫判別機として利用できる(?)ことは、前回ご紹介した通りだが、いくら優秀とは言っても、画面にオーバーレイの形で猫の種別が出てくるだけでは他に応用がきかない。エッジデバイスに使うのであれば、その情報を他に受け渡しできないと意味

                                                                「Jetson Nano」でにゃんこを判別してLチカで知らせるエッジAIデバイスを作る
                                                              • 画像認識とは|意味・仕組み・活用事例から未来まで | Ledge.ai

                                                                サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                                                                  画像認識とは|意味・仕組み・活用事例から未来まで | Ledge.ai
                                                                • "Attention is All You Need" は本当か調べる - Re:ゼロから始めるML生活

                                                                  ”Attention is All You Need”というタイトルでTransformerの論文が発表されてから随分経ちます。 ただ、最近は”大事なのはSelf Attentionじゃない”といった趣旨の論文をちらほら見かけるようになってきていると感じていて、これについて自分用のメモがてらまとめてみようと思います。 出発点:Transformer Transformer Vision Transformer (ViT) Attention Attentionを使わなかったモデル MLP-Mixer MetaFormer (PoolFormer) gMLP ConvNeXt Attentionは本当に大事?に関する私見 参考文献 論文メモ 感想 出発点:Transformer まずはTransformerの構造について紹介しないと、Self Attentionが重要かどうか云々についてもわ

                                                                    "Attention is All You Need" は本当か調べる - Re:ゼロから始めるML生活
                                                                  • Self-supervised learning: The dark matter of intelligence

                                                                    In recent years, the AI field has made tremendous progress in developing AI systems that can learn from massive amounts of carefully labeled data. This paradigm of supervised learning has a proven track record for training specialist models that perform extremely well on the task they were trained to do. Unfortunately, there’s a limit to how far the field of AI can go with supervised learning alon

                                                                      Self-supervised learning: The dark matter of intelligence
                                                                    • Deep Learning for AI – Communications of the ACM

                                                                      How can neural networks learn the rich internal representations required for difficult tasks such as recognizing objects or understanding language? Yoshua Bengio, Yann LeCun, and Geoffrey Hinton are recipients of the 2018 ACM A.M. Turing Award for breakthroughs that have made deep neural networks a critical component of computing. Research on artificial neural networks was motivated by the observa

                                                                      • The Decade of Deep Learning

                                                                        As the 2010’s draw to a close, it’s worth taking a look back at the monumental progress that has been made in Deep Learning in this decade.[1] Driven by the development of ever-more powerful compute and the increased availability of big data, Deep Learning has successfully tackled many previously intractable problems, especially in Computer Vision and Natural Language Processing. Deep Learning has

                                                                          The Decade of Deep Learning
                                                                        • Generative AI: A Creative New World

                                                                          A powerful new class of large language models is making it possible for machines to write, code, draw and create with credible and sometimes superhuman results. Humans are good at analyzing things. Machines are even better. Machines can analyze a set of data and find patterns in it for a multitude of use cases, whether it’s fraud or spam detection, forecasting the ETA of your delivery or predictin

                                                                            Generative AI: A Creative New World
                                                                          • EasySpider: No-Code Visual Web Crawler/Browser Automation Test Tool

                                                                            BrightData is the market leader in the proxy industry, covering 72 million IPs worldwide, offering real residential IPs, instant batch collection of publicly available web data, with a guaranteed high success rate. For those in need of high cost-performance proxy IPs, click on the image above to register and contact the Chinese customer service. After activation, you get a free trial and up to $25

                                                                            • 【基本編】画像認識に使用されるData Augmentationを一挙にまとめてみた!

                                                                              3つの要点 ✔️ 画像分類タスクに必要不可欠なData Augmentationの体系をまとめた ✔️ 基本的なData Augmentationについて手法と利点/欠点をまとめた ✔️ 基本的なDAは実装が簡単な上に絶大な効果を発揮する A survey on Image Data Augmentation for Deep Learning written by Connor Shorten, Taghi M. Khoshgoftaar (Submitted on  06 July 2019) Comments: Published by Journal of Big Data Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Image and Video Proc

                                                                                【基本編】画像認識に使用されるData Augmentationを一挙にまとめてみた!
                                                                              • 【応用編】深層学習を用いた画像Data Augmentationを一挙にまとめてみた!

                                                                                3つの要点 ✔️ 深層学習を用いたData AugmentationにはGANやスタイル変換などを用いたものがある ✔️ 深層学習を用いたDAの利点/欠点をまとめた ✔️ 基本的なDAと組み合わせることでさらに高い精度を達成できる A survey on Image Data Augmentation for Deep Learning written by Connor Shorten, Taghi M. Khoshgoftaar (Submitted on  06 July 2019) Comments: Published by Journal of Big Data Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Image and Video Processi

                                                                                  【応用編】深層学習を用いた画像Data Augmentationを一挙にまとめてみた!
                                                                                • GitHub - diff-usion/Awesome-Diffusion-Models: A collection of resources and papers on Diffusion Models

                                                                                  DiffEnc: Variational Diffusion with a Learned Encoder Beatrix M. G. Nielsen, Anders Christensen, Andrea Dittadi, Ole Winther arXiv 2023. [Paper] 30 Oct 2023 Upgrading VAE Training With Unlimited Data Plans Provided by Diffusion Models Tim Z. Xiao, Johannes Zenn, Robert Bamler arXiv 2023. [Paper] 30 Oct 2023 Successfully Applying Lottery Ticket Hypothesis to Diffusion Model Chao Jiang, Bo Hui, Boha

                                                                                    GitHub - diff-usion/Awesome-Diffusion-Models: A collection of resources and papers on Diffusion Models