並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 44件

新着順 人気順

識別モデルの検索結果1 - 40 件 / 44件

  • 最近またLinux用の日本語IMEを作っている - tokuhirom's blog

    最近またLinux用の日本語IMEを作っている 本件は mozc の ut がどうこうとかは関係なくて、ふと linux desktop を使おうと昨年末に思いまして、昨年末からちまちまやってます https://github.com/tokuhirom/akaza かな漢字変換って作るの難しいのかなぁ、と思ったので作ってみている。これはまさに Just for Fun でやっている。 わりと普通に自分で常用してる分には困らないかな、というところまできている。 以下は、思ってることの垂れ流しという感じで、まとまってないですが。 「日本語入力を支える技術」という本が 2018年に出ていて、この本の内容を読めば、だいたいエンジン部分は実装できる。Amazon のレビューではこの本よんでも実装できないって書いてあるけど、変換エンジン自体は実装できます。 UI が辛い。けど。 エンジンは、ビタビア

    • Pythonではじめる教師なし学習

      教師なし学習はラベル付けされていないデータから学習する機械学習の一種です。現在の機械学習では大量のラベル付きのデータを用いる教師あり学習が主流ですが、ラベルを付けるには膨大なコストがかかります。現実世界に機械学習を適用していくためには、ラベル付けを必要としない教師なし学習の重要性が増してくると考えられます。本書は実践的な視点から、データにある隠れたパターンを特定し、異常検出や特徴量抽出・選択を行う方法を紹介します。ラベルなしデータを有効に利用することで、機械学習の可能性を各段に広げる教師なし学習の本質に迫ります。さらに、変分オートエンコーダ(VAE)や敵対的生成ネットワーク(GAN)、制限付きボルツマンマシン(RBM)などの生成モデルも紹介します。 正誤表 ここで紹介する正誤表には、書籍発行後に気づいた誤植や更新された情報を掲載しています。以下のリストに記載の年月は、正誤表を作成し、増刷書

        Pythonではじめる教師なし学習
      • ノイズのある教師データを用いた機械学習に関する研究サーベイ - ABEJA Tech Blog

        こんにちは、Research Internの荒尾(@karolis_ml)です。 日進月歩の勢いで研究が進んでいる深層学習ですが、教師あり学習でもっとも大事なデータのアノテーション、応用分野ではまだまだ大変ですよね。例えば、犬の写真から犬種を判断する分類器を作ろうとして教師データが必要になったとき、あなたは以下の画像にどんなラベルをつけるでしょうか? 出典: Pixabay 犬好きの方は正しくアラスカンマラミュート、そうではない方は似た有名犬種であるシベリアンハスキーと答えられたことでしょう。マラミュートの茶色い目(かわいい)や小さめの尖った耳(かわいい)を見分けて正しくラベル付けをするのは、決して簡単ではありません。 このようなアノテーションの分野に関して当ブログでは以前、Bounding BoxやSegmentationの効率化についての研究サーベイを行いましたが、この犬種分類のような

          ノイズのある教師データを用いた機械学習に関する研究サーベイ - ABEJA Tech Blog
        • 生成AIの本を執筆する者は一切の希望を捨てよ~2023年の生成AIと『生成AIで世界はこう変わる』執筆振り返り~|今井翔太@えるエル(ImAI_Eruel)

          はじめに 東京大学 松尾研究室でAIの研究をしている今井翔太と申します.最近,『生成AIで世界はこう変わる』という本を出版させていただきました. https://www.amazon.co.jp/dp/B0CM2YJ34N?ref_=cm_sw_r_cp_ud_dp_TRV649GZXZBTAPW2M0XB_1 本記事は,2024年1月7日に発売された生成AIに関する私の著書『生成AIで世界はこう変わる』の執筆(+発売後の動き)の振り返りと,その補強となる2023年(正確にはChatGPT登場の2022年後半〜です)の生成AIの展開に関するものです.実はnoteにおける初の記事になります. AIの一般書の執筆というのは割とレア経験だと思われますので,読者層がイマイチわからない記事な気もしますが,本の性質上,生成AIという分野一般の2023年の展開と連動する部分があり,いくらかは参考になる部

            生成AIの本を執筆する者は一切の希望を捨てよ~2023年の生成AIと『生成AIで世界はこう変わる』執筆振り返り~|今井翔太@えるエル(ImAI_Eruel)
          • 技術の鍵は「トランスフォーマー」と「自己教師あり学習」 松尾豊氏が、第3次AIブームからひもとく“AIの歴史”

            日本CTO協会が主催の「Developer eXperience Day 2023」は、“開発者体験” をテーマに、その知見・経験の共有とそれに関わる方々のコミュニケーションを目的としたカンファレンスです。ここで登壇したのは、東京大学の教授である松尾豊氏。LLMの技術的な概要について解説するとともに、今後の技術的な進展について発表しました。全3回。1回目は、AIの技術について。 松尾豊氏の自己紹介 松尾豊氏:よろしくお願いします。45分ほど、お話をします。 (スライドを示して)私の自己紹介ですが、人工知能の研究をずっとやっています。もう26年ぐらい、ずっと人工知能の研究をやっています。 2017年に日本ディープラーニング協会を作って、2021年からは、「新しい資本主義実現会議」の有識者構成員をしています。 また、2023年5月からは、政府が立ち上げたAI戦略会議の座長も務めています。 AI

              技術の鍵は「トランスフォーマー」と「自己教師あり学習」 松尾豊氏が、第3次AIブームからひもとく“AIの歴史”
            • 【質疑応答付き】Kaggle Tokyo Meetup #6 に参加しました - 天色グラフィティ

              DeNAで開催された、Kaggle Tokyo Meetup #6の参加記です。YouTube配信の視聴を含めるとMeetup参加は3回目ですが、回を増すごとに情報量も発表内容の多様性も増しているように思います。 本当にすばらしい発表を皆様ありがとうございました。僕も発表やLTでコミュニティに貢献していきたいと思います。 この記事では、各発表について僕自身が面白い・知らなかったと思ったポイントを中心にまとめ、可能な限り出典などのリンクをつけています。 内容を網羅しているわけでは必ずしもありませんので、もとの資料を併せてご覧になることを強くおすすめします。素晴らしい資料なので。 それでは、15000文字を超える長い記事ですが、最後までお読みくださると幸いです。 Opening Talk (threecourseさん) Petfinder 2nd Place Solution (Wodoriチ

                【質疑応答付き】Kaggle Tokyo Meetup #6 に参加しました - 天色グラフィティ
              • 詳説 Deep Learning

                エンタープライズ向けのディープラーニングの解説書。企業でディープラーニングアプリケーションを開発、運用するための実践的な手法を紹介します。対象読者はソフトウェア開発の現場で活躍する実務者。前半はディープラーニング初心者、後半はJavaエンジニア向けの構成です。機械学習、ニューラルネットワークの基礎から始め、ディープラーニングの基本的な概念、実際にチューニングを行う際のベストプラクティス、データのETL(抽出・変換・ロード)の方法、Apache Sparkを用いた並列化について、JavaライブラリDeep Learning4J(DL4J)の開発者でもある著者がわかりやすく丁寧に解説します。 日本のAIコミュニティの方々へ 監訳者まえがき まえがき 1章 機械学習の概要 1.1 学習する機械 1.1.1 機械が学習するには 1.1.2 生物学というヒント 1.1.3 ディープラーニングとは 1

                  詳説 Deep Learning
                • catboostの推論の仕組みを理解する (1/2)|Yotaro Katayama

                  この記事の目的catboostというライブラリがあります。GBDT(Gradient Boosting Decesion Tree )という決定木をアンサンブルする方式の識別モデルを学習するものです。同様のライブラリは他にはXGBoostやLightGBMなどが有名です。 GBDTって何やっているの?というのは以下のXGBoostのドキュメントの画像がわかりやすいです。要は、複数の決定木が存在していて、その結果をあわせて結果を決定(アンサンブル)しているわけです。学習に応じて徐々に木を追加していくのですが、どうやって新しい木を追加していくかのやり方に、「Gradient Boosting」という手法を使っている、というイメージです。catboostは、カテゴリカル変数の扱いに新しい手法を導入していて、論文にもなっています。catboostの"cat"はcatgoryの"cat"なのですね(

                    catboostの推論の仕組みを理解する (1/2)|Yotaro Katayama
                  • 機械学習自体を学ぶな | AI専門ニュースメディア AINOW

                    著者のCaleb Kaiser氏は、転移学習を重視した機械学習開発プラットフォームCortexの開発に携わっており、AINOW翻訳記事『ディープラーニングはもう難しくない』の著者でもあります。同氏が最近Mediumに投稿した記事では、機械学習モデルの構築を学習するに際して、従来の方法を批判したうえで新しい学習方法が提案されています。 第3次AIブームが到来する前の2000年代後半までは、機械学習を学ぶ人は専ら大学研究者でした。こうした事情により、当時の機械学習の教科書は数学的理論の理解を重視したものとなっていました。理論重視の教科書作りはその後も引き継がれ、現在入手できる機械学習の教科書も初学者に理論から学ばせる傾向のものが少なくありません。 同氏は、機械学習を使って実用的なAIモデルを開発したいエンジニアにとっては、理論重視の教科書は学習の妨げになっていると批判します。エンジニアが習得す

                      機械学習自体を学ぶな | AI専門ニュースメディア AINOW
                    • 【SinGAN】たった1枚の画像から多様な画像生成タスクが可能に - Qiita

                      はじめに 本記事はDeep learning論文紹介のAdvent Calender 2019の6日目の記事です。 本記事ではコンピュータビジョンのトップカンファレンスであるICCV2019でBest paperに選ばれたSin GANの論文について紹介し、公式のGitHubを色々触ってみようと思います。 SinGANは1枚の訓練データのみを学習に用いるので、気軽に画像生成を試すことができます(画像サイズにもよりますがGoogle colabratoryのGPUでおよそ1~5時間程度)。後半ではGoogle Colabratoryを用いて実際に画像生成を行っているのでぜひ試してみてください。 【SinGAN公式】 ・arxiv ・Github 【Qiitaの記事】 ・【論文解説】SinGAN: Learning a Generative Model from a Single Natura

                        【SinGAN】たった1枚の画像から多様な画像生成タスクが可能に - Qiita
                      • Googleがスマホのカメラで手の動きを高精度でリアルタイムトラッキングする技術を開発

                        by rawpixel.com GoogleのAI開発チームは、コンピュータービジョンに関する国際会議のCVPR 2019において、リアルタイムで手の動きをトラッキングする機械学習システムを、Googleが提供するオープンソースフレームワークであるMediaPipeに実装すると発表しました。手や指の動きを追跡する既存のハンドトラッキングシステムは、高性能なデスクトップ環境に依存してきましたが、Googleは新たにスマートフォンのカメラでリアルタイムのトラッキングを可能にした上に、複数の手もトラッキングできると説明しています。 Google AI Blog: On-Device, Real-Time Hand Tracking with MediaPipe https://ai.googleblog.com/2019/08/on-device-real-time-hand-tracking-

                          Googleがスマホのカメラで手の動きを高精度でリアルタイムトラッキングする技術を開発
                        • 書評 「進化政治学と国際政治理論」 - shorebird 進化心理学中心の書評など

                          進化政治学と国際政治理論 人間の心と戦争をめぐる新たな分析アプローチ 作者:伊藤 隆太発売日: 2020/02/22メディア: 単行本 本書は若手政治学者伊藤隆太による進化政治学の概説とそれを応用したいくつかのケースステディを収めた本になる.進化政治学というのは私の理解では政治学の基礎理論として進化心理学を用いたものということになる.概説部分では進化政治学の正当性を主張するために科学哲学的な議論が縦横無尽に繰り広げられており,政治学の本としてはかなり異質な作りになっている. 序章では全体の見取り図が示されている. ヒトの心についてブランクスレートイデオロギーに立つと,政治学は(後天的要素である)教育,社会的地位,経済力のみを扱うべきであり,アクターは信念を合理的に更新し(ネオリアリズム),社会的相互作用を通じてのみ文化・規範を学習する(社会的構築主義)と考えるべきことになる. しかし199

                            書評 「進化政治学と国際政治理論」 - shorebird 進化心理学中心の書評など
                          • 背景: 生成モデルとは  |  Machine Learning  |  Google for Developers

                            フィードバックを送信 背景: 生成モデルとは コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 「敵対的ネットワーク生成」という名前で「ジェネレーティブ」とはどういう意味ですか? "ジェネレーティブ" は、判別モデルと対照的な統計モデルのクラスを表しています。 非公式に: ジェネレーティブ モデルは、新しいデータ インスタンスを生成できます。 差別モデルは、さまざまな種類のデータ インスタンスを区別します。 生成モデルでは、実際の動物のように見える新しい動物の写真を生成できますが、識別モデルでは猫から犬を判別できます。GAN は 1 種類のみ生成モデルです。 より正式には、一連のデータ インスタンス X と一連のラベル Y があるとします。 ジェネレーティブ モデルは、ジョイント確率 p(X, Y) をキャプチャします。ラベルがない場合は、p(X) のみをキ

                              背景: 生成モデルとは  |  Machine Learning  |  Google for Developers
                            • 人工知能はエッチな絵を識別できるか|機械学習をするおによめ

                              背景 全国フェミニスト議連による戸定梨香さんの交通安全PR動画の削除・謝罪要求をきっかけに、SNS上で、大別して「表現の自由派」と「フェミニスト派」に分かれ、いくつかの議論が散見された。主な議論としては、「女性の主体性」や「女性の性的客体化」に関してだったと思う。 その中で、「性的な絵と、公共に出していい絵は、顔を見れば区別できる」というフェミニストの興味深い意見があった(あくまで一人の意見)。 表現の自由もあれば、当然表現の受け取り方にも自由があるため、いわゆる「萌え絵」に性的・ジェンダー不平等性という文脈を見出してしまうのは個人の自由だと私は考えているが、女性の絵に「主体性があるか」「性的客体化がなされているか」といった「コンテクスト」を顔のみから判断できるとは、にわかには信じがたい。しかし、戸定さんとプリキュアの違いについても「一目瞭然」「この違いがわからないなんて...」といったフ

                                人工知能はエッチな絵を識別できるか|機械学習をするおによめ
                              • コンピュータビジョンの最新論文調査 Object Tracking 編 | BLOG - DeNA Engineering

                                はじめに こんにちは、AIシステム部でコンピュータビジョン研究開発をしている唐澤(@Takarasawa_)です。 我々のチームでは、常に最新のコンピュータビジョンに関する論文調査を行い、部内で共有・議論しています。今回はObject Tracking編として唐澤 拓己が調査を行いました。 過去の他タスク編については以下をご参照ください。 Human Recognition 編 3D Vision 編 キーポイント検出の手法を用いた物体検出編 論文調査のスコープ 2018年11月以降にarXivに投稿されたコンピュータビジョンに関する論文を範囲としており、その中から重要と思われるものをピックアップして複数名で調査を行っております。今回は主にObject Tracking技術に関する最新論文を取り上げます。 Object Tracking の位置付け Object Tracking とは物体

                                  コンピュータビジョンの最新論文調査 Object Tracking 編 | BLOG - DeNA Engineering
                                • Focal Lossによる自信過剰な予測の抑制 - MicroAd Developers Blog

                                  はじめに こんにちは. マイクロアドで機械学習エンジニアをしている福島です. 主にReal-Time-Bidding (RTB)におけるClick Through Rate/Conversion Rate(CTR/CVR)予測や入札最適化の研究・開発を担当しています. 今回はCTR/CVR予測の学習にFocal Loss [Tsung-Yi Lin et al., 2017]と呼ばれる損失関数を使ってみたのでその結果を紹介したいと思います. はじめに Focal Lossとは CTR/CVR予測にFocal Lossを用いることのモチベーション Focal Lossによるcalibrationの改善 検証 LightGBMで自作の目的関数を用いる calibrationの評価指標 実験 まとめ Focal Lossとは 一般的にCTR/CVR予測は学習データ中でclick/conversi

                                    Focal Lossによる自信過剰な予測の抑制 - MicroAd Developers Blog
                                  • PyTorchによる物体検出 | Ohmsha

                                    はじめに 目次 第1章 PyTorch によるプログラミング 1.1 ニューラルネット 1.1.1 人工知能と関数推定 1.1.2 パラメトリックモデルと回帰 1.1.3 ニューラルネットは関数 1.1.4 ニューラルネットのパラメータ 1.2 最急降下法と誤差逆伝播法 1.2.1 ニューラルネットにおける学習と損失関数 1.2.2 最急降下法 1.2.3 誤差逆伝播法 1.2.4 ミニバッチ学習と確率的勾配降下法 1.3 Define-by-run と自動微分 1.3.1 合成関数と計算グラフ 1.3.2 計算グラフを利用した勾配計算 1.3.3 Define-by-run 1.4 Tensor とNumPy 1.4.1 Tensor の作成 1.4.2 Tensor と数値の四則演算 1.4.3 Tensor どうしの四則演算 1.4.4 Tensor の行列積 1.4.5 Tenso

                                      PyTorchによる物体検出 | Ohmsha
                                    • GAN (Generative Adversarial Network) の理論と実装 | AIdrops

                                      GAN (Generative Adversarial Network) の理論と実装 ディープラーニングを活用した生成モデルの中でも、最も応用手法が研究されている GAN (Generative Adversarial Network) ですが、「2つのネットワークを互いに競わせるように学習する」アーキテクチャであるということはご存知の方も多いでしょう(下図)。 しかし、その一方で、なぜそれによって適切にデータが生成されるのかについては、きちんと説明がなされている情報をあまり目にする機会もなく、それゆえに、きちんと説明できる方も少ないのではないでしょうか。 そこで、本記事では、GAN の理論的な部分の説明を、きちんと数式を混じえつつ書き進めていきたいと思います。その後、PyTorch を用いた実装も紹介していきます。 生成モデルの目的 そもそも、生成モデルの目的は何だったでしょうか?識別

                                        GAN (Generative Adversarial Network) の理論と実装 | AIdrops
                                      • VariationalでEnd2EndなDialogue Response Generationの世界 - 終末 A.I.

                                        この記事は、自然言語処理 #2 Advent Calendar 2019の24日目の記事です。 Open-Domain Dialogueや非タスク指向対話、雑談対話と呼ばれる領域において、発話データのみを使用したEnd2Endな対話応答生成を試みる歴史はそこまで古くなく、[Ritter et al+ 11]や[Jafarpour+ 10]がまず名前をあげられるように、比較的最近始まった研究テーマとなります。 これらは、Twitterなどの登場により、ユーザー間で行われる、ほとんどドメインを限定しない、もしくは多様なドメインにまたがる、大量の対話データを、容易に収集できるようになったことにより、活発に研究されるようになってきました。 初期の研究である[Ritter+ 11]や[Jafarpour+ 10]では、統計的機械翻訳ベースや情報検索ベースの手法でEnd2Endな対話システムを構成して

                                          VariationalでEnd2EndなDialogue Response Generationの世界 - 終末 A.I.
                                        • 動画内の顔を後から「SNOW」みたいに編集できるAI技術 Adobeなどの米国チームが開発

                                          Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米UC Berkeley、米Carnegie Mellon University、米Adobe Research、米MIT CSAILによる研究チームが開発した「GANgealing: GAN-Supervised Dense Visual Alignment」は、動画内の人物や動物の顔にステッカーなどをピタッと貼り付いているように編集できる深層学習を用いた技術だ。 この手法を用いると、映像内で自由に動く人の顔にヒゲやステッカーを貼り付けたり、猫の顔にメガネやマスクを貼り付けたりなどの加工が行える。精度が高く、対象が動いても加工がズレたりせず追跡しながらして、表現する。 「GANgeali

                                            動画内の顔を後から「SNOW」みたいに編集できるAI技術 Adobeなどの米国チームが開発
                                          • 1 億ユーザー 1 億商品棚の実現に向けた、パーソナライズされた商品レコメンド機能の裏側(Part2 実装編)|Tatsuya Shirakawa

                                            こんにちは、カウシェの AI チームの tatsuya(白川達也)です。 2022 年 11 月に入社してから検証・実装していた商品レコメンド機能がついにリリースされました(現状 iOS 版でのみ先行配信されています)。カウシェでは初めての機械学習を使った機能だったこともあり、リリースまでこぎつけるには超えないといけないハードルがいくつもあってそれなりに大変だったのですが、そのあたりの背景や経緯を踏まえ、実装の裏側を公開してみたいと思います。 本記事は「Part 2 実装」編です。カウシェで始めての機械学習系の機能である商品レコメンド機能の実装の裏側をお伝えします。 背景や経緯を詳しくお知りになりたい方は「Part 1 背景・経緯編」をご覧ください。 今回実装したパーソナライズされた商品コレクション(タイトルは変更される可能性があります)商品レコメンドで目指す体験「Part 1 背景・経緯

                                              1 億ユーザー 1 億商品棚の実現に向けた、パーソナライズされた商品レコメンド機能の裏側(Part2 実装編)|Tatsuya Shirakawa
                                            • 新卒エンジニア研修2021に参加しました (後編) - Pepabo Tech Portal

                                              こんにちは!ペパボでは今年の6月から8月にかけて、新卒パートナー向けのエンジニア研修を実施しました。 今回は研修に参加した新卒パートナーが研修内容を振り返りながら、研修の中で得た気づきを紹介します。 ペパボの2021年研修では2021年にWebアプリケーション開発を行う上で必要な技術領域について広く扱っています。 Rails研修 フロントエンド研修 モバイル研修 コンテナ・デプロイ研修 機械学習研修 セキュリティ研修 詳細な研修内容については、先日公開された 「GMOペパボのエンジニア研修2021の資料を公開します」 において講師陣が紹介しておりますので、ぜひそちらもご覧ください! またその他にも外部講師をお招きした1day形式のワークショップや読書会など盛りだくさんでした。 DBモデリングとRSpecについてのワークショップの内容をまとめたテックブログもありますので、気になる方はぜひ読ん

                                                新卒エンジニア研修2021に参加しました (後編) - Pepabo Tech Portal
                                              • 【PyTorch】実装有:VAEを使った継続学習異常検知手法:Continual Learning for Anomaly Detection with Variational Autoencoder - Qiita

                                                【PyTorch】実装有:VAEを使った継続学習異常検知手法:Continual Learning for Anomaly Detection with Variational AutoencoderPython機械学習DeepLearning深層学習PyTorch はじめに 継続学習(CL;Continual Learning)とは、動的に学習データが変化する環境下において、破壊的忘却することなくモデルの学習を可能とすることを目的とした機械学習の一分野となります. ※破壊的忘却とは、単一のネットワークを複数のタスクの学習に利用する場合、過去に学んだタスクに対する精度が、新しいタスクの学習時に悪化する事象のことを指します ICLRやICMLをはじめとしたAI関連のトップカンファレンスにおいても、CLに関する論文の投稿数は増加傾向にあり、注目されている分野といえます. 主にCLは識別モデルの

                                                  【PyTorch】実装有:VAEを使った継続学習異常検知手法:Continual Learning for Anomaly Detection with Variational Autoencoder - Qiita
                                                • Google Cloud AutoML Visionによる物体検出モデルの開発(とCoral Dev Boardへのデプロイ) - Qiita

                                                  Google Cloud AutoML Visionによる物体検出モデルの開発(とCoral Dev Boardへのデプロイ)PythonDeepLearningAutoMLTPUGoogleCloud この記事について やること Google Cloud Platfrm (GCP) で提供されているAutoML Visionを使用して、物体検出モデルを作ります 各種類のビール(発泡酒)が、画像上のどの位置にあるかを検知します 作成したモデルを、Edge TPU用に変換し、Coral Dev Board上で動かそうとしました (⇒ 失敗?) 最終的に、カメラに写っている画像上でビールを検出したかったです 前提知識 基本的な流れは、前回の識別モデル作成 (https://qiita.com/iwatake2222/items/f41946cbfa9cdd998185 )と同じです。 先にこち

                                                    Google Cloud AutoML Visionによる物体検出モデルの開発(とCoral Dev Boardへのデプロイ) - Qiita
                                                  • Person Re-Identificationで人物を追跡してみました | DevelopersIO

                                                    1 はじめに CX事業本部の平内(SIN)です。 機械学習で画像から人物を検出する事が可能ですが、検出された人物が、フレーム間で一致できれば、追跡やカウントも可能なります。 OpenVINO™ toolkitの紹介ビデオでは、ショッピングモールで、人物の追跡を行うデモが公開されています。 Pedestrian Tracking Demo | OpenVINO™ toolkit | Ep. 23 | Intel Software 今回は、上記(C++)を参考にさせて頂いて、Pythonで人物の追跡をやってみました。 最初に動作確認している様子です。まだまだですが・・・ 動画は、Pixels Videosを利用させて頂きました。 2 しくみ 人物の追跡は、2つのモデルを組み合わせることで動作しています。 人物検出モデル 個人識別モデル 人物検出モデルで、人を検出しその部分を切り出します。 続い

                                                      Person Re-Identificationで人物を追跡してみました | DevelopersIO
                                                    • AIの現場適用時間を短縮するAutoML(自動機械学習)

                                                      人工知能は深層ニューラルネットワークの発展により、文字認識や物体の抽出など様々なことができるようになった。リアルタイムで物体検出する「YOLO」や、姿勢を認識する「OpenPose」などのツールも多数出ており、世界最高峰の技術がフリーで使える。 しかし産総研の大西正輝氏は「どんなデータでもうまくいくわけではない。自分たちのデータで試すとうまくいかないこともある。手法やデータによってパラメータの調整、アーキテクチャの探索などが必要になる」と課題を指摘する。 過去においてはAI技術の開発に多くの時間を費やしていた。それが、世界最高峰の技術がネットですぐに公開される世の中になった。しかも簡単に、フリーで手に入る。しかしながら、実際に現場で使うには人の手による試行錯誤がまだ必要だ。その試行錯誤の時間が短縮されれば、現場導入時間の短縮が可能になる。 大西氏らはハイパーパラメータの自動調整によってAI

                                                        AIの現場適用時間を短縮するAutoML(自動機械学習)
                                                      • TensorFlowの画像識別モデルをTensorFlow-TensorRTで推論高速化 - Qiita

                                                        NVIDIAの大串です。今回はDeep Learning(TensorFlow)の推論をGPUで実行する際に高速化ができるTensorFlow-TensorRTに関して記事を書かせて頂きました。 モチベーション Deep Learningモデルの推論は計算量が多いため、通常の処理に比べ時間がかかるケースが多いです。ユースケースによっては厳しい時間制約の中でDeep Learningモデルの推論結果が求められます。 このようなケースに対応するため、NVIDIAはGPUでDeep Learningモデルの推論処理を高速化できるTensorRTライブラリを開発しています。 TensorRTはTensorFlowに統合されており、TensorFlowから簡単に呼び出すことができます。これはTensorFlow-TensorRT(以下:略称TF-TRT)と呼ばれて、TensorFlowの便利な機能を

                                                          TensorFlowの画像識別モデルをTensorFlow-TensorRTで推論高速化 - Qiita
                                                        • 新しい言語モデルとモデリング - 武蔵野日記

                                                          例によって火曜日なので在宅勤務。午前中はリモートでウェブ会議。いつもは大学に学生たちと集まっているのだが、今日は自分が在宅なので学生たちも全員リモート。Slack とか適当なコミュニケーションツールでやりとりできるなら、別にリモートでもいいような気がしないでもない(人によるのだろうけど)。 昼から B4 の進捗報告。「言語モデリング」「言語モデル」という用語が出てくる卒論を毎週見ているのだが、統計的自然言語処理時代から自然言語処理をしている人とそうでない人とで用語の感覚が違うようなので、一度自分のこれらの用語に対する認識をまとめてみる。Twitter を観測していると、以下のような考え方は割とアラフォー以上の(つまり統計的自然言語処理に馴染みが深い)人の共通認識っぽいのだが、どうもアラサー以下の(つまり深層学習の方が馴染みが深い)人はもっと「言語モデル」の範囲が広いようである。 狭義の言語

                                                            新しい言語モデルとモデリング - 武蔵野日記
                                                          • kaggle: Avito Demand Prediction Challenge まとめ - copypasteの日記

                                                            はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion [Avito EDA, FE, Time Series, DT Visualization ✓✓ | Kaggle Ideas for Image Features and Image Quality | Kaggle High Correlation Feature Image Classification Conf | Kaggle About image features & Image_top_1 features | Kaggle Aggregated features & LightGBM | Kaggle Simple CatBoost | Kaggle Fasttext starter (description only) | Kaggle text2imag

                                                              kaggle: Avito Demand Prediction Challenge まとめ - copypasteの日記
                                                            • 機械学習モデルの誤差を “四階層” に分解 - Qiita

                                                              博報堂テクノロジーズの坂井です。 業務で機械学習に取り組む際に「誤差」についてどう考えているかを共有します。 機械学習モデルの誤差を減らしたい 機械学習では完璧なモデルを学習するのは難しく、何らか誤差が残ってしまうのが普通です。 誤差は主に何が原因なのか どうしたら減らせる可能性があるのか を実務家向けに系統的に整理してみました。 誤差を “四階層” に分解 機械学習モデルの誤差は、次の四階層に分解できます: ベイズ誤差 - “誤差の理論限界” モデル誤差 - “仮定したモデルの表現力が原因の誤差” 推定誤差 - “データ量が原因の誤差” アルゴリズム誤差 - “学習アルゴリズムが原因の誤差” 4つの層はそれぞれ、誤差を減らすための方策が違います。「このモデルにはどの誤差が一番多く乗っているんだろう」ということを推測しながら、筋の良い手立てを試していくことが有効です。 以下、各層をそれぞれ

                                                                機械学習モデルの誤差を “四階層” に分解 - Qiita
                                                              • 【JSAI2020】AIによるRPG自動生成技術はどこまで進歩したか? | モリカトロンAIラボ

                                                                2020年6月9日から12日にかけて第34回人工知能学会全国大会(JSAI2020)が開催されました。今回は、コロナ禍の影響により全セッションをZoomによるオンラインで実施するという異例のものとなりました。この記事では、2020年6月12日に行われたセッション「AI応用: エンタテイメント」で発表された3つの研究報告を紹介します。 クエストを自動生成して視覚要素と統合公立はこだて未来大学の斉藤勇璃氏による「シナリオ・視覚要素・音響効果を統合的に自動生成するゲームシステムの構築」と題された発表では、ゲームにおけるシナリオと視覚要素を自動生成する試みが報告されました。 ゲーム業界のなかでもRPGは人気ジャンルのひとつであり、『RPGツクール』シリーズの存在からも分かるようにユーザ自身が制作したいというニーズもあるジャンルです。こうした背景から、商用利用できるAIを活用したRPG自動生成技術が

                                                                  【JSAI2020】AIによるRPG自動生成技術はどこまで進歩したか? | モリカトロンAIラボ
                                                                • PA!GO

                                                                  PA!GOは、パナソニックがGoogleの機械学習技術を活用することで誕生したスマート知育玩具です。子どもたちの「探索する」、「遊ぶ」、「学習する」といった様々な意欲を育むために開発されました。 現代の子どもたちは、靴紐を結ぶことができるようになる前に、スマホやタブレットの画面ロック解除を覚えます。テクノロジーが子どもたちの想像力や好奇心に取って代わってしまうのではなく、むしろ伸ばすような未来にしたい。私たちはそのために子どもたちがテクノロジーに触れる機会を減らすのではなく、テクノロジーを活用することで、より多くの時間を野外で過ごし、自分たちを取り巻く世界について学んでもらえる方法はないか、と模索し続けてきました。 そしてどこにでもあるリモコンという道具を、スクリーンに頼ることなく、見たこともないような方法で子どもたちが実際の世界に触れ合うことができる道具にできないか、と考えました。 Fi

                                                                    PA!GO
                                                                  • PA!GO

                                                                    PA!GOは、パナソニックがGoogleの機械学習技術を活用することで誕生したスマート知育玩具です。子どもたちの「探索する」、「遊ぶ」、「学習する」といった様々な意欲を育むために開発されました。 現代の子どもたちは、靴紐を結ぶことができるようになる前に、スマホやタブレットの画面ロック解除を覚えます。テクノロジーが子どもたちの想像力や好奇心に取って代わってしまうのではなく、むしろ伸ばすような未来にしたい。私たちはそのために子どもたちがテクノロジーに触れる機会を減らすのではなく、テクノロジーを活用することで、より多くの時間を野外で過ごし、自分たちを取り巻く世界について学んでもらえる方法はないか、と模索し続けてきました。 そしてどこにでもあるリモコンという道具を、スクリーンに頼ることなく、見たこともないような方法で子どもたちが実際の世界に触れ合うことができる道具にできないか、と考えました。 Fi

                                                                      PA!GO
                                                                    • Deep Learningアプリケーション開発 (8) TensorFlow.js - Qiita

                                                                      この記事について 機械学習、Deep Learningの専門家ではない人が、Deep Learningを応用したアプリケーションを作れるようになるのが目的です。MNIST数字識別する簡単なアプリケーションを、色々な方法で作ってみます。特に、組み込み向けアプリケーション(Edge AI)を意識しています。 モデルそのものには言及しません。数学的な話も出てきません。Deep Learningモデルをどうやって使うか(エッジ推論)、ということに重点を置いています。 Kerasで簡単にMNIST数字識別モデルを作り、Pythonで確認 TensorFlowモデルに変換してPythonで使用してみる (Windows, Linux) TensorFlowモデルに変換してCで使用してみる (Windows, Linux) TensorFlow Liteモデルに変換してPythonで使用してみる (Wi

                                                                        Deep Learningアプリケーション開発 (8) TensorFlow.js - Qiita
                                                                      • Face Re-Identificationで顔を追跡してみました | DevelopersIO

                                                                        (妄想です)人物追跡と組み合わせて、ショッピングモールの「入り口」「2Fフロア」「3Fフロア」などで、同一人物を検出できるかも知れません。 1 はじめに CX事業本部の平内(SIN)です。 機械学習で画像から顔を検出する事が可能ですが、検出された顔が、フレーム間で一致できれば、色々応用がききそうです。 前回、人物検出と人物識別のモデルで人の追跡を試してみましたが、これと組み合わせることで、追跡や識別を強化できるかも知れません。 最初に、試した見た様子です。 動画は、Pixels Videosを利用させて頂きました。 2 しくみ 顔の識別は、2つのモデルを組み合わせることで動作しています。 顔検出モデル 顔識別モデル 顔検出モデルで、顔を検出しその画像を切り出します。 続いて、顔識別モデルで、部分画像の識別情報を生成し、インデックスを付けてデータベース化しています。 各フレームでは、顔画像を

                                                                          Face Re-Identificationで顔を追跡してみました | DevelopersIO
                                                                        • 【目次ページ】PRML演習問題解答を全力で分かりやすく解説!Beginaid

                                                                          本記事はPRML「パターン認識と機械学習<上>第7版」(C.M.ビショップ著)の演習問題の基本問題・標準問題を解説したページになります。数式を打ち込む手間が面倒だったので,画像ファイルでアップしています。 また,数学的に厳密な議論はしていないです。その代わりに,初学者がつまづきやすいポイントを重点的にお伝えしていくつもりです。 第1章 序論 ●1.1(基本) ●1.2(基本) ●1.3(標準) ●1.4(標準) ●1.5(基本) ●1.6(基本) ●1.7(標準) ●1.8(標準) ●1.9(基本) ●1.10(基本) ●1.11(基本) ●1.12(標準) ●1.13(基本) ●1.14(標準) ●1.15(難問) ●1.16(難問) ●1.17(標準) ●1.18(標準) ●1.19(標準) ●1.20(標準) ●1.21(標準) ●1.22(基本) ●1.23(基本) ●1.24(標

                                                                            【目次ページ】PRML演習問題解答を全力で分かりやすく解説!Beginaid
                                                                          • 拡散モデルがモード崩壊しない理由 - Qiita

                                                                            はじめに GAN(Generative Adversarial Network; 敵対的生成ネットワーク)のモード崩壊は、訓練中のGANがデータセットの多様性全体を捉えることができず、限られた数のサンプルまたは非常に似ているサンプルのみを生成するときに発生する問題を指します。この問題はGANの訓練の難しさとしてよく知られています。 モード崩壊の原因としては次のようなものが考えられています。 敵対的なフィードバックの不均衡: 生成器が特定のサンプルをうまく生成できると、それを繰り返し生成することで識別器を欺くのが簡単になる場合があります。その結果、生成器はデータセットのその他の多様性を学ぶ動機を失うことがあります。 学習率の不均衡: 生成器と識別器の学習率や更新速度が不均衡であると、モード崩壊が発生しやすくなります。 一方、2023年に流行している拡散モデルではモード崩壊するといったことはほ

                                                                              拡散モデルがモード崩壊しない理由 - Qiita
                                                                            • 【GradCAM】ResNetで学習させた都市景観画像の判断根拠 - Qiita

                                                                              概要 私事で恐縮ながら、社会人になって一人暮らしを始めました。 今住んでいるのは都心の近くなのですが、実家は郊外なので、それぞれの景観は異なってきます。路地を歩いているとなんとなく街並みが○○区っぽいな、とか、ここは○○市らしいなとか、感じたことがある方も多いと思います。 とはいえ、その差は結構微々たるもので、その市区町村にあるな”雰囲気”の差のようなものがある気がします。 今回は東京都の町田市と中央区の画像を教師あり学習で識別モデルを学習し、GradCAMを用いて判断根拠が何なのか確認してみます。 モデルには定番のResNetを用います。 実装や詳細は下記のサイト(M3 Tech Blog様)を参考にさせていただきました。 機械学習で逆ストリートビューを作り、写真から港区らしさを判定する ご指摘・疑問などございましたらコメントよろしくお願いいたします。 学習 上記のようなモデルを考えます

                                                                                【GradCAM】ResNetで学習させた都市景観画像の判断根拠 - Qiita
                                                                              • 転移学習とは?AI実装でよく聞くファインチューニングとの違いも紹介

                                                                                AIと機械学習の世界で、転移学習というキーワードが注目を集めています。これは、あるタスクで学習したモデルの知識を、別のタスクに転移・適用する学習方法で、データセットが少ない場合や学習時間を短縮したい場合に非常に有効です。 この記事では、以下について解説します。 転移学習の基本的な概念 具体的な活用方法 ファインチューニングとの違い また、画像認識や自然言語処理など、様々な分野での転移学習の活用例も紹介します。 機械学習について詳しく知りたい方は以下の記事もご覧ください。 機械学習とは何か?種類や仕組みをわかりやすく簡単に説明 転移学習は、機械学習の手法の一つであり、「別のタスクで学習された知識を別の領域の学習に適用させる技術」のことを指します。たとえば、大量の犬の画像データと少量の猫の画像データがあり、犬・猫それぞれの種類判別モデルを作成するとしましょう。 この場合、通常の機械学習では、犬

                                                                                  転移学習とは?AI実装でよく聞くファインチューニングとの違いも紹介
                                                                                • AutoML 初心者向けガイド  |  Vertex AI  |  Google Cloud

                                                                                  フィードバックを送信 AutoML 初心者向けガイド コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 はじめに この初心者向けガイドでは、AutoML について紹介します。AutoML とカスタム トレーニングの主な違いについては、トレーニング方法の選択をご覧ください。 たとえば、 あなたがサッカーチームのコーチであったり、 デジタル小売店のマーケティング部門で働いていたり、 建築様式を調べる建築プロジェクトに携わっていたり、 自社のウェブサイトに問い合わせフォームがあるとします。 動画、画像、テキスト、テーブルを手動で整理する作業は面倒で、時間もかかります。手動で整理するよりも、コンテンツを自動的に識別してフラグを立てるよう、コンピュータに学習させるほうが楽だと思いませんか。 画像 あなたは建築管理協会に所属し、一貫した建築様式が維持されている地域を特定

                                                                                    AutoML 初心者向けガイド  |  Vertex AI  |  Google Cloud