並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 7588件

新着順 人気順

computer_visionの検索結果1 - 40 件 / 7588件

  • TinEye Reverse Image

    TinEye is an image search and recognition company. We are experts in computer vision, pattern recognition, neural networks, and machine learning.

    • 画像処理の数式を見て石になった時のための、金の針 - Qiita

      画像処理は難しい。 Instagramのキレイなフィルタ、GoogleのPhoto Sphere、そうしたサービスを見て画像は面白そうだ!と心躍らせて開いた画像処理の本。そこに山と羅列される数式を前に石化せざるを得なかった俺たちが、耳にささやかれる「難しいことはOpenCVがやってくれるわ。そうでしょ?」という声に身をゆだねる以外に何ができただろう。 本稿は石化せざるを得なかったあの頃を克服し、OpenCVを使いながらも基礎的な理論を理解したいと願う方へ、その道筋(アイテム的には金の針)を示すものになればと思います。 扱う範囲としては、あらゆる処理の基礎となる「画像の特徴点検出」を対象とします(実践 コンピュータビジョンの2章に相当)。なお、本記事自体、初心者である私が理解しながら書いているため、上級画像処理冒険者の方は誤りなどあれば指摘していただければ幸いです。 画像の特徴点とは 人間が

        画像処理の数式を見て石になった時のための、金の針 - Qiita
      • 初学者に教えたい、MicrosoftがGitHubで公開している教材が最高だった! - Qiita

        はじめに エンジニアやデータサイエンティストの人材育成のためのオープンソースな教材を探していたらMicrosoftがGitHubでかなり質の高い教材をweb開発、データサイエンティスト、機械学習、IoTの四項目を対象に提供してるのを発見したため共有したいと思う。 正直、マイクロソフトと聞くとGoogleやらFacebookに比べていけてないイメージを持っていたけど、実際にMicrosoftのGitHubレポジトリを見て、彼らはここ数年で大きく変わったように思える。特に人材育成や学習教材に関しては世界一かもしれないなんて思っています。本記事では筆者が自信を持っておすすめするMicrosoftのオープン教材を紹介するのでぜひ自身の勉強や人材育成に生かしてもらえれば本記事を執筆した甲斐があります。(もちろん僕がお勧めしているだけでなくてGitHubのスター数も多く世界的に認められています!) こ

          初学者に教えたい、MicrosoftがGitHubで公開している教材が最高だった! - Qiita
        • 米スタンフォード大学が「機械学習」「データベース」「人工知能」の無料オンライン授業を今秋から開始 − Publickey

          米スタンフォード大学は、今秋から同大学で行われているコンピュータサイエンスの講義のうち、3つのコースをオンラインで無料公開することを発表しました。 公開されるのは、「Machine Learning」(機械学習)、「Introduction to Databases」(データベース入門)、「Introduction to Artificial Intelligence」(人工知能入門)の3コース。どのコースも今年の10月に開講し12月に終了する3カ月間の予定。コースによっては実際の講義とほぼ同様の宿題も用意され、提出すると自動採点してくれるようです。 機械学習のコースを担当するAndrew Ng准教授は発表の中で次のようにコメントしています。 “Both in the United States and elsewhere, many people simply do not have a

            米スタンフォード大学が「機械学習」「データベース」「人工知能」の無料オンライン授業を今秋から開始 − Publickey
          • Web上の膨大な写真からローマを1日で構築する方法 - A Successful Failure

            前回、『写真に基づく3D空間構築手法の到達点』としてバラバラの写真から3D空間を構築する手法について取り上げた。コメントで言及された人もおられたが、MicrosoftはPhotosynthとして、同様にStructure-from-Motion (SfM)を用いて写真をつなぎ合わせ、インタラクティブにブラウズできるPhotosynthを公開している。 Photosynth Overhead View on Vimeo Photosynth + Bing Maps on Vimeo 現在、研究レベルではWeb上にアップされた不特定多数のユーザによる膨大な写真から街一つを再現するプロジェクトが推進されている。その名も"Building Rome in a Day"(ローマを一日にして成す)だ。下の動画はFlickr検索された画像から生成された3Dモデルを示している。本エントリでは、論文*1に基

              Web上の膨大な写真からローマを1日で構築する方法 - A Successful Failure
            • おっさんが『Tiktok』をガチでやってみた話 - 🎄toricago🎄

              オッサンになるというものは辛い。 Facebookを頑張って始めて、色々と投稿していたのに、最近「いいね!」をくれるのは同世代か上の世代だけになってしまった。気づいたらイケてる若者は撤退していた。辛い。 次に若作りのつもりでInstagramを始めたが、「インスタ始めたんだよね!」と会社の若い奴らに話しかけてみると、「オッサン層がインスタに攻め込んでくる、このときがついに来たか」と口にはしないものの、微妙な表情を一瞬だけ見せる。ワシを褒めてほしかったのにな。辛い。 でもLINEはなかなか便利だし、やっと慣れてきた。と思っていたら、あるときから自分の子供に連絡しても、なかなか既読がつかないので、「最近なんで無視するんだ」と家で叱ったら「いちいちLINEで説教してくる親がいるからウゼーんだよ。」と反抗期の息子に言われた。辛い。一応ネットで調べたら、若者のLINE離れの兆しも出てきているらしい。

                おっさんが『Tiktok』をガチでやってみた話 - 🎄toricago🎄
              • 30分で完全理解するTransformerの世界

                はじめに 初めまして。ZENKIGENデータサイエンスチームのはまなすです。正式な所属はDeNAデータ本部AI技術開発部なのですが[1]、業務委託という形で今年度から深層学習系の開発等に携わっています。 深層学習界隈では、2017年に衝撃的なタイトル(Attention Is All You Need)の論文が発表されてから早5年半、元出自の機械翻訳タスクを大きく越えて、Transformer関連の技術が様々な領域で用いられる汎用アーキテクチャとして目覚ましく発展し続けています。 今回はそんなTransformerが現時点までにどのように活用されてきたか、また、どのように工夫されてきたかをざっくりと俯瞰し、流れをおさらいする目的の記事になります。本記事の大枠は、2021年時点でのサーベイ論文である A Survey of Transformers に倣いつつ、適宜、2023年2月上旬現在ま

                  30分で完全理解するTransformerの世界
                • 類似画像検索システムを作ろう - 人工知能に関する断創録

                  C++版のOpenCVを使ってカラーヒストグラムを用いた類似画像検索を実験してみました。バッチ処理などのスクリプトはPythonを使ってますが、PerlでもRubyでも似たような感じでできます。 指定した画像と類似した画像を検索するシステムは類似画像検索システムと言います。GoogleやYahoo!のイメージ検索は、クエリにキーワードを入れてキーワードに関連した画像を検索しますが、類似画像検索ではクエリに画像を与えるのが特徴的です。この分野は、Content-Based Image Retrieval (CBIR)と呼ばれており、最新のサーベイ論文(Datta,2008)を読むと1990年代前半とけっこう昔から研究されてます。 最新の手法では、色、形状、テクスチャ、特徴点などさまざまな特徴量を用いて類似度を判定するそうですが、今回は、もっとも簡単な「色」を用いた類似画像検索を実験してみます

                    類似画像検索システムを作ろう - 人工知能に関する断創録
                  • 放送大学マイルストーン('23)|lumpsucker

                    はじめにこの記事は、放送大学の(主に情報コースを中心とする)学生さん向けに、私の履修済み科目の感想と主観的評価を共有して、履修計画の参考にしていただくことを目的に作成しました。下記の記事の通り、2019年-2020年の2年間で情報コースの科目を8割方履修したのでそれなりの網羅性があるかと思います。 (2023年2月追記)その後、選科履修生として履修した他コースの科目や大学院科目などを追加して112科目掲載しています。試験難易度については履修時期によって会場試験・在宅ペーパー試験・在宅Web試験が混在しているので参考程度でお願いします。 タイトルは私が現役生の時に通っていた大学の似たような評価システムから拝借しました。 以下の科目は基本的にナンバリングが低い順に並べています。閉講済みの科目も混じっていますが、記録と後継科目の参考のために残しておきます。あくまで全て(上記の記事にある通り、文系

                      放送大学マイルストーン('23)|lumpsucker
                    • XRと私|xyx

                      VRChatは実質無料 VRChatを使用しているといつの間にかPCやVRデバイスを買っていたり、創作に目覚めてプロ向けソフトを買って数万円~数十万円が消滅する現象。私の場合、”VRChatをやっていたら転職していた件について”。 客観的にはこの記事もまたありふれた「お気持ち表明」だけど、この判断をしたことを後悔しないように、過程を公開記述しておこうと思う。もしかすると面白い読み物になるかもしれない。 端的にいうと、VRChatで出会った人たちに心動かされて、そしてVRの可能性を再び目の当たりにして、この流れにどう貢献できるかと考えた結果転職するのが最善という結論に至った。 思い返してみると、2012年に初代Oculus Rift DK1を支援した前後の数年間は、ARとVR、つまりXR全体に対してかなり色々な思いがあったはずなのに、業務でプログラムを書くようになってからは久しく忘れていた。

                        XRと私|xyx
                      • 手を動かしながら学べるディープラーニングの優良なチュートリアル - karaage. [からあげ]

                        ディープラーニングは習うより慣れろかも ファッションでディープラーニングをしているディープラーニング芸人からあげです。私は、特に専門家でも何でもないのですが、機械学習に興味もって、ディープラーニングに関することブログでアウトプットしているうちに「AIに関する本に名前がクレジットされたり」「AI解析のオンラインコンテスト#Aidemynoteで特別賞受賞したり」「ラズパイマガジンという商業誌にAI関係で記事を書いたり」「ディープラーニングおじさんの記事がバズったあげくITmediaで取り上げられたり」と多少なりとも価値を提供できるようになってきました。 何の知識もバックグラウンドも、大した能力も無い自分が、どうやって知識を身につけることができたかというと、色々本も読んだのですが、実際に手を動かしてプログラムを組んで、実問題に対して試行錯誤した結果をブログにアウトプットし続けたことが大きいのか

                          手を動かしながら学べるディープラーニングの優良なチュートリアル - karaage. [からあげ]
                        • GPTの仕組みをちゃんと勉強したい本 - きしだのHatena

                          やっぱGPTを仕組みから勉強したい、という本をいくつか見つけたのでまとめておきます。 まず理論的な概要。 機械学習からニューラルネットワーク、CNNでの画像処理、トランスフォーマーでの自然言語処理、音声認識・合成、そしてそれらを組み合わせたマルチモーダルと章が進むので、理論的な概観を得るのにいいと思います。 最初は数式が多いのだけど、Σをfor文だと思いつつ、定義が説明文中に埋まってるPerlよりたちが悪い記号主体言語だと思えば読めるけどめんどくさいので飛ばしても問題ないと思います。 深層学習からマルチモーダル情報処理へ (AI/データサイエンスライブラリ“基礎から応用へ” 3) 作者:中山 英樹,二反田 篤史,田村 晃裕,井上 中順,牛久 祥孝サイエンス社Amazon で、もういきなり作る。 トークナイザーから全部つくっていきます。TensorFlowでBERTをつくってGPT2をつくる

                            GPTの仕組みをちゃんと勉強したい本 - きしだのHatena
                          • アダルト画像が含まれているか判定できるAPIを使って、家族の入浴写真を分析してみた

                            アダルト画像が含まれているか判定できるAPIを使って、家族の入浴写真を分析してみた:はじめてのAI 画像から年齢や性別を認識する「Face API」と感情を認識する「Emotion API」を使えるようになった筆者。今回は、これまでで1番多くの情報を得ることができる「Computer Vision API」を学びます。 AIについて学びたくて、この春から勉強を始めた筆者。日本マイクロソフト テクニカルエバンジェリスト大田昌幸(おおたまさゆき)先生に教えてもらい、Microsoftが公開しているAPIを使って、AIを学んでいます。 これまで、画像から年齢や性別を認識する「Face API」と感情を認識する「Emotion API」を勉強してきましたが、いよいよ今回は画像から多くの情報を得ることができる「Computer Vision API」を使ってみます。 Computer Vision

                              アダルト画像が含まれているか判定できるAPIを使って、家族の入浴写真を分析してみた
                            • 機械学習/ディープラーニング初心者が2018年にやったこと、読んだ論文 - Qiita

                              2018年もいよいよ本日が最後となりました。皆さんいかがお過ごしでしょうか。この記事では機械学習/ディープラーニング初心者だった自分が2018年にやったことをまとめていきたいと思います。ポエムじみた記事になってしまいましたが、何らかの参考になれば幸いです。 2018年のBefore-After Before 今年(4月)ぐらいまで機械学習の「き」の字も知らなかった。k-Nearest Neighbor?Support Vector Machine?なにそれ美味しいのってレベル 昔統計をやっていたので、ロジスティクス回帰ぐらいは知っていた。オーバーフィッティングの概念ぐらいは知っていたが、厳密な定義は知らなかった。 Pythonも触ったことなかった After 機械学習とディープラーニングの基礎はだいたいわかった Pythonがだいたい使いこなせるようになった 物によってはディープラーニング

                                機械学習/ディープラーニング初心者が2018年にやったこと、読んだ論文 - Qiita
                              • 本日12月1日より、プログラマ有志による2013年の技術系Advent Calendarが各所ではじまる | gihyo.jp

                                本日12月1日より、プログラマ有志による2013年の技術系Advent Calendarが各所ではじまる 本日12月1日より、プログラマ有志による2013年の各技術系Advent Calendar(アドベントカレンダー)が一日目を担当する人のblogではじまっている。 昨年以上に細分化されたため、昨年よりも今年のAdvent Calendarの数が多くなっているようだ。また、技術系以外の人に対してもこのような形式のAdvent Calendarの認知度が上がり、技術系以外のAdvent Calendarも昨年より増えている。 一般的なAdvent Calendarは、12月25日のクリスマスを楽しみに待つために、12月1日から24日までのカレンダーの日付の部分(扉だったりする)を開けるようになっており、1日ずつその日の日付の部分を開くと天使や動物の絵などが見えるという仕組み(もちろん、様々

                                  本日12月1日より、プログラマ有志による2013年の技術系Advent Calendarが各所ではじまる | gihyo.jp
                                • This is The Entire Computer Science Curriculum in 1000 YouTube Videos

                                  This is The Entire Computer Science Curriculum in 1000 YouTube Videos In this article, we are going to create an entire Computer Science curriculum using only YouTube videos. The Computer Science curriculum is going to cover every skill essential for a Computer Science Engineer that has expertise in Artificial Intelligence and its subfields, like: Machine Learning, Deep Learning, Computer Vision,

                                    This is The Entire Computer Science Curriculum in 1000 YouTube Videos
                                  • 無料で拾える機械学習系の本のPDFまとめ - とある京大生の作業ログと日々の雑記

                                    最近はツイッターでいろんな人に普段どんな感じで勉強してるのかということを聞かれるのですが、ぼくはだいたいネットでPDFを拾ってきて読んでます。 そこでぼくが今まで読んだ中で良さげな機械学習系の本のリンクをまとめておこうと思います。 ちなみに全て英語ですので日本語じゃないとやだ〜〜〜って泣いちゃう方はタブを閉じるか日本語訳を書店で探してきてください。 PRML (Pattern Recognition and Machine Learning) Pattern Recognition and Machine Learnng www.microsoft.com まず1冊目はみんな大好きPRML。 機械学習の本というよりかはベイズの本と言っていいようなお気持ちもあるのですが、基礎力として非常にいい本だと思います。 特にグラフィカルモデルの章はめちゃくちゃ読み応えあるので個人的には大好きな一冊。

                                      無料で拾える機械学習系の本のPDFまとめ - とある京大生の作業ログと日々の雑記
                                    • 画像認識対決 ~Microsoft VS Google VS IBM VS AWS~ - Qiita

                                      はじめに この記事は、Life is Tech ! アドベントカレンダー2016 18日目の記事です。 はじめまして!iPhoneメンターのにっしーです。 「時間があるときに勉強しよう」と人工知能/機械学習/Deep Learning/認識技術といったトピックの記事の見つけてはストックしてきたものの、結局2016年は何一つやらずに終わろうとしているので、とにかく一歩でも足を踏み出すべく、 本質的な理解等はさておき、とにかく試してみる ということで画像認識技術に触れてみることにしました。 画像認識とは? 画像認識とは、画像データの画像内容を分析して、その形状を認識する技術のことである。 -- Weblio辞書 画像認識では、画像データから対象物となる輪郭を抽出して、背景から分離し、その対象物が何であるかを分析するのが基本になります。 しかし、人間なら無意識化に行われていることですが、コンピュ

                                        画像認識対決 ~Microsoft VS Google VS IBM VS AWS~ - Qiita
                                      • JavaScriptの顔認識ライブラリをチューニングしたら実用レベルになったという話 (Kanasansoft Web Lab.)

                                        ただ、WebRTCで顔認識させようとすると遅くてしかたがなかった。 最初は速いこともあるが、10回ぐらい認識をさせるとすぐに遅くなる。 とりあえず、デモ。 そこで、チューニングをしてみることにした。 まず、JavaScriptの定番の高速化を試してみた。 例えば、正の数で使える「Math.floor(x)」を「(x | 0)」に、整数で使える「x * Math.pow(2, y)」を「x << y」にする等。 これで、10~30%高速化できた。 次に、遅くなっている部分を調べたら、Web Workersで分散するための仕組みが遅くなる原因だとわかった。 これは、Web Workersを使わない場合にも影響が出ていた。 じゃあ、Web Workersを使えば速くなるのかといえばその逆で、20倍遅くなっていた。 詳しくは調べてないけど、多分Workerスレッドに処理データを渡す時にJSON化が

                                        • 本日12月1日より、プログラマ有志による2012年の技術系Advent Calendarが各所ではじまる | gihyo.jp

                                          本日12月1日より、プログラマ有志による2012年の技術系Advent Calendarが各所ではじまる 本日12月1日より、プログラマ有志による2012年の各技術系Advent Calendarが一日目を担当する人のblogではじまっている。定番化したと言っていいほどの、師走の風物詩になっている。 昨年は技術系Advent Calendarが多方面で行われたが、今年は昨年を超える技術系Advent Calendarが12月1日より行われそうだ。 一般的なAdvent Calendarは、12月25日のクリスマスを楽しみに待つために、12月1日から24日までのカレンダーの日付の部分(扉だったりする)を開けるようになっており、1日ずつその日の日付の部分を開くと天使や動物の絵などが見えるという仕組み(もちろん、様々なバリエーションがある⁠)⁠。 これに発想をえて、技術系Advent Calen

                                            本日12月1日より、プログラマ有志による2012年の技術系Advent Calendarが各所ではじまる | gihyo.jp
                                          • GANによる超解像がもたらす新しい方向性と「The Perception-Distortion Tradeoff」の話 - Think more, try less

                                            CVPR2018にて超解像分野において極めて重要そうだなと感じた論文がありました。Yochai Blauらによる下記の論文です。 [1711.06077] The Perception-Distortion Tradeoff この内容を踏まえて最近の超解像研究の流れをまとめたいと思います。 超解像とは? 超解像について振り返ります。多くの方がwaifu2xというソフトウェアで一度は目にしたことがあるかもしれません。下記イメージのように低解像の画像を高解像の画像に変換する方法を 超解像(Super Resolution)と呼ばれます。 (参照元:二次元画像を拡大したいと思ったことはありませんか? - デー) このwaifu2xがざっくりどのように超解像を行っているかというと、ベースはSRCNNというConvolutional Neural Netoworkを使った超解像手法であり、下記のよう

                                              GANによる超解像がもたらす新しい方向性と「The Perception-Distortion Tradeoff」の話 - Think more, try less
                                            • Stable Diffusion の仕組みを理解する - ABEJA Tech Blog

                                              この記事は、ABEJAアドベントカレンダー2022 の 19 日目の記事です。 こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井です。 世間では Diffusion Model 使った AI による画像生成が流行っているみたいですね。 自分は元々 Computer Vision 系の機械学習エンジニアだったんですが、この1年くらいは AI モデル開発ではなくもっぱらバックエンド開発メインでやっていて完全に乗り遅れた感あるので、この機会に有名な Diffusion Model の1つである Stable Diffusion v1 について調べてみました!*1 では早速本題に入りたいと思います! Stable Diffusion v1 とは? Denoising Diffusion Probabilistic Model(DDPM) 学習時の動作 for

                                                Stable Diffusion の仕組みを理解する - ABEJA Tech Blog
                                              • TechCrunch | Startup and Technology News

                                                TikTok is starting to automatically label AI-generated content that was made on other platforms, the company announced on Thursday. With this change, if a creator posts content on TikTok that…

                                                  TechCrunch | Startup and Technology News
                                                • Python at Netflix

                                                  By Pythonistas at Netflix, coordinated by Amjith Ramanujam and edited by Ellen Livengood As many of us prepare to go to PyCon, we wanted to share a sampling of how Python is used at Netflix. We use Python through the full content lifecycle, from deciding which content to fund all the way to operating the CDN that serves the final video to 148 million members. We use and contribute to many open-sou

                                                    Python at Netflix
                                                  • コンピュータビジョンのソースコード/ライブラリのまとめ - takminの書きっぱなし備忘録 @はてなブログ

                                                    今まで自分が見つけたコンピュータビジョンの研究に役に立ちそうなフリーのライブラリやソースコードをまとめてみました。自分ではまだ使っていないものも多いので、そこはご容赦を。主にC/C++が中心です。 またライブラリ形式でない、いわゆる学会で発表した研究のコードをそのまま公開しているという人がたくさんいて、それに関しては特にメジャーなもののみ紹介しています。なにぶん僕の観測範囲は限られてますので、「このライブラリに触れないのはおかしい」、「説明が間違っている」等、ご意見大歓迎です。 定番(Standard) OpenCV 定番中の定番です。コンピュータビジョンに関して広範なアルゴリズムが実装されています。 http://code.opencv.org/projects/OpenCV/wiki/WikiStart Point Cloud Library 3次元点群データを扱うならこれ。Kinec

                                                      コンピュータビジョンのソースコード/ライブラリのまとめ - takminの書きっぱなし備忘録 @はてなブログ
                                                    • Deep Learningの教材 - こんな夢を見た

                                                      Deep Learningを勉強するにあたって内容がまとまっている教材についてリスト化しました。 無論ここに挙げたもの以外にも充実した教材は多数存在します。また、全てを読んだり観たりしたわけではありませんので、コメントは参考程度に考えてください。 (追記) ときどき追記/編集していきます。 (以下、一部敬称略) Bengio オンライン本 Yoshua Bengio, Ian Goodfellow and Aaron Courville http://www.iro.umontreal.ca/~bengioy/dlbook/version-07-08-2015/dlbook.html 現在Web上で閲覧可能。 いつか出版される。終盤はまだ執筆中。 これ一冊で根っこの理論はバッチリそう。天下のBengioさんなので情報の信頼性、網羅性、深みは高い。全部やると分量すごい。 Nielsen オン

                                                        Deep Learningの教材 - こんな夢を見た
                                                      • 【Day-1】データ分析/機械学習を行うために知っておきたいことを列挙する - プロクラシスト

                                                        データ分析ガチ勉強アドベントカレンダー一日目。 まずは指針をということで、データ分析をはじめるにあたって勉強しておきたいことと、そのリソースをまとめる。言語はPythonを想定。 興味領域が偏っている場合があるのであしからず こんなの面白いよっていうのあれば教えてくださいな ※随時更新します Pythonライブラリ 深いアレたち 機械学習のお勉強 論文 arXiv カンファ e-learning 本 twitter データを集める チートシート類 終わりに Pythonライブラリ こんなの勉強しておけば良さそうリスト。抜け漏れご容赦。 ★★★ : 必須。空で使えるようになりたいトコロ。 ★★  : 周辺ツール、知っていればより便利になるよという感じ ★   : あるアルゴリズムに特化しているようなもの。一歩先 ライブラリ 必須度 用途 numpy ★★★ 数値計算用のライブラリ。いろいろし

                                                          【Day-1】データ分析/機械学習を行うために知っておきたいことを列挙する - プロクラシスト
                                                        • あらゆるゲームでオートエイムを可能にする検出困難なチートツールが開発されてしまう、なんと家庭用ゲーム機にも対応

                                                          オンラインゲームにおけるチート行為はゲームバランスを崩壊させてユーザー離れを引き起こす原因となることから、ゲーム開発企業はチート行為を行ったユーザーにゲームプレイ禁止措置を施したり、チート行為をAIを用いて検出したりと、さまざまなチート対策を行っています。そんな中、あらゆるFPSゲームでオートエイムを可能にし、PCだけでなくPlayStationやXboxなどの家庭用ゲーム機にも対応したチートツールが開発されました。 Cheat-maker brags of computer-vision auto-aim that works on “any game” | Ars Technica https://arstechnica.com/gaming/2021/07/cheat-maker-brags-of-computer-vision-auto-aim-that-works-on-any-

                                                            あらゆるゲームでオートエイムを可能にする検出困難なチートツールが開発されてしまう、なんと家庭用ゲーム機にも対応
                                                          • (主に)ディープラーニングの成果を利用したAPI集(自分用) - Qiita

                                                            ディープラーニングなどの成果を活用したAPI一覧 個人の整理用なので、分類や説明は大雑把です。 画像解析 IBM Watson AlchemyVision 機能・特徴 画像内で見つかった物体・人・文字を返す 試してみる IBM Watson Visual Insights(2016年6月末廃止予定) 機能・特徴 消費者の興味、活動、趣味、ライフイベント、製品に関連した洞察を抽出するためにオンラインの画像、ビデオを分析する 試してみる IBM Watson Visual Recognition 機能・特徴 画像中に映った代表的なものの関連する分類のスコアを返す 試してみる GOOGLE CLOUD VISION API 機能・特徴 画像からさまざまな情報を引き出す 画像を数千のカテゴリ(たとえば、「ヨット」「ライオン」「エッフェル塔」など)にすばやく分類する 画像に映る個々の物体や人物の顔を

                                                              (主に)ディープラーニングの成果を利用したAPI集(自分用) - Qiita
                                                            • Headless Chrome をさわってみた | CYOKODOG

                                                              Headless Chromeのリリースをうけて、PhantomJS のメンテナーが開発の終了を宣言したりとか、ちょっと話題になった Headless Chrome について試してたことをメモっておく。 試したやつのリポジトリ:https://github.com/cyokodog/headless-chrome 概要 ヘッドレス(GUIを表示しない状態)で実行できる Chrome の機能 Chromium と Blink が提供する機能をコマンドラインで利用できる Chrome 59 から利用可(2017/06/08時点ではMAC、Linuxのみ) 活用例 ウェブページのテスト 表示・動作テスト、画像やPDFによる画面のスクリーンショット スクレイピング 認証が必要なサイトでも対応 ヘッドレスで起動する --headless フラグと --disable-gpu フラグ(そのうち指定不要

                                                              • 工学ナビの中の人の研究と周辺 あのマーカレスARの研究がついにソース公開!

                                                                昨年のISMAR'07でベストペーパーに輝いたGeorg Klein氏の論文 「Parallel Tracking and Mapping for Small AR Workspaces」の ソースコードがついに公開になりました! masayashi君ヨカッタネ! 『攻殻機動隊』『電脳メガネ』どころではない拡張現実感技術の現在 | 王様の箱庭 Parallel Tracking and Mapping for Small AR Worspaces 一度は「ソース公開の話はなかったことに」みたいな展開がありましたが, オックスフォード大学直属の会社との間で権利の整理ができたようで, 非商用ライセンスの下でソースを利用することができます. Georg Klein Home Page http://www.robots.ox.ac.uk/~gk/ ソース配布ページ http://www.robo

                                                                • ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing

                                                                  1995年の春、金融領域におけるコンシューマーマーケティング*1の先駆け的なプロジェクト(僕のいた会社の慣習で以下「スタディ」と書く)があり*2、初めて大手銀行のお仕事をした。そこまでに、消費財分野において、次々と現れる強烈な競合ブランドの登場で相当厳しい状況にある歴史あるブランドを劇的にテコ入れする、市場のど真ん中を撃ち抜く商品を生み出す*3、などの取り組みを経て、かなりコテコテのマーケティングストラテジストになっていたため、マーケティング研究グループのリーダーのお一人*4と一緒に異種格闘技戦的に投下されたのだった。 そのスタディのワーキングメンバーには僕以外は金融やオペレーションのプロが入っていた。僕は消費財分野はそれなりに経験してきたが、金融についてはほとんど何もわかっていない状況だった。上記のような効果が期待されていたため、過度のガイダンスは僕にはされなかった。その異質間の化学反応

                                                                    ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing
                                                                  • NNが心理学と生理学から離れていった瞬間:Back propagationに関するNature論文(1986)の意義を考える - 渋谷駅前で働くデータサイエンティストのブログ

                                                                    (Fig. 1 from Rumelhart, Hinton & Williams, Nature, 1986) これはちょっとした小ネタです。僕自身はニューラルネットワーク (Neural Network, NN)の学術的専門家でもなければ況してやNNの研究史家でもないので、たかだか僕自身がかつて脳の研究者だった頃に把握していた事由に基づいて、極めていい加減な私見を書いているに過ぎないことを予めお断りしておきます。よって、この辺の事情に詳しい方いらっしゃいましたら、後学のためにも是非ご遠慮なくツッコミを入れて下さると有難いですm(_ _)m 先日のことですが、@tmaeharaさんがこんなことを呟いておられました。 オリジナル論文 https://t.co/kXfu8jIat3 これです.本当にただチェインルールで微分して勾配法しているだけにしか見えない…….— ™ (@tmaehara

                                                                      NNが心理学と生理学から離れていった瞬間:Back propagationに関するNature論文(1986)の意義を考える - 渋谷駅前で働くデータサイエンティストのブログ
                                                                    • Clouder::Blogger: riyaのように顔認識をするためのライブラリ

                                                                      ご存知の方も多いと思いますが、riyaというサービスではアップロードした写真の中に顔があるとそれを認識して視覚化したり、物があるとそれを認識してその物に似た商品(場合によってはそのもの)をみつけてくれるという機能があります。一見すごい技術に見えるのですが、実はあるライブラリを使えばこれを簡単に実現することができます。 事の発端は単純に自分が顔認識をやってみたいと思ったからで、そのためのライブラリやソフトウェアがないのかなぁとネットをさまよっていたらこのライブラリに行き着いたというわけです。 そのライブラリは「opencv」といいます。 このopencvは、Intelが開発を行っているものでSourceforgeにてプロジェクトが進められています。このopencvというのは、別に顔認識に特化したライブラリではなく、「OpenCV (Open Source Computer Vision) i

                                                                      • 【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM

                                                                        始めに こんにちは!自然言語処理(NLP)・自然言語生成(NLG)の解説記事を書いている、すえつぐです! 突然ですが、BERT、GPT-3、PaLMを使ったことはありますか?Transformerはこれらの最先端のモデルに使用されている、現代のNLPモデルには欠かせないモデルです。おそらくBERTやGPT-3でTransformerを知った、このページに来たという人も多いのではないでしょうか。機械学習、特にNLPの勉強をしている方々は、Transformerの概要は知っておいた方が良いと思います。 ただ多くのサイトは、いきなり細かい仕組みの解説をする中級者以上向けの記事が多いですよね。 そこで、このページでは、Transformerの入門〜中級までの解説をしていきます!まず入門として、「Transformerの使い道」「Transformerの何が凄いのか?」を先に解説します。その上で「T

                                                                          【図解】誰でもわかるTransformer入門!凄さ・仕組みをわかりやすく解説 - すえつぐのNLP&LLM
                                                                        • みんなの首里城デジタル復元プロジェクト

                                                                          高校生の修学旅行の時は正殿が工事中でしっかり見れなくて、でも今年の夏は完成した首里城を家族全員で見ることができたことがすごく嬉しかったです。(19歳女性) 首里城の中を見学したかったのですが、門限で入れませんでした。残念でしたがなかなか観ないところからみれました。 ライトアップも観れました。(62歳男性) 沖縄旅行が好きでここ数年毎年のように行っていましたが、子供が小さかったことから首里城には足を運べていませんでした。 今年は3年生になって長男が首里城に興味を持ったこともあり家族で訪れて、初めてじっくりと見学して、皆んな細かな装飾に驚き、その美しさを楽しみました。(38歳男性) 2019年10月31日、火災により首里城が焼失しました。世界中の人々がみな心を痛めており、私たちもとても悲しく思っています。私たちは、コンピュータ・ビジョン、ヒューマン・コンピュータ・インタラクション、バーチャル・

                                                                            みんなの首里城デジタル復元プロジェクト
                                                                          • yoshimasa niwa - iPhoneでOpenCVを使う方法

                                                                            OpenCVはIntelが開発したコンピュータビジョンのライブラリで、例えば顔検出などを簡単に行うことができます。 覚え書きとして、OpenCVをiOS SDKをつかってiPhone上やiPadで使う方法を、ビルドスクリプトとデモアプリケーションつきでメモしておきます。 これらのサムネイルはデモアプリケーションのスクリーンショットです。 最新のOpenCVとiOS SDKに対応 プロジェクトをOpenCV 2.2.0、iOS SDK 4.3、Xcode4に対応しました (2011/4/17更新)。 ひとまず使ってみる すべてのソースコードとリソースはgithubのレポジトリに公開されています。 簡単に使えるように、事前にコンパイルしたOpenCVのライブラリとヘッダファイルを入れてあります。 すでにgitがあるなら、githubからレポジトリをcloneしてください。ない場合は、githu

                                                                            • 映画制作におけるPython | POSTD

                                                                              Python は、近年、映画を作成する上で不可欠なものになってきているプログラム言語の1つです。スクリーンに絶大な効果を与えることになるPythonを活用していない長編アニメーションやVFXを用いた映画はほとんどないと言っていいでしょう。 映画について考える際、プログラマは映像を生み出す芸術性について考えることがあります。しかし、映画業界の技術面を気にする人はほとんどいません。 そのようなこともあり、これまで幸運にも私が携わることのできたいくつかの有名な映画でどのようにPythonを使用したかを記事にまとめ、ブログに投稿してきました。これにより、Pythonがどれだけ映画全般に貢献しているかを示すことができれば幸いです。 また、最近私は、アーティストに Python For Maya(Mayaで使うPython) のオンライン講座を udemy に公開しました。この業界でのスキルの重要性が

                                                                                映画制作におけるPython | POSTD
                                                                              • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

                                                                                【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基本的に起こることです。 ――大量の変数という意味

                                                                                  人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
                                                                                • Raytrix | 3D light field camera technology

                                                                                  Spatial 3D++ Light-Field Machine Vision Camera | Monocular RGB-D Depth Snapshot Sensor | Realtime AI Plenoptic Metrology Software nvidia RTX 4090 Ada Lovelace Support PCB Deep Hole Depth Inspection Computer Vision 32x32 On-Chip Lens Solution Inline Computational Imaging Computational Photography Shack-Hartmann Sensor 3D Printing Solder Paste Inspection Bonding Wire Inspection Pin Connector Inspect