並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 315件

新着順 人気順

顔認識の検索結果41 - 80 件 / 315件

  • 凸版印刷、“くずし字”を解読する画像認識AIを開発 研究機関向けに月額7万円から提供

    凸版印刷は2月16日、画像認識AIを活用して古文書に書かれた“くずし字”の解読を支援するツール「ふみのはゼミ」を開発したと発表した。オンラインで複数人による解読作業が可能で、解読精度は90%にも上るという。価格は月額7万円(税別、以下同)から。 くずし字は江戸時代以前に使用されていた文字の一種。凸版印刷は解読済みのくずし字の形を学習させた画像認識AIを生成。画像の文字を読み取ってテキストデータに変換するOCR(光学的文字認識)技術と組み合わせた。 古文書のスキャン画像からくずし字を指定すると、AIが自動的に解読する。目視による結果を再学習させることで、文字認識の精度を上げられるという。 解読した文字や単語へのコメント機能や、解読作業の参加者が交流できるチャット機能など共同作業機能も備える。

      凸版印刷、“くずし字”を解読する画像認識AIを開発 研究機関向けに月額7万円から提供
    • 画像認識の定番データセットImageNetはもう終わりか - Qiita

      オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2012年にAlexNet[Krizhevsky, A.(2012)]が登場してから、画像認識分野での発展は著しい。その発展を支えてきたものこそ大規模データセットImageNet[Deng, J.(2009)]である。ImageNetでSoTAを達成すると、そのモデルには最強モデルの称号が与えられると言っても過言ではない。2020年6月にGoogle Brainによって出されたこの論文は、そんな当たり前に使われてきたImageNetデータセットに対して疑問符を叩きつけるものとなっている。現存のImageNetでの性能評価が必ずしも正しいのだろうか。この論文を通してその答えを探しにいく。 本論文で使われて

        画像認識の定番データセットImageNetはもう終わりか - Qiita
      • 地上で撮った写真の場所を空から特定、精度は85.6% NEC開発 災害救助などに活用へ

        NECは2月10日、写真に映る景色を基に撮影場所を特定する技術を開発したと発表した。目印となるランドマークが映っていなくても特定可能で、災害時の救助活動での活用を目指す。 地上で撮影された画像と衛星画像・航空写真を対応づけて機械学習させ、両者を照らし合わせてることで撮影場所を特定する。照合精度は85.6%。1枚の画像から建物や街路樹などの被写体を分離した画像を自動生成して学習させることで、時間経過による変化や、撮影画像と衛星画像に映り込むオブジェクトの違いに惑わされずに場所を特定できるという。 これまでの技術では目印となる建物(ランドマーク)を基準に場所を特定していたが、ランドマークがない地域では精度が出ない問題があった。NECは衛星写真や航空写真など広域を捉えた画像を利用することでさまざまな地域で使えるようにした。 今後は災害時の救助活動や被災状況の確認などでの活用を検討。この技術を活用

          地上で撮った写真の場所を空から特定、精度は85.6% NEC開発 災害救助などに活用へ
        • 新幹線の“座席濡れ”検知 専用カメラ開発 JR東海、機械学習活用

          JR東海は11月26日、東海道新幹線の車両を清掃する際、座席が濡れているかどうかをサーモグラフィーカメラで検知できる「座席濡れ検知装置」を開発したと発表した。 従来は、整備スタッフが専用のホウキで1席ずつなでて濡れを確認していたが、新装置なら立ったままカメラを向けるだけで確認でき、スタッフの負担を軽減できるという。 東海道新幹線では、1日当たり100本を超える列車を点検・整備しているが、1列車当たり2席程度が濡れているという。 座席が濡れているか確認するために従来、濡れを検知すると警報音が鳴るホウキ型装置「濡れ検知機能付きホウキ」を使って1席ずつ座席をなでていたが、中腰の作業で体の負担が大きかった。 新装置は、スマートフォンを接続した棒の頂点部に、サーモグラフィーカメラを設置したもの。機械学習を活用し、ひじ掛けの位置を基に座席と座面を自動検出する仕組みを備えた。 スタッフが立ったまま装置を

            新幹線の“座席濡れ”検知 専用カメラ開発 JR東海、機械学習活用
          • Googleの無料サービスTeachable Machineで画像認識モデルを作成してみた | Ledge.ai

            「Teachable Machine」はGoogleが提供する、簡単に機械学習のモデルを作成できるサービスです。Teachable Machineでは「画像プロジェクト」「音声プロジェクト」「ポーズプロジェクト」の3種類のモデルが作成可能ですが、今回は「画像プロジェクト」を作成します。 まずはTeachable Machineにアクセスします。 「使ってみる」をクリックします。 「画像プロジェクト」を選択します。 「標準の画像モデル」を選択します。 「Class1」と「Class2」にそれぞれ犬と猫の画像を10枚ずつアップロードします。 アップロードができたら、「モデルをトレーニングする」をクリックします。 学習が完了したら、「Webcam」の部分を「ファイル」に変更し、学習時に使わなかった画像をアップロードします。 無事、予測ができました。 最後に今回はTeachable Machine

              Googleの無料サービスTeachable Machineで画像認識モデルを作成してみた | Ledge.ai
            • 2021年最強になるか!?最新の画像認識モデルEfficientNetV2を解説 - Qiita

              その他層の数も探索空間に入れています。ここで拡張率とは、MBConvの最初のConvでチャネル数を何倍にするかの係数のことで、こちらでより詳しく解説しています。 探索は精度$A$、ステップごとの学習時間$S$、パラメータサイズ$P$を用いて、$A\cdot S^w\cdot P^v$を最大化するように行われます。ここで$w=-0.07, v=-0.05$であり、これらの値は実験的に決定されています。 1.3.2 EfficientNetV2のアーキテクチャ 下表がEfficientNetV2のSサイズのモデルになります。 画像: "EfficientNetV2: Smaller Models and Faster Training", Tan, M., Le, Q., (2021) 比較のためにEfficientNet-B0(i.e. V1)のアーキテクチャも下に載せます。 画像: "Ef

                2021年最強になるか!?最新の画像認識モデルEfficientNetV2を解説 - Qiita
              • RecSys2019 参加レポート 〜ZOZO研究所が注目する、推薦システムの研究の最新トレンド〜 - ZOZO TECH BLOG

                こんにちは、ZOZOテクノロジーズで機械学習の研究開発をしている松井・真木です。2019 年 9 月末にコペンハーゲンで行われた推薦システムのトップカンファレンスである RecSys 2019 に参加してきたので、本稿では参加報告と気になった論文の紹介をします。 recsys.acm.org Overview RecSys では推薦システムに関するアルゴリズムはもちろん、インターフェースやユーザー心理など幅広い話題を扱っています。今年は参加チケットが売り切れたことからも注目度の高さが伺えます。研究発表はロングペーパーとショートペーパーからなり、採択率はそれぞれ 19%、24%でした。個人的に印象的だったのは、参加者の 7 割以上が企業所属である一方、発表者の数でみるとアカデミアの勢力も強かった点です。私はこれまでいくつかの国際会議に参加してきましたが、RecSys は笑いを取りに来る発表者

                  RecSys2019 参加レポート 〜ZOZO研究所が注目する、推薦システムの研究の最新トレンド〜 - ZOZO TECH BLOG
                • JavaScriptのみ!3つのメソッドだけで手を検出可能な機械学習ライブラリ「Handtrack.js」を使ってみた! - paiza times

                  どうも、まさとらん(@0310lan)です! 今回は、JavaScriptで機械学習モデルを手軽に扱える便利なライブラリをご紹介します! わずかなプログラムで静止画像やWebカメラからのリアルタイムな映像を解析して「手」を検出できるのが特徴です。JavaScriptライブラリを読み込むだけですぐに使えるので、HTMLファイル1つあればブラウザ上で実行できるのも魅力的です。 手の動きを利用したWebアプリを簡単に開発できるので、機械学習にご興味ある方はぜひ参考にしてみてください! なおJavaScriptの基本は、paizaラーニングの「JavaScript入門編」で学ぶことができます。 【 Handtrack.js 】 ■「Handtrack.js」で実現できること 使い方を解説する前に、まずは「Handtrack.js」でどのようなことが実現できるのかサンプル例を見ていきましょう。 「H

                    JavaScriptのみ!3つのメソッドだけで手を検出可能な機械学習ライブラリ「Handtrack.js」を使ってみた! - paiza times
                  • 駐車場にある「天下一品の駐車場ではありません!」の表示、でもよく見たらおかしくない?「笑った」「違和感ない」

                    リンク 天下一品 -鶏がらベースのこってりラーメンが自慢!- - 天下一品 -鶏がらベースのこってりラーメンが自慢!- こってりスープが自慢の天下一品へいらっしゃい!こってりラーメンはネットでご注文頂けます。お店でもご自宅でも「天下一品自慢のこってり」をお楽しみ下さい! 27

                      駐車場にある「天下一品の駐車場ではありません!」の表示、でもよく見たらおかしくない?「笑った」「違和感ない」
                    • 【独自】駅の防犯対策、顔認識カメラで登録者を検知…出所者の一部も対象に

                      【読売新聞】 JR東日本が7月から、顔認識カメラを使って、刑務所からの出所者と仮出所者の一部を駅構内などで検知する防犯対策を実施していることが、わかった。必要に応じて手荷物検査を行うとしている。刑期を終えた人らの行動が監視、制限され

                        【独自】駅の防犯対策、顔認識カメラで登録者を検知…出所者の一部も対象に
                      • コンピュータビジョンの最新論文調査 Single Image Super-Resolution 前編 | BLOG - DeNA Engineering

                        2019.09.24 技術記事 コンピュータビジョンの最新論文調査 Single Image Super-Resolution 前編 by shunsuke.nakamura #AI

                          コンピュータビジョンの最新論文調査 Single Image Super-Resolution 前編 | BLOG - DeNA Engineering
                        • Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog

                          長期インターン生の木村です。 今回、以前から興味を持っていた画像認識モデルにおける説明可能なAIのクラス活性化マッピング手法を調査してみました。 説明可能なAIとは 近年、深層学習ベースの画像認識モデルは製造業、医療、自動運転など至る場面で社会実装が進められていますが、ディープなラーニングを行っているだけに推論の判断根拠を人間が解釈できない問題があります。医療、自動運転のような命に関わる領域では安全性や公平性を担保できないために安心して導入できません。 このような問題を解決するのが「説明可能なAI(XAI)」です。 「説明可能なAI(XAI)」は、AIの推論結果を人間が解釈可能な形で出力する技術を指します。例えば、犬と猫が映っている画像を画像分類するAIが犬と推論した場合、モデルがどこを判断根拠としているかをヒートマップで可視化します。このヒートマップは、「顕著性マップ」と呼ばれます。 画

                            Grad-CAMだけじゃない画像認識におけるCAM手法を徹底解説 - ABEJA Tech Blog
                          • 「スプラトゥーン3」で敵に倒されたシーンだけを自動録画できるウェブアプリ「iKut 3」でグングン上達できる環境を作ってみたよレビュー

                            「スプラトゥーン3(Splatoon3)」などの対戦ゲームでは、プレイ中の画面を録画しておくことでゲーム終了後に改善すべき点を見つけることができます。無料で公開されているウェブアプリ「iKut 3」と録画配信ソフト「OBS Studio」を組み合わせれば、スプラトゥーン3の「敵に倒されたシーン」のみを録画可能とのこと。敵に倒されたシーンのみを繰り返し再生することで爆速で上達できそうだったので、実際にiKut 3を使ってスプラトゥーン3の画面を録画する手順を確認してみました。 iKut 3 https://s3.ikut.app/ スプラトゥーン3で、やられたシーンをOBSのリプレイバッファで自動保存する - Qiita https://qiita.com/tfandkusu/items/1131a9a549249b5d8cfe まずは、OBS Studioの設定を行います。画面上部の「ツー

                              「スプラトゥーン3」で敵に倒されたシーンだけを自動録画できるウェブアプリ「iKut 3」でグングン上達できる環境を作ってみたよレビュー
                            • 生産現場IoTへの挑戦 #08 ~Raspberry PiとUSBカメラで外観検査装置を作る 前編~ - Qiita

                              1.はじめに 今回のタスクはRaspberry PiとUSBカメラを使って画像処理による外観検査装置を作ることです。 いわゆる外観検査装置には様々な専門メーカーが非常に多機能な装置を提供しており入手も簡単ですが、高価すぎてコストメリットが出しにくいケースもあるかと思います。 ちなみにみんな大好き○ーエンスさんの外観検査装置は、カメラ+コントローラー+照明でざっくり150万円くらいしますが、今回は照明無し、カメラ(USBカメラ)+コントローラー(Raspberry Pi 4B 4GB)の計1万円強でやってみます。 外観検査をする際は撮影環境の設定がとても重要です。 前編ではv4l2によるカメラのパラメータ設定を行います。 後編では実際に検査を行うプログラムを解説します。 2.検査する内容 今回トライするのは、「樹脂成型部品のショートショットの検出」です。ショートショットと言うのは、樹脂の射出

                                生産現場IoTへの挑戦 #08 ~Raspberry PiとUSBカメラで外観検査装置を作る 前編~ - Qiita
                              • あるアニメのライブの顔認証システム入場、事前に登録をしたのに弾かれた→理由「瓜二つのおたくをAIが判別できなかった」が悲しすぎないか?

                                もろへいや🌈🪷 @moro_heiya_ これは本当にあった泣ける話なんですけど、Liella! 東京追加公演Day1の顔認証システム入場において、ちゃんと本人の正面顔写真を登録したにもかかわらず顔認証で弾かれました。 弾かれた原因、『俺と瓜二つのチー牛顔のおたくが別にいて、AIが判別できなかった』なの、流石に泣いていいですか。 2022-01-16 21:41:23 もろへいや🌈🪷 @moro_heiya_ 勘違いされてたらアレなので補足ですが、別ブースに連行されて目視+名義の確認で無事イベには参加できてます。 あと見ず知らずの人を本人にも見えうるようなインターネット上でチー牛呼ばわりするの、普通に失礼だからやめようね!(1敗) 2022-01-17 12:45:27

                                  あるアニメのライブの顔認証システム入場、事前に登録をしたのに弾かれた→理由「瓜二つのおたくをAIが判別できなかった」が悲しすぎないか?
                                • たった2行で画像認識モデルの精度向上!?新しいDataAugmentation自動最適化手法「RandAugment」解説!

                                  3つの要点 ✔️ ランダムにData Augmentationの手法を選択するRandAugmentを提案 ✔️ 従来のAutoAugmentと比べ探索空間を$10^{-30}$にも削減し計算量を激減させたことで実践で使えるようにしただけでなく、CIFAR-10/100やImageNet, COCOなどのデータセットにおいて有用性が確認できた ✔️ ImageNetのSoTAであるNoisyStudentにも使われており、関数は2行で実装できるため読者の方も容易に使うことができる。 RandAugment: Practical automated data augmentation with a reduced search space written by Ekin D. Cubuk, Barret Zoph, Jonathon Shlens, Quoc V. Le (Submitted

                                    たった2行で画像認識モデルの精度向上!?新しいDataAugmentation自動最適化手法「RandAugment」解説!
                                  • 「AI判定で収容所送り、1週間で1.6万人」暴露された中国監視ネットの実態(平和博) - エキスパート - Yahoo!ニュース

                                    AIを使って1週間で2万人超の"不審者"を特定、約1万6,000人を収容所送りに――。 中国政府が新疆ウイグル自治区で、イスラム教徒の少数民族、ウイグル族を大規模なAIネットワークで常時監視し、大量に拘束している実態が、国際調査報道ジャーナリスト連合(ICIJ)が公開した内部文書で明らかにされた。 AI、IoT、ビッグデータなど、先端のテクノロジーを駆使した中国の監視ネットワークの存在は、これまでも断片的に報じられてきた。 今回暴露された中国政府の内部文書には、この監視ネットワークと、ウイグル族の収容所(職業教育訓練センター)への収容とを結びつける内容も含まれていた。 AIが広範な監視ネットワークとして使われると何が起きるのか? 監視社会の未来を描いたSFは、すでに目の前にある――それを実例として示す内部文書だ。 ICIJの提携メディアの一つ、英ガーディアンの取材に対して、中国政府は「いわ

                                      「AI判定で収容所送り、1週間で1.6万人」暴露された中国監視ネットの実態(平和博) - エキスパート - Yahoo!ニュース
                                    • 海外要人の顔を即時見分けた、日テレ「即位礼正殿の儀」中継の舞台裏 | Ledge.ai

                                      今年10月22日、天皇陛下が即位を日本国の内外に宣言する「即位礼正殿の儀」が執り行なわれた。スマホやテレビを通してこの儀式を見届けた人も数多いだろう。 即位礼正殿の儀には海外の要人も多数参列する。各種報道機関は「〇〇(国名)の××(名前)」として参列者の情報を伝えるものの、“顔の見分け”は容易ではない。それも、生中継というリアルタイムなものであればなおさらだ。 実は、「即位礼正殿の儀」および「饗宴の儀」の報道番組において、日本テレビでは海外要人の確認作業の正確性、効率性を向上させる運用実験を行なっていた。それは、映像に映っている人間の顔を検出し、自動で個人を認識する「AI顔認識」である。 顔を認識さえすれば間違いは一度もない結論から書けば、AIが要人の顔を認識さえすれば、識別間違いは一度もなかった。 まず、「即位礼正殿の儀」だ。AI顔認識の対象になったのは全部で4画面。4つのカメラで撮影し

                                        海外要人の顔を即時見分けた、日テレ「即位礼正殿の儀」中継の舞台裏 | Ledge.ai
                                      • 【検証】 プーチン氏の周りで撮影される人たち……顔認証ソフトの判定は - BBCニュース

                                        ロシアのウラジーミル・プーチン大統領が公の場で撮影されると、周りにはいつも同じ人たちがいる――と、ソーシャルメディアでうわさになりがちだ。最近では、昨年大みそかに公表された集合写真について、プーチン氏の背後にいるのは本物の軍人ではない、以前にもプーチン氏と一緒に撮影されていたなどのうわさがとびかった。果たして本当にそうなのか。顔認証ソフトウェアで検証する。

                                          【検証】 プーチン氏の周りで撮影される人たち……顔認証ソフトの判定は - BBCニュース
                                        • OpenCVによる非ディープラーニングの顔認識でどこまでできるのか試してみた! – 株式会社ライトコード

                                          ディープラーニングを使わない顔認識 Githubで公開されている「Face-Detection-OpenCV」を実行し、OpenCVでの顔認識の限界を探ってみました。 このコードには、OpenCV(オープンシーヴィ)による、「非ディープラーニングの顔認識のテスト用コード」がまとまっています。 赤ちゃんのグレイ表示/顔認識テスト3人の赤ちゃんの顔認識テスト顔認識精度をパラメータ調整で向上させた例LBP方式の顔認識テストHaar方式とLBP方式の比較最終的にHaar方式、LBP方式という2種類の顔認識を比較しています。 Haar方式については、認識速度が遅く、壁に貼ったポスターの顔まで「顔」と認識してしまいました。 しかし、LBP方式は、実際の人間の顔のみキレイに認識出来た上、認識にかかる時間が1/3以下。 ここだけ見ると、「ああ、Haar方式って良いところないんだな。使わないようにしよう…」

                                            OpenCVによる非ディープラーニングの顔認識でどこまでできるのか試してみた! – 株式会社ライトコード
                                          • 顔誤認は冤罪が怖い! IBMに続きAmazon、マイクロソフトも捜査利用停止宣言

                                            顔誤認は冤罪が怖い! IBMに続きAmazon、マイクロソフトも捜査利用停止宣言2020.06.12 23:0010,437 satomi こちらの写真、見分ける自信ありますか? これ、黒人の方が見ると全然別人に見えるのだけど、白人の方が見るとほぼ同一人物に見えることがあるそうなんですよ? 人間の苦手分野はAIも苦手というわけで、IBMが8日、「監視、人種識別、人権と自由の侵害に顔認識などのテクノロジーを使うのは断固反対!」と米議会宛ての書簡で宣言し、顔認識技術の研究、開発、広告、販売の終了を発表したのに続き、10日にはAmazon(アマゾン)も自社の顔認識システム「Recognition」の捜査利用を1年禁じることを表明。Microsoft(マイクロソフト)も法が整備されるまでは警察への販売を控えることを誓いました。 アメリカで沸き起こっている警察による人種差別抗議デモを受けた動きですが

                                              顔誤認は冤罪が怖い! IBMに続きAmazon、マイクロソフトも捜査利用停止宣言
                                            • 中国政府がスマホ追跡や顔認識などを駆使し抗議者を追跡し自宅を特定、大規模な監視が裕福な都市の中流階級の人々に向けられたのは初めて

                                              厳格な新型コロナウイルス感染症対策(COVID-19)へ抗議活動を行った中国の国民が、過去10年をかけて中国政府が構築してきた強力な監視ツールにより正確に追跡されていることがニューヨーク・タイムズより伝えられました。政府がどのようなツールを使い、どのように人々を追跡しているのかについて、ニューヨーク・タイムズが解説しています。 How China’s Police Used Phones and Faces to Track Protesters - The New York Times https://www.nytimes.com/2022/12/02/business/china-protests-surveillance.html 中国の警察は街角やビルの入り口に何百万台ものカメラを設置し、強力な顔認識ソフトを導入して人々を追跡しています。政府が採用するソフトウェアの1つ「Face

                                                中国政府がスマホ追跡や顔認識などを駆使し抗議者を追跡し自宅を特定、大規模な監視が裕福な都市の中流階級の人々に向けられたのは初めて
                                              • 新たな活性化関数「FReLU」誕生&解説! - Qiita

                                                オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 他にも次のような記事を書いていますので興味があればぜひ! 【2020決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- 画像認識の定番データセットImageNetはもう終わりか パラメータ数を激減させる新しい畳み込み「MixConv」解説! 自然言語処理の王様「BERT」の論文を徹底解説 【基本編】画像認識に使用されるData Augmentationを一挙にまとめてみた! 画像認識に特化させた新たな活性化関数FReLU解説&実装! 今やあらゆる分野で驚くべき結果を残し続けているニューラルネットワークですが、そのニューラルネットに無くてはならないものこそが活性化関数で

                                                  新たな活性化関数「FReLU」誕生&解説! - Qiita
                                                • 漫画の吹き出しや効果音を自然に消す技術

                                                  Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 香港中文大学とCaritas Institute of Higher Educationの研究チームが開発した「Seamless Manga Inpainting with Semantics Awareness」は、深層学習を使い、漫画のせりふの吹き出しや効果音を消して周囲と調和するように塗りつぶす手法だ。

                                                    漫画の吹き出しや効果音を自然に消す技術
                                                  • FBIらも利用か、新興企業Clearview AIの顔認識アプリが物議

                                                    見知らぬ人に道で写真を撮られ、その後すぐにアプリで自分の名前や住所などの個人情報が見つかっているとすればどうだろうか。Clearview AIという新興企業が、そのようなことを実現しており、同社の顔認識アプリは現在、米連邦捜査局(FBI)をはじめとする米国の多数の法執行機関で利用されているという。The New York Times(NYT)が米国時間1月18日に報じた。 NYTによると、Clearviewのアプリは、30億件以上の画像からなるデータベースと写真を照合するという。画像は、FacebookやVenmo、YouTubeなどのサイトから取得したとClearviewは述べている。一致した画像が、データベース写真の出典元のサイトへのリンクとともに提供される。名前はおそらく簡単に判明し、そこから他の情報をオンラインから掘り出すことができるとみられる。 Clearviewのデータベースの

                                                      FBIらも利用か、新興企業Clearview AIの顔認識アプリが物議
                                                    • GitHub - Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB: 💎1MB lightweight face detection model (1MB轻量级人脸检测模型)

                                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                        GitHub - Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB: 💎1MB lightweight face detection model (1MB轻量级人脸检测模型)
                                                      • IBMが「顔認識AI」撤退、アマゾン・マイクロソフトも悩むその危険性

                                                        経済産業省(通商政策)、キヤノン(経営企画、M&A)、A.T. カーニー(戦略コンサルティング)、デロイトトーマツコンサルティング執行役員/パートナー(Social Impact、Regulatory Strategy)を経て、現職。 著書に『稼げるFTA大全』(日経BP社)、『最強のシナリオプランニング』(共著:東洋経済新報社)、『世界市場で勝つルールメイキング戦略』(共著:朝日新聞出版)があるほか、日経ビジネス電子版「羽生田慶介の丸わかり通商ゼミナール」「通商の課外授業」、JBpress「通商の未来予想図」などへの寄稿や講演・テレビなどの識者コメント多数。 経済産業省「Society5.0標準化推進委員会」、JETRO「SDGs時代の海外ビジネスとジェトロ事業」研究会ほか、政策検討委員多数。国際基督教大学(ICU)教養学部卒。 一般社団法人エシカル協会理事、多摩大学大学院ルール形成戦略

                                                          IBMが「顔認識AI」撤退、アマゾン・マイクロソフトも悩むその危険性
                                                        • ドコモ、認識精度99.87%の顔認証サービスを提供

                                                          NTTドコモは、10月5日に認識精度99.87%、認識スピード177msの顔認証機能をAPIで提供する顔認証サービスを法人向けに提供開始した。 本サービスは画像認識ソリューションの開発を支援するクラウドサービス「ドコモ画像認識プラットフォーム」へ、RealNetworksの顔認証エンジンソフトウェア「SAFR」を搭載。APIで連携し、ユーザーのシステムやサービスへの顔認証機能を追加している。 複数人いる場面やメガネやサングラス着用時、マスク着用時、表情をつくっているとき、明るさが不十分といった環境下でも正しく認識できる。特殊なカメラやセンサーを使うことなく、なりすましも検知する。顔画像の登録も正面からの顔画像1枚のみで済み、マスクを着用したままでも98.90%の認識精度(RealNetworks調べ)で認識する。

                                                            ドコモ、認識精度99.87%の顔認証サービスを提供
                                                          • Haruki Sonehara / 🇺🇸シリコンバレーのプロダクトマネージャー(B2B・B2C) on Twitter: "顧客: 果物の大きさごとに仕分けが面倒。AIでなんとかして AIベンダー: 画像認識AIを活用して果物の大きさを検知し、似た大きさのものをまとめてみましょう 問題の本質に対するフレーミング一つで、かかるコストや投資に対する効果は… https://t.co/jer9BRgPpN"

                                                            顧客: 果物の大きさごとに仕分けが面倒。AIでなんとかして AIベンダー: 画像認識AIを活用して果物の大きさを検知し、似た大きさのものをまとめてみましょう 問題の本質に対するフレーミング一つで、かかるコストや投資に対する効果は… https://t.co/jer9BRgPpN

                                                              Haruki Sonehara / 🇺🇸シリコンバレーのプロダクトマネージャー(B2B・B2C) on Twitter: "顧客: 果物の大きさごとに仕分けが面倒。AIでなんとかして AIベンダー: 画像認識AIを活用して果物の大きさを検知し、似た大きさのものをまとめてみましょう 問題の本質に対するフレーミング一つで、かかるコストや投資に対する効果は… https://t.co/jer9BRgPpN"
                                                            • 最先端のAI画像認識モデルでも正しく認識できない画像まとめ

                                                              人工知能(AI)を用いた画像認識技術は自動運転車や防犯システムなどさまざまな分野で活躍していますが、最先端のパフォーマンスを実現するディープラーニングを用いた画像認識モデル「InceptionNet」であっても、画像を正しく認識できないケースが多々あります。スタンフォード大学で機械学習やAIについて研究するアブバカル・アビド氏は、「最先端の画像認識モデル(InceptionNet)でも正しく認識できなかった画像」をまとめており、まだまだAIが人間並みの認識能力を有することは難しいと実感できます。 What Inception Net Doesn't See – Abubakar Abid – Zou Group @Stanford https://abidlabs.github.io/Inception-Blindspots/ ◆1:逆さまの車 自動車が逆さまに写っている場合、画像認識モデ

                                                                最先端のAI画像認識モデルでも正しく認識できない画像まとめ
                                                              • https://twitter.com/kajigayatakuya/status/1569428800987099138

                                                                  https://twitter.com/kajigayatakuya/status/1569428800987099138
                                                                • コンピュータビジョン分野における世界最高峰の国際会議CVPR2022からワークショップの模様を紹介(前編) - NTT Communications Engineers' Blog

                                                                  目次 目次 はじめに CVPR2022概要 Workshop on Image Matching: Local Features & Beyond SuperPoint and SuperGlue: Lessons Learned Large-scale 3D reconstruction Deployment - Successes, Challenges, Open Problems Unstructured Object Matching using Co-Salient Region Segmentation Nerfels: Renderable Neural Codes for Improved Camera Pose Estimation Feature Query Networks: Neural Surface Description for Camera Pose Re

                                                                    コンピュータビジョン分野における世界最高峰の国際会議CVPR2022からワークショップの模様を紹介(前編) - NTT Communications Engineers' Blog
                                                                  • 単眼カメラの映像から人物の3Dモデル(衣服込み)をリアルタイム生成 深層学習で

                                                                    Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 南カリフォルニア大学、USC Institute for Creative Technologies、Pinscreenによる米研究チームが開発した「Monocular Real-Time Volumetric Performance Capture」は、衣服を着た動く人物の3次元モデルをリアルタイムに生成する深層学習ベースのフレームワークだ。 単眼のRGBカメラで一方向から撮影した映像から、見えない背面などを含む全身の演技をリアルタイムでキャプチャーする。隠れた部分のテクスチャも推定するため、質感を持った衣服を着た人間の、多様なポーズを生成できる。

                                                                      単眼カメラの映像から人物の3Dモデル(衣服込み)をリアルタイム生成 深層学習で
                                                                    • Amazon Lookout for Visionで青森認証やってみた - Qiita

                                                                      不良品検出のAIサービス「Amazon Lookout for Vision」が先週25日(木)に東京リージョンでの提供開始が発表されましたが、27日(土)には早くも「AWSの基礎を学ぼう」コミュニティのハンズオンが開催され、実際に体験してみることができました。 AI、機械学習系のハンズオンということで待ち時間なんかもあるわけですが、そこにソラコムの @ma2shita さんの「Amazon Lookout for Vision 向いてるコト、使いどころと注意点」とかJAWS-UG名古屋の @nori2takanori さんの「画像ベース異常検知Amazon Lookout for Visionを使ってみよう」とかLTが入って、退屈する暇のない2時間でした。その中で出てきたスライドの一枚がこちら。 Lookout for Visionは不良品検知にしか使えないサービスじゃないぞ、と。アイデ

                                                                        Amazon Lookout for Visionで青森認証やってみた - Qiita
                                                                      • “あの時”のプーチン氏はニセモノだった⁈影武者の真偽AIが分析 【報道1930】 | TBS NEWS DIG

                                                                        広島サミットにゼレンスキー大統領が参加し結束を再確認し合う形となった西側。それに対抗するように中国にミシュスチン首相を送ったり、旧ソ連の首相を呼んだ会議をモスクワで開いたりとプーチン大統領の動きも激…

                                                                          “あの時”のプーチン氏はニセモノだった⁈影武者の真偽AIが分析 【報道1930】 | TBS NEWS DIG
                                                                        • 顔写真の表情をまるで生きているかのようにAIで動かせるサービス「DeepNostalgia」が登場

                                                                          静止画として撮影された人間の顔写真を、まばたきしたり瞳を動かしたりするムービーに変換するサービス「DeepNostalgia」が登場したので、いろいろな人の顔で試してみました。 MyHeritage Deep Nostalgia™, deep learning technology to animate the faces in still family photos - MyHeritage https://www.myheritage.jp/deep-nostalgia DeepNostalgiaを使ってみたムービーはこんな感じ。 写真に写った人の表情を変化させられるサービス「DeepNostalgia」を使用してみた - YouTube DeepNostalgiaは家系図を自作することができるDNA解析サービス「MyHeritage」が開発し提供しています。まずはDeepNostal

                                                                            顔写真の表情をまるで生きているかのようにAIで動かせるサービス「DeepNostalgia」が登場
                                                                          • 凸版印刷、今度は明治から昭和のくずし字文書が「読める、読めるぞ!」--2023年4月リリース

                                                                            近代に作られた手書きの資料は大量に残っており、公文書や企業経営にかかわる文書、業務日誌、書簡など、貴重な資料が多いそうだ。ただし、くずし字で書かれたものが多く、書き手によるくずし方の差が大きいうえ、筆記用具の多様化、カタカナ語の混在、旧字や旧仮名遣い表記などの特性があり、江戸時代の資料より解読が困難な場合もあるという。 そこで、凸版印刷は古文書解読サービス「ふみのは」で提供中の江戸時代のくずし字に対応したOCRをベースとして、近代の多様な筆跡の手書き文字に対応するOCRを開発した。今後、実証実験を進め、2023年4月より正式サービスとして提供する予定。 提供形態は、くずし字解読システム「ふみのはゼミ」の追加サービスとするほか、古文書解読アプリ向けの追加サービスや、APIサービスを検討している。

                                                                              凸版印刷、今度は明治から昭和のくずし字文書が「読める、読めるぞ!」--2023年4月リリース
                                                                            • AI vs 人間!顔認識技術の限界にチャレンジしてみた - karaage. [からあげ]

                                                                              古くて新しい顔検出技術 顔認識技術は、顔の位置を検出する技術です。デジタルカメラやスマートフォンのカメラ機能などでおなじみの、顔に四角い枠が出てピントが合うやつです。有名ですよね。 より正確には顔の位置を示すのが「顔検出」で、誰の顔かを見分けるのは「顔識別」「顔判別」「顔認証」と区別されます。今回の記事では、便宜上一般的に馴染みのある「顔認識」=「顔検出」という定義で説明いたします(専門家の方、石投げるのはご勘弁を)。 顔認識技術は、興味ある人も多いようで、当ブログで過去に顔認識技術を扱った記事も、古いわりに今だに人気のある記事になります。 拙作の 「からあげ先生のとにかく楽しいAI自作教室」でも、顔認識技術は少し扱っているのですが、書籍の主題から外れるので、詳細は割愛しておりました。書籍の補足的な位置付けもこめて、今回は顔認識技術に関して、楽しみながらより深く理解できる記事として、顔認識

                                                                                AI vs 人間!顔認識技術の限界にチャレンジしてみた - karaage. [からあげ]
                                                                              • 2019年最強の画像認識モデルEfficientNet解説 - Qiita

                                                                                GPipeは大きすぎてハードウェアのメモリに限界がきてしまっている。 そのため、効率的なモデルが求められる。 2.2 ConvNetの効率性 モデル圧縮やハンドクラフトによる効率的なモデル作成などがあったが、近年ではNAS(=Neural Architecture Search)によるモデル作成が性能が良く、流行っている。 この論文ではモデルの広さ、深さ、解像度をいじるモデルスケーリングを使ってConvNetの効率性を高める。 3. Compound Model Scaling(複合モデルスケーリング) 3.1 問題の定式化 繰り返しになるが、モデルスケーリングはあくまで広さ、深さ、解像度を変えるだけで、 レイヤーのアーキテクチャを変えたりはしない。 そのため、いじるのは広さ、深さ、解像度だけで良くなるが、全てのレイヤーでそれらを最適な値にするのはまだ候補が多すぎるため、この論文では、全て

                                                                                  2019年最強の画像認識モデルEfficientNet解説 - Qiita
                                                                                • TwitterのAIが流れ星の動画を「いかがわしい」と判定。天文家のアカウントが凍結される | Gadget Gate

                                                                                  英国の天文家メアリー・マッキンタイア氏は、流れ星の動画をTwitterに投稿したところ「被写体の同意なく共有されたいかがわしい内容」を含むと自動判定され、突然アカウントが凍結された。 Here is the #IonizationTrail from the #Perseid #Fireball at 01:37 BST / 00:37 UT 13/08/22 from #Oxfordshire. Visually it was epic! Canon 1100D 18-55mm lens 8sec ISO-800 f/3.5. Video is made from the fireball + 7 subsequent images #Perseids2022 #PerseidsMeteorShower pic.twitter.com/jSw3OTSw15 — Mary McIntyre

                                                                                    TwitterのAIが流れ星の動画を「いかがわしい」と判定。天文家のアカウントが凍結される | Gadget Gate