並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 62 件 / 62件

新着順 人気順

エッジデバイスの検索結果41 - 62 件 / 62件

  • Sharing Pixelopolis, a self-driving car demo from Google I/O built with TF-Lite

    https://blog.tensorflow.org/2020/07/pixelopolis-self-driving-car-demo-tensorflow-lite.html https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhs4gaxC1c-8T8Ei8rgaCqf6BoyUQRfPllTIcLCnkECygff-sSAHYUfJBu4Z4ZGtSwksvzRki32WFGSYiFPtlv19oacze5SpcU9c4spZF8a2KMU3hzT2LD7G3TwDglWqHj6JFEFZSdZbGo/s1600/106.gif July 13, 2020 — Posted by Miguel de Andrés-Clavera, Product Manager, Google PI In this post, I

      Sharing Pixelopolis, a self-driving car demo from Google I/O built with TF-Lite
    • ディープラーニングで天ぷら問題を解決したい - 沖縄B級ポータル - DEEokinawa(でぃーおきなわ)

      「天ぷらのイカを食べたかったのに魚だった」という悲劇を生む沖縄の「天ぷらイカ・魚問題」。今ならディープラーニングで解決できるのではないだろうか。 2021年は2月12日が旧暦のお正月、旧正月にあたります。また旧暦の1月16日はあの世のお正月と言われている十六日。このご時世だけに親戚一同が集まるようなことはなさそうですが、旧正月まわりの沖縄はわりと行事ごとが多い印象です。 そして、親戚一同が集まるような行事といえば「天ぷら」。沖縄の天ぷらは行事に供される行事食でもあるのです。 さて、天ぷらと言えば沖縄県民の悩みである「天ぷらイカ・魚問題」というものがあります。 天ぷらイカ・魚問題 沖縄の天ぷらは衣が厚く、似たような形状であるため「魚天ぷらを食べたかったのに、イカ天ぷらを取ってしまう」「イカ天ぷらが食べたかったのに、魚天ぷらを取ってしまう」という悲劇が起こること 我々DEEokinawaでも長

        ディープラーニングで天ぷら問題を解決したい - 沖縄B級ポータル - DEEokinawa(でぃーおきなわ)
      • AWSがAmazon SageMaker Edge Managerを発表

        Spring BootによるAPIバックエンド構築実践ガイド 第2版 何千人もの開発者が、InfoQのミニブック「Practical Guide to Building an API Back End with Spring Boot」から、Spring Bootを使ったREST API構築の基礎を学んだ。この本では、出版時に新しくリリースされたバージョンである Spring Boot 2 を使用している。しかし、Spring Boot3が最近リリースされ、重要な変...

          AWSがAmazon SageMaker Edge Managerを発表
        • 【速報】エッジ上の機械学習モデルを管理!「Amazon SageMaker Edge Manager」登場。 #reinvent | DevelopersIO

          せーのでございます。 現在AWS re:InventではMachine Learningのキーノートが行われています。 キーノート内では機械学習に関する様々なAWSサービスが発表されました。 このブログではその中からエッジ上の機械学習モデルの監視、管理を行うサービス「Amazon SageMaker Edge Manager」を速報でご紹介します。 SageMaker Neo + Greengrass = Edge Manager?? Edge Managerはラズパイはjetsonなどのエッジデバイス上にデプロイする機械学習モデルを管理、保護、監視するためのサービスです。 現在エッジへのモデルのデプロイにはSageMaker Neoという最適化用のサービスがあります。これはサーバに比べてハードウェアリソースの性能が低いことの多いエッジデバイスに対して、モデルを最適化させることで、エッジ上

            【速報】エッジ上の機械学習モデルを管理!「Amazon SageMaker Edge Manager」登場。 #reinvent | DevelopersIO
          • 一般的な写真データの100分の1程度のメモリー容量で動かせる超小型のエッジAIアルゴリズム | Ledge.ai

            エイシング代表取締役CEO出澤純一氏 エッジAIスタートアップの株式会社エイシングは12月15日、指先に乗せられるほど超小型のエッジAIアルゴリズム「メモリー・セービング・ツリー(Memory Saving Tree、MST)」を開発したと発表。提供開始は2021年1月から。 MST搭載マイコンイメージ 「MST」は、一般的な写真データの100分の1程度とごくわずかなメモリー容量で動かせるため、現在市場に出回っている大半の半導体チップに実装できるという。一般に流通する家電製品やスマートウォッチ、自動車などにすでに組み込まれている既存マイコンへ実装可能になり、高精度なエッジAIの多種多様な領域における活用を実現するとうたう。 Armベースマイコン出荷台数の約92%、市場の大半をカバーエイシングは、大規模な計算環境が必要なディープラーニング(深層学習)とは異なり、導入機器単体がクラウド接続を必

              一般的な写真データの100分の1程度のメモリー容量で動かせる超小型のエッジAIアルゴリズム | Ledge.ai
            • TensorFlow Lite for MicrocontrollersをESP32で試す

              Interfaceに一本記事をのせてもらいました。 詳細は雑誌を参照してください(笑) TensorFlow Lite for Microcontrollersとは? https://www.tensorflow.org/lite/microcontrollers 上記のもので、マイコン向けに簡略化された機械学習プラットフォームのTensorFlowです。ESP32もサポートされており、ESP-IDF4.0でビルドすることが可能です。 Arduino IDE用ライブラリ https://github.com/tanakamasayuki/Arduino_TensorFlowLite_ESP32 動かし方の解説が面倒だったので、Arduino IDE用のライブラリを作成しました。ライブラリマネージャーから「TensorFlowLite_ESP32」でインストールできます。 M5StickC(

                TensorFlow Lite for MicrocontrollersをESP32で試す
              • 電源をつなげばすぐ動くエッジAIカメラ、ラズパイとSIMの組み合わせで開発

                電源をつなげばすぐ動くエッジAIカメラ、ラズパイとSIMの組み合わせで開発:エッジコンピューティング(1/2 ページ) 「電源をつなぐだけで稼働する」ソラコムが開発したエッジAIカメラ「S+ Camera Basic」と管理ツールである「SORACOM Mosaic」の特徴を、同社代表取締役社長の玉川憲氏らに聞いた。 製造業におけるAI(人工知能)カメラへの注目度が高まりつつある。AIカメラを活用することで、商品の在庫数や生産品の仕上がりなどの確認作業を自動化できる。これにより現場作業の省人化や効率化を図れる点などがAIカメラ導入のメリットとして期待されている。 ただ、AIカメラの導入ハードルは意外に高い。設置場所の現場検証やカメラのレンズ補正などの本体設定の調整、カメラから収集したデータの蓄積場所、セキュアな通信環境の構築、電源の確保手段などを全て考えなければならないからだ。また、カメラ

                  電源をつなげばすぐ動くエッジAIカメラ、ラズパイとSIMの組み合わせで開発
                • Visual Studio Code March 2021

                  Version 1.88 is now available! Read about the new features and fixes from March. March 2021 (version 1.55) Update 1.55.1: The update addresses these issues. Update 1.55.2: The update addresses these security issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the March 2021 release of Visual Studio Code. There are a number of updates in

                    Visual Studio Code March 2021
                  • エッジデバイスでの機械学習モデルの運用をシンプル化する Amazon SageMaker Edge Manager | Amazon Web Services

                    Amazon Web Services ブログ エッジデバイスでの機械学習モデルの運用をシンプル化する Amazon SageMaker Edge Manager 今日は、エッジデバイスフリートでの機械学習モデルの最適化、セキュア化、監視、および維持を容易にする Amazon SageMaker の新機能、Amazon SageMaker Edge Manager についてお知らせしたいと思います。 エッジコンピューティングが情報テクノロジーにおける最もエキサイティングな展開のひとつであることは明らかです。実際に、コンピューティング、ストレージ、ネットワーキング、およびバッテリテクノロジーの絶え間ない進歩のおかげで、組織は、製造、エネルギー、農業、およびヘルスケアなどのさまざまな産業用途のために、多数の埋め込みデバイスを世界のあらゆる場所で日常的にデプロイしています。シンプルなセンサーから

                      エッジデバイスでの機械学習モデルの運用をシンプル化する Amazon SageMaker Edge Manager | Amazon Web Services
                    • Idein、アイシンが開発するエッジAIカメラ「ai cast」にエッジAI技術を提供

                      Idein、アイシンが開発するエッジAIカメラ「ai cast」にエッジAI技術を提供「Hailo-8™」活用の独自技術で、AIカメラの性能100倍以上の向上を実現 国内シェア2年連続No.1のエッジAIプラットフォーム「Actcast」を運営するIdein株式会社(読み:イデイン、本社:東京都千代田区、代表取締役:中村 晃一)は、株式会社アイシン(本社:愛知県刈谷市、取締役社長:吉田 守孝)が開発するエッジAIカメラ「ai cast(読み:アイ キャスト)※商標出願中」に技術協力したことをお知らせします。 2月中旬より、当社ホームページにて「ai cast」の予約受付を開始いたします。「ai cast」は「Actcast」と連携しているため、様々なAI機能をすぐにお使いいただけます。また、オプションとして簡易ダッシュボード機能も合わせてご提供可能なため、現場への迅速な導入と運用を強力に支

                        Idein、アイシンが開発するエッジAIカメラ「ai cast」にエッジAI技術を提供
                      • TensorFlow Lite for Microcontrollers

                        TensorFlow Lite for Microcontrollers コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 TensorFlow Lite for Microcontrollers は、メモリが数キロバイトしかないマイクロコントローラなどのデバイス上で機械学習モデルを実行するように設計されています。コアランタイムは Arm Cortex M3 で 16 KB に収まり、さまざまな基本的モデルを実行できます。オペレーティング システムのサポート、標準の C / C++ ライブラリ、動的メモリ割り当ては必要ありません。 マイクロコントローラが重要な理由 マイクロコントローラは通常、小型で低電力のコンピューティング デバイスであり、基本的な計算を必要とするハードウェアに埋め込まれています。小さなマイクロコントローラに機械学習を行わせることで、家電や

                          TensorFlow Lite for Microcontrollers
                        • マイコンで実現!実践AIソリューション~「組み込みAI」の復習とプロジェクトの概要

                          マイコンで実現!実践AIソリューション~「組み込みAI」の復習とプロジェクトの概要:ハイレベルマイコン講座 【組み込みAI実践編】(1)(1/3 ページ) すでにマイコンを使い込まれている上級者向けの技術解説の連載「ハイレベルマイコン講座」。今回は、実際にSTマイクロエレクトロニクスの32ビットマイコン「STM32F746」を使って、文字認識のAIプロジェクトを実行してみる。連載1回目の今回は、まず「組み込みAI」について復習した後、今回行うAIプロジェクトの概要を説明する。 本記事は、2019年4月に公開した「ハイレベルマイコン講座【組み込みAI編】(1):マイコンで実現するAI ――「組み込みAI」とは」および2019年5月に公開した「ハイレベルマイコン講座【組み込みAI編】(2):マイコンでAIを実現するための手順」の続編である。 前記事では「AIとは何か?」から始めて、「組み込みA

                            マイコンで実現!実践AIソリューション~「組み込みAI」の復習とプロジェクトの概要
                          • Raspberry Pi Pico で独自学習した TensorFlow Lite のモデルを使う

                            はじめに Raspberry Pi Pico 楽しいですよね。先日は、Raspberry Pi Pico のボタンを使って Go の if err != nil {...} を自動入力するボタンを作りました。 先日から、Raspberry Pi Pico で TensorFlow Lite を動かすのを試していたのですが、独自モデルでどうしても動かずハマっていた問題が昨日解決しました。 できあがったもの XOR ゲートを推論するモデルを組み込み、シリアルポートからの入力で LED を付けたり消したりします。 まずはモデルを作る といっても難しい事はなく、単に普通の学習をさせるだけです。 import tensorflow as tf from tensorflow import keras import numpy as np x_train = np.array([[0, 0], [1,

                              Raspberry Pi Pico で独自学習した TensorFlow Lite のモデルを使う
                            • Microsoft、エッジ計算基盤「Azure Percept」プレビュー版を発表 開発者向けデバイスも

                              米Microsoftは3月2日(現地時間)、エッジコンピューティングデバイスと同社のクラウド計算環境「Azure」をつなぐプラットフォーム「Azure Percept」のパブリックプレビューを公開した。AzureのAI処理サービスをエッジデバイスでも簡単に使えるようにする。 Azure Percept対応のエッジデバイス「Azure Percept Vision」(中央)、「Azure Percept Audio」(右)、「Trusted Platform Module」(左) Azureはクラウド側の大規模な計算リソースでAIの学習や推論を行える機能を持つが、利用するにはインターネット環境が必要になる。エッジデバイスは学習済みのAIモデルを搭載することで、インターネットに常時つながっていなくても推論できるのが特徴。 Azure Perceptでは、対応するエッジデバイスへのAIプログラム

                                Microsoft、エッジ計算基盤「Azure Percept」プレビュー版を発表 開発者向けデバイスも
                              • GitHub - terryky/tflite_gles_app: GPU accelerated deep learning inference applications for RaspberryPi / JetsonNano / Linux PC using TensorflowLite GPUDelegate / TensorRT

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - terryky/tflite_gles_app: GPU accelerated deep learning inference applications for RaspberryPi / JetsonNano / Linux PC using TensorflowLite GPUDelegate / TensorRT
                                • Stable Code 3B - エッジでのコーディング — Stability AI Japan

                                  ポイント Stable Code 3Bは、30億パラメータを持つ大規模言語モデル(LLM)であり、CodeLLaMA 7bのような2.5倍の大きさを持つモデルと同等のレベルで、正確で応答性の高いコード補完を可能にします。 MacBook Airのような一般的なノートパソコンでGPUがなくてもオフラインで動作します。 モデルを商用利用するためには Stability AI メンバーシップ へのご登録をお願いします。 2024年最初の大規模言語モデルのリリースを発表します。 Stable Code 3B です。 この新しいLLMは、先にリリースされた Stable Code Alpha 3B に続くもので、Stable Codeの最初の大規模リリースとなります。 CodeLLaMA 7bと比較すると、Stable Code 3Bは60%小型化されている一方で、プログラミング言語全体において同様

                                    Stable Code 3B - エッジでのコーディング — Stability AI Japan
                                  • 「Azure AI」のエッジデバイス向けプラットフォームを発表

                                    マイクロソフト(Microsoft)は2021年3月2日(現地時間)、エッジデバイスでの「Azure AI」の利用を容易にする、ハードウェアおよびサービスプラットフォーム「Azure Percept」のパブリックプレビューを発表した。 Azure Perceptには、インテリジェントカメラ「Azure Percept Vision」や開発キットが含まれる。また、開発や訓練、概念実証の展開など、AIモデル開発で必要となるワークフローをガイドする「Azure Percept Studio」も提供。これによりエンジニアは、組み込みシステムやデータサイエンスに関する高度なスキルがなくても開発を進められる。 開発キットのハードウェアは80/20 T-スロットフレームに対応しており、小売店舗や工場などの既存施設でも、認証済みデバイスによる概念実証を容易に実施できる。さらに、Azure Percept

                                      「Azure AI」のエッジデバイス向けプラットフォームを発表
                                    • AIを数ミリ四方のチップに搭載できるようになった | Techable(テッカブル)

                                      AIといえばクラウド上の大型コンピューターで動くもの、と思ってはいないだろうか。これまでの常識はそうかもしれない。しかし、来年からは違う。 エッジAIを開発するスタートアップ「エイシング」が、数ミリ四方の極小チップに搭載できるAIアルゴリズムを開発、2021年1月から提供を開始する。 ネット接続不要の「エッジAI」AIには計算処理パワーやメモリ容量が必要なため、クラウド上のコンピューターに搭載されるのが今は主流だ。この場合、ネット接続を通してAIを利用するわけだが、そうなると通信速度による反応の遅れや、通信障害のリスク、通信費の増加といったデメリットが生まれてしまう。 これを回避するために、最近注目されているのが「エッジAI」だ。エッジ(edge)とは「端、縁(ふち)」の意で、私たちが使うデバイスや機械そのものに搭載されるスタンドアローン型AIを指す。 今回開発されたAI(正確にはAIアル

                                        AIを数ミリ四方のチップに搭載できるようになった | Techable(テッカブル)
                                      • How TinyML Makes Artificial Intelligence Ubiquitous

                                        Microcontrollers are the brain for many devices that we use almost every day. From a TV remote controller to the elevator to the smart speaker, they are everywhere. Multiple sensors that can emit telemetry data are connected to a microcontroller. Actuators, such as switches and motors, are also connected to the same microcontroller. It carries embedded code that can acquire the data from sensors a

                                          How TinyML Makes Artificial Intelligence Ubiquitous
                                        • 最小限の処理能力で機械学習を行うエッジAIソリューションに向けて協業

                                          伊藤忠テクノソリューションズ(CTC)は、マサチューセッツ工科大学発のスタートアップ企業Liquid AIとエッジAIソリューションの開発を目的とした協業を開始した。 伊藤忠テクノソリューションズ(CTC)は2024年2月21日、マサチューセッツ工科大学発のスタートアップ企業Liquid AIとエッジAI(人工知能)ソリューションの開発を目的とした協業を開始したと発表した。 この取り組みでは、「Liquid Neural Network(LNN)」技術に基づいてLiquid AIが開発したAIを活用する。LNNは、少ない処理能力でも順応性の高いML(機械学習)を可能にする技術で、これによりエッジデバイスでの処理性能の向上を目指す。 従来のMLモデルでは約10万個のニューロンを必要とする計算を、LNNでは19個のニューロン数で算出し、同等の結果が得られる。エッジデバイスや小型コンピュータでの

                                            最小限の処理能力で機械学習を行うエッジAIソリューションに向けて協業
                                          • 1,000fps撮影も可能なUSBハイスピードカメラ「INFINICAM UC-1」がPythonに対応

                                              1,000fps撮影も可能なUSBハイスピードカメラ「INFINICAM UC-1」がPythonに対応
                                            • TensorFlow Liteについて語る会に参加しました - Pay money To my Life

                                              はじめに TensorFlow Liteについて語る会・発表 スマホでDeepLearning実践入門(@cocodrips) TFLiteのグラフ構造について(@natsutan) 終わりに はじめに TensorFlow Liteは、デバイス上での推論を可能にする、オープンソースのディープラーニングフレームワークである。 思いっきり学習させると、モデルは当然大きくなる。そう言った学習させたモデルをエンドデバイス(スマホやIoTデバイス)に実装するとなると、そのままではきついことがあり、その問題を解決するためのフレームワーク。 www.tensorflow.org そんなTFLiteについて、気楽に語り合おうという会が企画されたため、参加してみた。そんな備忘録。clusterを初めて使用したので、そこもまた新鮮でした。 tfug-kansai.connpass.com TensorFlo

                                              新着記事