並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 57件

新着順 人気順

tpuの検索結果1 - 40 件 / 57件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

tpuに関するエントリは57件あります。 機械学習AI人工知能 などが関連タグです。 人気エントリには 『「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる』などがあります。
  • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

    AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

      「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
    • くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ

      くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 大阪を起点に日本全国 47 都道府県すべてに店舗を展開する大規模回転寿司チェーンくら寿司株式会社(以下、くら寿司)。浅草や道頓堀、原宿、押上に「食」と「エンターテイメント」の融合を掲げ、「ジャパンカルチャー」の発信拠点とするグローバル旗艦店をオープンするなど、とりわけ “体験” にこだわる同社が、最新のクラウド テクノロジーをどのように活用しているのか。その取り組みと成果を、テクノロジー開発部の皆さんに伺いました。 利用しているサービス: Google Kubernetes Engine、Compute Engine、App Engine、Edge TPU 利用しているソリューション: アプリケーションのモダナイゼーション コンテナや AI など Google Clo

        くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ
      • Cloud TPUを用いたBERT推論処理基盤の開発

        ML事業部の近江崇宏です。 Stockmarkでは日々、膨大な数のニュース記事に対してBERTの推論処理を行なっています。このような重いタスクを効率的に処理するために、最近、TPUを用いたBERTの推論処理基盤をGoogle Cloud Platform上に構築し、運用を開始しました。その結果として、これまで1週間程度かかっていた、数千万件のデータの処理を1日以内で完了できるようになるなどの大きな効果を得られました。今回はこの取り組みについて紹介します。 はじめに近年のニューラルネットワークの研究の発展により、画像認識や自然言語処理の様々なタスクを人間と同等もしくはそれ以上のレベルで処理できるようになりました。その結果として、ビジネスでのニューラルネットワークの利用が進んでいます。その一方で、ニューラルネットワークには、モデルの巨大さに起因して処理時間が長いという大きな問題があります。その

          Cloud TPUを用いたBERT推論処理基盤の開発
        • [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021

          Googleは、5月19日未明に開催したオンラインイベント「Google I/O 2021」で、同社が開発した新たなAI専用のシステム「TPU v4」を発表しました。 参考:Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 「Pod」と呼ばれる1つのシステム単位あたり4096個のチップが搭載され、チップは超高速なネットワークで接続されています。 これによりPodは1エクサフロップを超える高い演算性能を実現。Google CEOのサンダー・ピチャイ氏は「私たちにとって歴史的マイルストーンだ」と次のように基調講演で話しました。 「This is the fastest system, we ever deployed at Google. Historic milestone for us.」(これまでGo

            [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021
          • TPU VS GPU(日本語版)

            はじめに(この記事の英語版はTPU VS GPU(English Edition)にあります。) Machine Learning部門の江間見です。ストックマークでは、自然言語処理技術の研究開発を行っています。 昨今、大規模データでニューラルネットワークを訓練し良い結果を得ようとするならば、深層学習モデルの訓練にかかる時間の膨大さに誰もが悩まされたことがあるかと思います。さらに、深層学習モデルはハードウェアのリソースを多く必要とします。 深層学習モデルの学習では、計算の特性上、CPU(Central Processing Unit)より GPU(Graphics Processing Unit)が高速であるため、GPUが推奨されます。しかし、GPU以外の選択肢として、TPU(Tensor Processing Unit)があります。 そこで、本記事では、自然言語処理のタスクで深層学習モデル

              TPU VS GPU(日本語版)
            • ASUS、Google製TPU搭載SBC「Tinker Edge T」などを予告

                ASUS、Google製TPU搭載SBC「Tinker Edge T」などを予告
              • Pytorchで始めるはじめてのTPU

                社内の輪講での発表資料です。 TPUについての簡単な説明とPytorchでTPUを用いてImageNetを学習させたときの肌感をまとめました。 TPUについて初心者なので、間違ったことがあればご指摘いただきたいですm(_ _)m

                  Pytorchで始めるはじめてのTPU
                • CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック

                  半導体企業のTachyumが、CPU・GPU・TPUの機能を単一のアーキテクチャに統合したチップ「Prodigy」を発表しました。ProdigyのCPUスペックは最大128コア、動作周波数は5.7GHz、16チャネルDDR5メモリ、TDPは950Wとなっており、テクノロジーメディアのWccftechは「非常識なスペック」と評しています。 Tachyum's Prodigy CPU Specs Unveiled: 5nm Universal Processors With Up To 128 Cores, 5.7 GHz Clocks, 16-Channel DDR5-7200 Memory Support & 950W TDP https://wccftech.com/tachyums-prodigy-cpu-specs-unveiled-5nm-universal-processors-

                    CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック
                  • Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界

                    dummy GA 新しいURLに転送しています… https://stockmark-tech.hatenablog.com/entry/2021/05/10/000000...

                      Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界
                    • Stable Diffusion TPU版の使い方 - 電通総研 テックブログ

                      電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusion(というよりdiffusers)でTPU(JAX / Flax)を使った並列実行バージョンがリリースされたので、早速試してみました。 オリジナルのNotebookはこちら。 僕が作ったNotebookはこちら。 今回は、TPUを使うので、Google Colabに特化しています。自分で1から試す方は、メニューのEdit -> Notebook settingsでTPUを使うように設定してください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す

                        Stable Diffusion TPU版の使い方 - 電通総研 テックブログ
                      • Cloud TPUを用いたBERT推論処理基盤の開発

                        ML事業部の近江崇宏です。 Stockmarkでは日々、膨大な数のニュース記事に対してBERTの推論処理を行なっています。このような重いタスクを効率的に処理するために、最近、TPUを用いたBERTの推論処理基盤をGoogle Cloud Platform上に構築し、運用を開始しました。その結果として、これまで1週間程度かかっていた、数千万件のデータの処理を1日以内で完了できるようになるなどの大きな効果を得られました。今回はこの取り組みについて紹介します。 はじめに近年のニューラルネットワークの研究の発展により、画像認識や自然言語処理の様々なタスクを人間と同等もしくはそれ以上のレベルで処理できるようになりました。その結果として、ビジネスでのニューラルネットワークの利用が進んでいます。その一方で、ニューラルネットワークには、モデルの巨大さに起因して処理時間が長いという大きな問題があります。その

                          Cloud TPUを用いたBERT推論処理基盤の開発
                        • DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita

                          ケース制作は3Dソフト(Fusion360)にて3Dモデル作成後、自宅の3Dプリンタにて制作。(フタも有り) クラス図 プログラム自体のコード量は少なくクラス数も少ないため、アーキテクチャー的な設計はしませんでした。 コアであるObject Detection機能とサムネイルや動画の送信は、将来手段が変わる可能性を考慮し、デザインパターンのStrategyにて設計しています。 またサムネイル、動画送信は、マルチプロセスで処理しています。 主なクラスの役割 Detector: Object Detectionによる画像判定 RaspPiCamera: カメラから画像をひたすら取得 FlameImage: カメラ画像等のデータクラス(DTO) FlameImageProcessor: 画像処理関係(録画したり、メール、サムネイル送信の指示したり) MonitorController: 上記クラ

                            DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita
                          • くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想(準備期間)

                            @Vengineerの戯言 : Twitter SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった このツイートで知りました。 くら寿司のCoral Edge TPU事例が出ました!!全国数百店舗で大規模に運用、お皿の画像認識部分でEdge TPUを使っています。僕も微力ながら記事化に協力させていただきました〜https://t.co/BITHt8tYkc pic.twitter.com/dlY94tpOx6 — Hayato Y (@hayatoy82) 2020年10月29日 こちらのツイート 5月23日)では、既に店舗での導入されていたっぽい。 くら寿司の席の注文用端末、いつの間にかiPadからラズパイ4(Raspberry Pi 4)になってるみたい。(USB3.0の色的に)#くら寿司 pic.twitter.com/2eDjCPP7YN

                              くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想(準備期間)
                            • An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog

                              There’s a common thread that connects Google services such as Google Search, Street View, Google Photos and Google Translate: they all use Google’s Tensor Processing Unit, or TPU, to accelerate their neural network computations behind the scenes. We announced the TPU last year and recently followed up with a detailed study of its performance and architecture. In short, we found that the TPU delive

                                An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog
                              • GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に

                                機械学習モデルの配布やデモの実行が可能なAI開発プラットフォーム「Hugging Face」がGoogle Cloudと戦略的パートナーシップを提携しました。この提携により、Hugging FaceのユーザーはGoogle Cloudの強力な計算資源を手軽に利用可能となります。 Hugging Face and Google partner for open AI collaboration https://huggingface.co/blog/gcp-partnership Google Cloud and Hugging Face Announce Strategic Partnership to Accelerate Generative AI and ML Development - Jan 25, 2024 https://www.googlecloudpresscorner.

                                  GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に
                                • Google、「Edge TPU」搭載のコインサイズの「Coral Accelerator Module」や「Dev Board Mini」をCESで公開

                                  Google、「Edge TPU」搭載のコインサイズの「Coral Accelerator Module」や「Dev Board Mini」をCESで公開:CES 2020 米Googleは1月2日(現地時間)、ローカルAIプラットフォーム「Coral」ブランドの「Accelerator Module」などの新製品を発表した。7日からラスベガスで開催の「CES 2020」で展示する。 Coralは、Googleが昨年3月に発表した、ローカルAIを使うエッジコンピューティングデバイスを構築するためのハードウェアコンポーネント、ソフトウェアツール、プリコンパイルモデルのプラットフォーム。エッジで同社の「TensorFlow」モデルを効率的に実行するためのツールを提供している。 「Coral Accelerator Module」は、1セント硬貨より小さい10×15×1.5ミリのボードに「Edg

                                    Google、「Edge TPU」搭載のコインサイズの「Coral Accelerator Module」や「Dev Board Mini」をCESで公開
                                  • グーグル、「Cloud TPU VM」を一般提供

                                    今回のリリースには、新しい「TPU Embedding」APIが含まれている。Google Cloudは、これを利用することで機械学習ベースの大規模なランキングやレコメンデーションのワークロードを高速化することができると述べている。 Google Cloudによれば、Cloud TPUによるアクセラレーションの埋め込みは、一般に実行コストが高くなりがちな深層ニューラルネットワークベースのアルゴリズムに依存するランキングやレコメンデーションに関連するコストを下げることができるという。 Google Cloudはブログ記事の中で、「これらは大量のデータを使用する傾向が強く、従来の機械学習インフラでは、トレーニングやデプロイメントが困難かつ高価になる場合がある」と述べている。 「Cloud TPUによるアクセラレーションの埋め込みは、この問題を低いコストで解決することができる。Embedding

                                      グーグル、「Cloud TPU VM」を一般提供
                                    • 性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)

                                      CNN(畳み込みニューラルネットワーク)が実用になる、という話で2013年あたりから活発に業界がそちらに向けて動き始めたという話は過去3回でしてきたが、これに向けた専用プロセッサーの先鞭をつけたのはGoogleだった。 性能/消費電力比が競合と比べて10倍優秀 GoogleのAI向けプロセッサー「Google TPU」 2016年5月に開催されたGoogle I/Oの基調講演で、GoogleはGoogle TPUを発表。絶対性能はともかくとして、性能/消費電力比が競合と比べて10倍優れていると説明した。 AI向けプロセッサーのGoogle TPU。サーバーのSATAディスクエリアに収まる程度の小ささである。下のコネクターはPCIe Gen3 x16だが、独自のものとなっている 競合はおそらくNVIDIAのGPUだが、2016年5月はまだPascalが前月にリリースされたばかりなので、世代的

                                        性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)
                                      • Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索

                                        この記事は  GMOアドマーケティングAdvent Calendar 2020   23日目の記事です。 みなさんこんにちは、GMOアドマーケティングのM.H.と申します。 突然ですがみなさんは機械学習する時にどのような環境で実行していますか?Google Colaboratoryでは、制限はありますが無料でTPUを使用し、高いパフォーマンスで学習を進めることができます。 今回はこのTPUを使って、モデル内のハイパーパラメータを自動で探索してくれるKeras Tunerを使っていく方法と注意点についてお話しします。 そもそも、TPUとは TPU(Tensor Processing Unit)とは、Googleが開発した機械学習特化型のプロセッサのことで、基本的にGPUよりも高速で学習を進めることができます。計算量が多く、バッチサイズが大きい場合に特にその効果を発揮します。 私たちがこのパワ

                                          Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索
                                        • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

                                          Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

                                            コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
                                          • TensorFlow2.0 + 無料のColab TPUでDCGANを実装した - Qiita

                                            TensorFlow2.0とGoogle Colaboratoryの無料TPUを使って、DCGANを実装しました。 訓練経過の様子 pic.twitter.com/2qXowYMk6t — しこあん@『モザイク除去本』好評通販中 (@koshian2) October 21, 2019 何をやったか Google ColabのTPU+TF2.0でCelebA(約20万枚)をDCGANで生成 TF1.X系のTPUでは、同時に実行可能なグラフは1個の制約があったため、GANの訓練が容易ではなかった(こちらの記事にある通り、不可能であったわけではない。しかし、低レベルAPIが必須で決して容易ではなかった)。TF2.X系のTPUでは、もっと容易にGANを実装できた。 DCGANの論文通りのモデル(パラメーター数:G=12.7M, D=11.0M)で。64x64の画像20万枚を、1エポックを40秒程

                                              TensorFlow2.0 + 無料のColab TPUでDCGANを実装した - Qiita
                                            • GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍

                                              2023年8月30日、Googleが独自に開発する機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルとなる「TPU v5e」を発表しました。Googleは大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)といった人気のAIを構築するための「コスト効率とパフォーマンスに優れたプロセッサ」としてTPU v5eをアピールしています。 Announcing Cloud TPU v5e and A3 GPUs in GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-and-a3-gpus-in-ga/ Inside a Google Cloud TPU Data Center - YouTube Goog

                                                GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍
                                              • GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張

                                                Googleは2021年、機械学習に特化したプロセッサ「Tensor Processing Unit(TPU)」の第4世代モデルである「TPU v4」を発表しました。新たにGoogleが、2023年4月に公開した公式ブログとプレプリントサーバーのArXivに投稿した論文で、「GoogleのTPU v4を組み合わせたシステムは同サイズのNVIDA『A100』を用いたシステムより高速かつ効率的」と主張しています。 [2304.01433] TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings https://arxiv.org/abs/2304.01433 TPU v4 enables performance, energy and

                                                  GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
                                                • Dockerコンテナ上でEdge TPUコンパイラを使う - OPTiM TECH BLOG

                                                  2020年1月に Edge TPU が macOS/Windows でも動作するようになりましたが、Edge TPU コンパイラはまだなので、macOS/Windows から手軽に利用できるように Docker でコンテナ化してみました。R&D チームの奥村(@izariuo440)がお送りします。 ベースイメージ選定 Dockerfile を書く Docker イメージのビルド EfficientNet-lite のモデルの準備 Docker でコンパイル おわりに おまけ Edge TPU に関しては、過去記事も参考になるかもしれません。 Edge TPU の July 2019 Updates を追う - OPTiM TECH BLOG 2019インターン紹介: Edge TPU向けPoseNetのリアルタイム姿勢推定 - OPTiM TECH BLOG Edge TPU の性能を引

                                                    Dockerコンテナ上でEdge TPUコンパイラを使う - OPTiM TECH BLOG
                                                  • “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か

                                                    4月は秋の新製品のうわさが増える月。今日も9TO5Googleが「Pixel 6(仮)はオリジナルSoC搭載」という記事を。今回の連載「Googleさん」はこのSoCのお話です。 AppleのiPhoneは4代目の「iPhone 4」の「A4」から“アップルシリコン”と呼ばれるオリジナルSoCを搭載してますが、Googleのオリジナルスマートフォン「Pixel」シリーズのSoCはずっとQualcommのSnapdragonシリーズでした。今秋登場予定のPixel 6(仮)も、てっきりQualcommが昨年12月に発表したハイエンドの「Snapdragon 888」を使うとばかり思っていたのですが。 GoogleがオリジナルSoCを開発しているといううわさは昨年4月ごろからありました。コードネーム「Whitechapel」の下、Samsungと共同で設計しているという話です。 余談ですが、W

                                                      “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か
                                                    • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                                      [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                                        [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                                      • TPUとKaggle

                                                        はじめに この記事は、Kaggle Advent Calendar 2021の13日目の記事です。 昨日はtattakaさんによる鳥コンペ三部作を振り返る、でした。明日はymd_さんによる時系列のCross Validationについて、です。 この記事では、最近Kaggleでもよく用いられるようになってきたTPUについてまとめていこうと思います。 想定読者は TPUをまだ使ったことがない人 Kaggleをやってみたいが、安く使える計算リソースがなく困っている人 です。 TPUとは TPUに関する一般的な話はGoogleのTPU紹介を視聴した方が良いので、少し触れるのみにします。 TPUはGoogleが開発した、行列計算に特化した計算デバイスです。機械学習、その中でも特にDeep Learningは行列計算が数多く登場しますが、従来はこれをCPUやGPUなどの汎用性の高い計算デバイスで行っ

                                                          TPUとKaggle
                                                        • TensorFlow 2.0でTPUを利用する

                                                          こんにちは、GMOアドマーケティングのS.Rです。 TPUとはディープラーニングを高速化するために、Googleが開発したプロセッサーです。TPUの利用により、ディープラーニングのモデルのトレーニング時間を20倍以上改良する事が可能です。 TensorFlow 1.xでTPUを利用するAPIを提供していますが、TensorFlow 2.0ではこのAPIの利用方法が変更されました。 今回はTensorFlow 2.0でTPUを利用する方法を皆さんへご紹介します。 利用する環境 Googleが無料で提供している機械学習目的の研究用ツール【Colab】を利用します。 1 Colabのインスタンスを作る Colabを利用するために必要な最初のStepは、Colabのファイルを作る事です。 Google Driveの管理画面へ遷移し、新しいColabのファイルを作ります。 2 TPUを設定する 作成

                                                            TensorFlow 2.0でTPUを利用する
                                                          • Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など

                                                            Googleは、日本時間5月15日から開催中のイベント「Google I/O 2024」で、TPU v5eに続く第6世代のAI専用TPU(Tensor Processing Unit)である「Trillium」を発表しました。 Trilliumは前世代のTPUとなるTPU v5eと比較して、チップあたりのピーク演算性能が4.7倍。高帯域幅メモリー(HBM:High Bandwidth Memory)の容量と帯域幅が2倍になり、チップ間相互接続(ICI: Interchip Interconnect)の帯域幅もTPU v5eに比べて2倍になりました。 さらに、Trillium TPUは、TPU v5eよりも67%以上エネルギー効率が向上しているとのこと。 Trilliumは、単一の高帯域幅、低レイテンシを備えたポッドで最大256 TPUまで拡張でき、さらに並列処理などを実現するマルチスライス

                                                              Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など
                                                            • 【AIメモ】GoogleのTPUがすごい

                                                              Google TPU がすごい。 TPU ってなに? TPU は、Google が開発した機械学習のプロセッサです。 【補足】TPU は Tensor Processing Unit の略です CPU や GPU と同じ流れです。 CPU:Central Processing Unit GPU:Graphics Processing Unit TPU:Tensor Processing Unit TPU を使うと、ディープラーニングを高速化できます。Google 自身も Google Photos などで TPU を使っています。私たちも GCP(Google Cloud Platform)から、TPU を使った機械学習をすることができます。 今回は、機械学習ユーザー必見の TPU について簡単に紹介します。イメージをざっくり紹介するので、実際の動きとは多少異なる点があります。ご了承くださ

                                                                【AIメモ】GoogleのTPUがすごい
                                                              • GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される

                                                                現地時間2023年12月6日に、Googleが独自開発を進める機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の新モデル「TPU v5p」が発表されました。。GoogleはこのTPU v5pについて「TPU v5pと同時に発表されたマルチモーダルAIのGeminiのトレーニングにも使用されています」と述べています。 Introducing Cloud TPU v5p and AI Hypercomputer | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/introducing-cloud-tpu-v5p-and-ai-hypercomputer Introducing AI Hypercomputer with Cloud TPU v5p - Y

                                                                  GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される
                                                                • Raspberrypi zero WとEdge TPUを活用した侵入者通知アプリを作る - Y's note

                                                                  やること yut.hatenablog.com @yutakikuchi_です。 以前のBlog PostでRaspberrypi zeroとABEJA Platform(Cloud環境)を活用した侵入者通知アプリを作りました。解決したい課題としては、1階のマンションに住んでいる場合、庭・バルコニーへの不審者の立ち入りが気になります。そこで簡易的なRaspberrypiとLINE Botを利用し、簡易的な写真付きの侵入者通知アプリを作りたいと思いました。 前回はRaspberrypi側にcronで5秒間隔にて画像を撮影し、撮影された画像ををそのままABEJA PlatformのAPIへpostし、SSDにて人物検出を行いました。ただし、これには5秒以内に人がカメラの中に収まることを前提にしたものだったので、侵入者を見落とす可能性がありました。今回は人物検出をEdge側にてSSDで行い、リア

                                                                    Raspberrypi zero WとEdge TPUを活用した侵入者通知アプリを作る - Y's note
                                                                  • ASUSのAI処理向け小型ボード「Tinker Edge T」が店頭入荷、Google Edge TPU搭載

                                                                      ASUSのAI処理向け小型ボード「Tinker Edge T」が店頭入荷、Google Edge TPU搭載
                                                                    • TensorFlow2.0 with KerasでいろいろなMNIST(TPU対応) - Qiita

                                                                      TensorFlowのいろいろな書き方「Keras API」「Custom train loop」「Custom layer」についてMNISTの例を解説します。また、TF2.0+KerasでColab TPUを使った訓練方法も解説していきます1。 TensorFlow2.0での書き方 TensorFlow2.0の書き方は何種類かあります。Kerasの作者によるColab Notebookによると、 縦軸に注目してください。上に行くほど高レベルAPI、下に行くほど低レベルAPIとなります。各項目が何を表すかと言うと、 Built in training/eval loops : Kerasのfit()やevaluate()といった関数を使うものです。TF1.X時代のKerasとほぼ同じです。 Customized step-by-step loops : Kerasのfit()などを使わず

                                                                        TensorFlow2.0 with KerasでいろいろなMNIST(TPU対応) - Qiita
                                                                      • 機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに

                                                                        Googleが開発する機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第4世代モデル「TPU v4」が、2021年5月18日の開発者カンファレンス「Google I/O 2021」で発表されました。新たなプロセッサはすでにGoogleのデータセンターに導入されており、2021年後半にはGoogleクラウドのユーザーが利用可能になるとのことです。 Google unveils 4th generation Tensor Processing Unit - 9to5Google https://9to5google.com/2021/05/18/google-unveils-4th-generation-tensor-processing-unit/ Google details new AI accelerator chips | VentureB

                                                                          機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに
                                                                        • Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24

                                                                          Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24 Google Cloudは、日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、同社が独自に開発しているAI処理に特化したプロセッサ「Cloud TPU」の最新版となる「Cloud TPU v5p」を発表しました。

                                                                            Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
                                                                          • GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.

                                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                              GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.
                                                                            • OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も

                                                                              by Focal Foto OpenAIが半導体設計会社、特にBroadcomとの間で新しいチップ開発に関する協議を進めていることが報じられています。この動きはOpenAIがNVIDIAへの依存度を下げ、サプライチェーンを強化する取り組みの一環であり、AIモデルの運用に必要な部品やインフラの供給を増強することを目的としているとのことです。 OpenAI Has Talked to Broadcom About Developing New AI Chip — The Information https://www.theinformation.com/articles/openai-has-talked-to-broadcom-about-developing-new-ai-chip OpenAI and Broadcom in talks about developing new AI

                                                                                OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も
                                                                              • Edge TPU の September 2019 Updates を追う - OPTiM TECH BLOG

                                                                                こんにちは。6年間使い続けた iPhone 5s に別れを告げ、iPhone 11 Pro に移行した R&D チームの奥村(@izariuo440)です。前回の Edge TPU 更新からはや2ヶ月。今回の更新では、apt-get 対応強化、コンパイラ更新、Python ライブラリ更新、GitHub への移行、などが行われました。この記事では Edge TPU September 2019 Updates をベースに、意訳・追記をしています。いくつかは実際に試してみましたが、すべてを試したわけではありませんのであしからず。 Edge TPU に関しては、過去記事も参考になるかもしれません。 Edge TPU の July 2019 Updates を追う - OPTiM TECH BLOG 2019インターン紹介: Edge TPU向けPoseNetのリアルタイム姿勢推定 - OPTiM

                                                                                  Edge TPU の September 2019 Updates を追う - OPTiM TECH BLOG
                                                                                • ASUS、Google製TPUを搭載したAI推論を高速処理できるシングルボードコンピュータを発表 | IoT NEWS

                                                                                  2021-08-262019-11-20 ASUS、Google製TPUを搭載したAI推論を高速処理できるシングルボードコンピュータを発表 ASUS JAPAN株式会社は、AI処理用にGoogle製TPUを搭載して、AI推論を高速処理できる名刺サイズのシングルボードコンピュータ「Tinker Edge T」を発表した。2019年12月に発売予定だ。 同製品は、AIアプリケーション用に特別に設計されたシングルボードコンピュータ(以下、SBC)だ。搭載されているGoogle Edge TPUは、処理効率を高速化して、電力需要を減らし、接続されたデバイスとインテリジェントなアプリケーションを簡単に構築できる機械学習(以下、ML)アクセラレータである。 このオンボードMLアクセラレータにより、Tinker Edge Tは、計算単位あたりわずか0.5ワットを使用して、1秒あたり4テラ操作を実行可能だ

                                                                                    ASUS、Google製TPUを搭載したAI推論を高速処理できるシングルボードコンピュータを発表 | IoT NEWS

                                                                                  新着記事