並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 52件

新着順 人気順

tpuの検索結果1 - 40 件 / 52件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

tpuに関するエントリは52件あります。 人工知能機械学習Google などが関連タグです。 人気エントリには 『「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる』などがあります。
  • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

    AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

      「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
    • くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ

      くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 大阪を起点に日本全国 47 都道府県すべてに店舗を展開する大規模回転寿司チェーンくら寿司株式会社(以下、くら寿司)。浅草や道頓堀、原宿、押上に「食」と「エンターテイメント」の融合を掲げ、「ジャパンカルチャー」の発信拠点とするグローバル旗艦店をオープンするなど、とりわけ “体験” にこだわる同社が、最新のクラウド テクノロジーをどのように活用しているのか。その取り組みと成果を、テクノロジー開発部の皆さんに伺いました。 利用しているサービス: Google Kubernetes Engine、Compute Engine、App Engine、Edge TPU 利用しているソリューション: アプリケーションのモダナイゼーション コンテナや AI など Google Clo

        くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ
      • Cloud TPUを用いたBERT推論処理基盤の開発

        Cloud TPUを用いたBERT推論処理基盤の開発

          Cloud TPUを用いたBERT推論処理基盤の開発
        • TPU VS GPU(日本語版)

          はじめに(この記事の英語版はTPU VS GPU(English Edition)にあります。) Machine Learning部門の江間見です。ストックマークでは、自然言語処理技術の研究開発を行っています。 昨今、大規模データでニューラルネットワークを訓練し良い結果を得ようとするならば、深層学習モデルの訓練にかかる時間の膨大さに誰もが悩まされたことがあるかと思います。さらに、深層学習モデルはハードウェアのリソースを多く必要とします。 深層学習モデルの学習では、計算の特性上、CPU(Central Processing Unit)より GPU(Graphics Processing Unit)が高速であるため、GPUが推奨されます。しかし、GPU以外の選択肢として、TPU(Tensor Processing Unit)があります。 そこで、本記事では、自然言語処理のタスクで深層学習モデル

            TPU VS GPU(日本語版)
          • [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021

            Googleは、5月19日未明に開催したオンラインイベント「Google I/O 2021」で、同社が開発した新たなAI専用のシステム「TPU v4」を発表しました。 参考:Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 「Pod」と呼ばれる1つのシステム単位あたり4096個のチップが搭載され、チップは超高速なネットワークで接続されています。 これによりPodは1エクサフロップを超える高い演算性能を実現。Google CEOのサンダー・ピチャイ氏は「私たちにとって歴史的マイルストーンだ」と次のように基調講演で話しました。 「This is the fastest system, we ever deployed at Google. Historic milestone for us.」(これまでGo

              [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021
            • CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック

              半導体企業のTachyumが、CPU・GPU・TPUの機能を単一のアーキテクチャに統合したチップ「Prodigy」を発表しました。ProdigyのCPUスペックは最大128コア、動作周波数は5.7GHz、16チャネルDDR5メモリ、TDPは950Wとなっており、テクノロジーメディアのWccftechは「非常識なスペック」と評しています。 Tachyum's Prodigy CPU Specs Unveiled: 5nm Universal Processors With Up To 128 Cores, 5.7 GHz Clocks, 16-Channel DDR5-7200 Memory Support & 950W TDP https://wccftech.com/tachyums-prodigy-cpu-specs-unveiled-5nm-universal-processors-

                CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック
              • Google、「Gemma 3」を発表 ~単一GPU/TPUにおさまるものとしてはもっとも高性能/「Gemini 2.0」の成果をベースに視覚対応、ロングコンテキスト、エージェント対応

                  Google、「Gemma 3」を発表 ~単一GPU/TPUにおさまるものとしてはもっとも高性能/「Gemini 2.0」の成果をベースに視覚対応、ロングコンテキスト、エージェント対応
                • Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界

                  dummy GA 新しいURLに転送しています… https://stockmark-tech.hatenablog.com/entry/2021/05/10/000000...

                    Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界
                  • Googleの新TPU「Ironwood」が登場。El Capitanを24倍上回る42.5EFLOPSを実現

                      Googleの新TPU「Ironwood」が登場。El Capitanを24倍上回る42.5EFLOPSを実現
                    • Stable Diffusion TPU版の使い方 - 電通総研 テックブログ

                      電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusion(というよりdiffusers)でTPU(JAX / Flax)を使った並列実行バージョンがリリースされたので、早速試してみました。 オリジナルのNotebookはこちら。 僕が作ったNotebookはこちら。 今回は、TPUを使うので、Google Colabに特化しています。自分で1から試す方は、メニューのEdit -> Notebook settingsでTPUを使うように設定してください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す

                        Stable Diffusion TPU版の使い方 - 電通総研 テックブログ
                      • Cloud TPUを用いたBERT推論処理基盤の開発

                        Cloud TPUを用いたBERT推論処理基盤の開発

                          Cloud TPUを用いたBERT推論処理基盤の開発
                        • Google、生成AIを支える新TPU「Trillium」の一般提供開始

                          米Googleは12月11日(現地時間)、同社の第6世代TPU(Tensor Processing Unit)、「Trillium」のGoogle Cloudでの一般提供開始を発表した。Trilliumは今年のGoogle I/Oで予告していたTPUだ。 TPUは、Googleが開発した特定用途向け集積回路(ASIC)で、AIモデルのトレーニングや推論に最適化されている。Trilliumは同日発表の「Gemini 2.0」のトレーニングにも使われた。 Trilliumは、先代と比較してトレーニング性能は4倍以上、推論スループットは最大3倍、エネルギー効率は67%、チップ当たりのピークコンピューティング性能は4.7倍、広帯域メモリ(HBM)容量は2倍、チップ間相互接続(ICI)帯域幅は2倍に向上したという。 Trilliumのスケーリング機能はほぼ線形なため、高速インターチップインターコネク

                            Google、生成AIを支える新TPU「Trillium」の一般提供開始
                          • くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想

                            @Vengineerの戯言 : Twitter SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった このツイートで知りました。 くら寿司のCoral Edge TPU事例が出ました!!全国数百店舗で大規模に運用、お皿の画像認識部分でEdge TPUを使っています。僕も微力ながら記事化に協力させていただきました〜https://t.co/BITHt8tYkc pic.twitter.com/dlY94tpOx6 — Hayato Y (@hayatoy82) 2020年10月29日 こちらのツイート 5月23日)では、既に店舗での導入されていたっぽい。 くら寿司の席の注文用端末、いつの間にかiPadからラズパイ4(Raspberry Pi 4)になってるみたい。(USB3.0の色的に)#くら寿司 pic.twitter.com/2eDjCPP7YN

                              くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想
                            • An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog

                              There’s a common thread that connects Google services such as Google Search, Street View, Google Photos and Google Translate: they all use Google’s Tensor Processing Unit, or TPU, to accelerate their neural network computations behind the scenes. We announced the TPU last year and recently followed up with a detailed study of its performance and architecture. In short, we found that the TPU delive

                                An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog
                              • GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に

                                機械学習モデルの配布やデモの実行が可能なAI開発プラットフォーム「Hugging Face」がGoogle Cloudと戦略的パートナーシップを提携しました。この提携により、Hugging FaceのユーザーはGoogle Cloudの強力な計算資源を手軽に利用可能となります。 Hugging Face and Google partner for open AI collaboration https://huggingface.co/blog/gcp-partnership Google Cloud and Hugging Face Announce Strategic Partnership to Accelerate Generative AI and ML Development - Jan 25, 2024 https://www.googlecloudpresscorner.

                                  GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に
                                • Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上

                                  GoogleはAI処理プロセッサ「TPU」を独自開発しています。新たに、第7世代TPU「Ironwood」が2025年4月9日に登場しました。 Ironwood: The first Google TPU for the age of inference https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/ Ironwoodの見た目はこんな感じ。IronwoodはMixture of Experts(MoE)を採用した大規模言語モデルや、高度な推論タスクを実行できる推論モデル向けに最適化されています。 MoEモデルや推論モデルを高速処理するには、大規模な並列処理と効率的なメモリアクセスが必要です。Ironwoodは帯域幅7.4TbpsのHBMを1チップ当たり192GB搭載しており、1チップ当たりの処

                                    Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上
                                  • グーグル、「Cloud TPU VM」を一般提供

                                    今回のリリースには、新しい「TPU Embedding」APIが含まれている。Google Cloudは、これを利用することで機械学習ベースの大規模なランキングやレコメンデーションのワークロードを高速化することができると述べている。 Google Cloudによれば、Cloud TPUによるアクセラレーションの埋め込みは、一般に実行コストが高くなりがちな深層ニューラルネットワークベースのアルゴリズムに依存するランキングやレコメンデーションに関連するコストを下げることができるという。 Google Cloudはブログ記事の中で、「これらは大量のデータを使用する傾向が強く、従来の機械学習インフラでは、トレーニングやデプロイメントが困難かつ高価になる場合がある」と述べている。 「Cloud TPUによるアクセラレーションの埋め込みは、この問題を低いコストで解決することができる。Embedding

                                      グーグル、「Cloud TPU VM」を一般提供
                                    • 性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)

                                      CNN(畳み込みニューラルネットワーク)が実用になる、という話で2013年あたりから活発に業界がそちらに向けて動き始めたという話は過去3回でしてきたが、これに向けた専用プロセッサーの先鞭をつけたのはGoogleだった。 性能/消費電力比が競合と比べて10倍優秀 GoogleのAI向けプロセッサー「Google TPU」 2016年5月に開催されたGoogle I/Oの基調講演で、GoogleはGoogle TPUを発表。絶対性能はともかくとして、性能/消費電力比が競合と比べて10倍優れていると説明した。 AI向けプロセッサーのGoogle TPU。サーバーのSATAディスクエリアに収まる程度の小ささである。下のコネクターはPCIe Gen3 x16だが、独自のものとなっている 競合はおそらくNVIDIAのGPUだが、2016年5月はまだPascalが前月にリリースされたばかりなので、世代的

                                        性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)
                                      • Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索

                                        この記事は  GMOアドマーケティングAdvent Calendar 2020   23日目の記事です。 みなさんこんにちは、GMOアドマーケティングのM.H.と申します。 突然ですがみなさんは機械学習する時にどのような環境で実行していますか?Google Colaboratoryでは、制限はありますが無料でTPUを使用し、高いパフォーマンスで学習を進めることができます。 今回はこのTPUを使って、モデル内のハイパーパラメータを自動で探索してくれるKeras Tunerを使っていく方法と注意点についてお話しします。 そもそも、TPUとは TPU(Tensor Processing Unit)とは、Googleが開発した機械学習特化型のプロセッサのことで、基本的にGPUよりも高速で学習を進めることができます。計算量が多く、バッチサイズが大きい場合に特にその効果を発揮します。 私たちがこのパワ

                                          Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索
                                        • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

                                          Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

                                            コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
                                          • GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍

                                            2023年8月30日、Googleが独自に開発する機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルとなる「TPU v5e」を発表しました。Googleは大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)といった人気のAIを構築するための「コスト効率とパフォーマンスに優れたプロセッサ」としてTPU v5eをアピールしています。 Announcing Cloud TPU v5e and A3 GPUs in GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-and-a3-gpus-in-ga/ Inside a Google Cloud TPU Data Center - YouTube Goog

                                              GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍
                                            • GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張

                                              Googleは2021年、機械学習に特化したプロセッサ「Tensor Processing Unit(TPU)」の第4世代モデルである「TPU v4」を発表しました。新たにGoogleが、2023年4月に公開した公式ブログとプレプリントサーバーのArXivに投稿した論文で、「GoogleのTPU v4を組み合わせたシステムは同サイズのNVIDA『A100』を用いたシステムより高速かつ効率的」と主張しています。 [2304.01433] TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings https://arxiv.org/abs/2304.01433 TPU v4 enables performance, energy and

                                                GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
                                              • Introducing Gemma 3: The most capable model you can run on a single GPU or TPU

                                                  Introducing Gemma 3: The most capable model you can run on a single GPU or TPU
                                                • “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か

                                                  4月は秋の新製品のうわさが増える月。今日も9TO5Googleが「Pixel 6(仮)はオリジナルSoC搭載」という記事を。今回の連載「Googleさん」はこのSoCのお話です。 AppleのiPhoneは4代目の「iPhone 4」の「A4」から“アップルシリコン”と呼ばれるオリジナルSoCを搭載してますが、Googleのオリジナルスマートフォン「Pixel」シリーズのSoCはずっとQualcommのSnapdragonシリーズでした。今秋登場予定のPixel 6(仮)も、てっきりQualcommが昨年12月に発表したハイエンドの「Snapdragon 888」を使うとばかり思っていたのですが。 GoogleがオリジナルSoCを開発しているといううわさは昨年4月ごろからありました。コードネーム「Whitechapel」の下、Samsungと共同で設計しているという話です。 余談ですが、W

                                                    “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か
                                                  • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                                    [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                                      [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                                    • TPUとKaggle

                                                      はじめに この記事は、Kaggle Advent Calendar 2021の13日目の記事です。 昨日はtattakaさんによる鳥コンペ三部作を振り返る、でした。明日はymd_さんによる時系列のCross Validationについて、です。 この記事では、最近Kaggleでもよく用いられるようになってきたTPUについてまとめていこうと思います。 想定読者は TPUをまだ使ったことがない人 Kaggleをやってみたいが、安く使える計算リソースがなく困っている人 です。 TPUとは TPUに関する一般的な話はGoogleのTPU紹介を視聴した方が良いので、少し触れるのみにします。 TPUはGoogleが開発した、行列計算に特化した計算デバイスです。機械学習、その中でも特にDeep Learningは行列計算が数多く登場しますが、従来はこれをCPUやGPUなどの汎用性の高い計算デバイスで行っ

                                                        TPUとKaggle
                                                      • TensorFlow 2.0でTPUを利用する

                                                        こんにちは、GMOアドマーケティングのS.Rです。 TPUとはディープラーニングを高速化するために、Googleが開発したプロセッサーです。TPUの利用により、ディープラーニングのモデルのトレーニング時間を20倍以上改良する事が可能です。 TensorFlow 1.xでTPUを利用するAPIを提供していますが、TensorFlow 2.0ではこのAPIの利用方法が変更されました。 今回はTensorFlow 2.0でTPUを利用する方法を皆さんへご紹介します。 利用する環境 Googleが無料で提供している機械学習目的の研究用ツール【Colab】を利用します。 1 Colabのインスタンスを作る Colabを利用するために必要な最初のStepは、Colabのファイルを作る事です。 Google Driveの管理画面へ遷移し、新しいColabのファイルを作ります。 2 TPUを設定する 作成

                                                          TensorFlow 2.0でTPUを利用する
                                                        • GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される

                                                          現地時間2023年12月6日に、Googleが独自開発を進める機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の新モデル「TPU v5p」が発表されました。GoogleはこのTPU v5pについて「TPU v5pと同時に発表されたマルチモーダルAIのGeminiのトレーニングにも使用されています」と述べています。 Introducing Cloud TPU v5p and AI Hypercomputer | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/introducing-cloud-tpu-v5p-and-ai-hypercomputer Introducing AI Hypercomputer with Cloud TPU v5p - Yo

                                                            GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される
                                                          • Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など

                                                            Googleは、日本時間5月15日から開催中のイベント「Google I/O 2024」で、TPU v5eに続く第6世代のAI専用TPU(Tensor Processing Unit)である「Trillium」を発表しました。 Trilliumは前世代のTPUとなるTPU v5eと比較して、チップあたりのピーク演算性能が4.7倍。高帯域幅メモリー(HBM:High Bandwidth Memory)の容量と帯域幅が2倍になり、チップ間相互接続(ICI: Interchip Interconnect)の帯域幅もTPU v5eに比べて2倍になりました。 さらに、Trillium TPUは、TPU v5eよりも67%以上エネルギー効率が向上しているとのこと。 Trilliumは、単一の高帯域幅、低レイテンシを備えたポッドで最大256 TPUまで拡張でき、さらに並列処理などを実現するマルチスライス

                                                              Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など
                                                            • 【AIメモ】GoogleのTPUがすごい

                                                              Google TPU がすごい。 TPU ってなに? TPU は、Google が開発した機械学習のプロセッサです。 【補足】TPU は Tensor Processing Unit の略です CPU や GPU と同じ流れです。 CPU:Central Processing Unit GPU:Graphics Processing Unit TPU:Tensor Processing Unit TPU を使うと、ディープラーニングを高速化できます。Google 自身も Google Photos などで TPU を使っています。私たちも GCP(Google Cloud Platform)から、TPU を使った機械学習をすることができます。 今回は、機械学習ユーザー必見の TPU について簡単に紹介します。イメージをざっくり紹介するので、実際の動きとは多少異なる点があります。ご了承くださ

                                                                【AIメモ】GoogleのTPUがすごい
                                                              • Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24

                                                                Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24 Google Cloudは、日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、同社が独自に開発しているAI処理に特化したプロセッサ「Cloud TPU」の最新版となる「Cloud TPU v5p」を発表しました。

                                                                  Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
                                                                • 機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに

                                                                  Googleが開発する機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第4世代モデル「TPU v4」が、2021年5月18日の開発者カンファレンス「Google I/O 2021」で発表されました。新たなプロセッサはすでにGoogleのデータセンターに導入されており、2021年後半にはGoogleクラウドのユーザーが利用可能になるとのことです。 Google unveils 4th generation Tensor Processing Unit - 9to5Google https://9to5google.com/2021/05/18/google-unveils-4th-generation-tensor-processing-unit/ Google details new AI accelerator chips | VentureB

                                                                    機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに
                                                                  • GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.

                                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                      GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.
                                                                    • OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も

                                                                      by Focal Foto OpenAIが半導体設計会社、特にBroadcomとの間で新しいチップ開発に関する協議を進めていることが報じられています。この動きはOpenAIがNVIDIAへの依存度を下げ、サプライチェーンを強化する取り組みの一環であり、AIモデルの運用に必要な部品やインフラの供給を増強することを目的としているとのことです。 OpenAI Has Talked to Broadcom About Developing New AI Chip — The Information https://www.theinformation.com/articles/openai-has-talked-to-broadcom-about-developing-new-ai-chip OpenAI and Broadcom in talks about developing new AI

                                                                        OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も
                                                                      • 電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)

                                                                        またしばらく間が空いてしまったがAIプロセッサーの話をしよう。今回はGoogle TPU v4である。Google TPUそのものはこのAIプロセッサシリーズの最初の回で説明した。この時にはGoogle TPU v1~v3までに触れたが、2021年のGoogle I/O 2021で後継となるGoogle TPU v4が発表された。この発表の概略は動画の2分11秒あたりから一瞬だけ紹介されている。 そのGoogle TPU v4は2021年後半から一般にも供用が開始されている。供用、というのはGoogle Cloud TPUサービスという形での提供と言う意味で、チップ自身の販売はなされていない。 そのGoogle TPU v4、発表時にも概略の説明はあったのだが、今年の4月にGoogle自身がそのGoogle TPU v4の詳細を公開した。こちらは論文も出ており、今年6月に開催されたISCA

                                                                          電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)
                                                                        • Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG

                                                                          こんにちは、R&D チームの奥村(@izariuo440)です。 前回の Edge TPU の記事から1年4ヶ月ほど空いてしまいました。その間、Windows 向けの PCIe ドライバのβ版が公開されたり Edge TPU ランタイムが OSS になったり、Python/C++ 向けの API が整理されたり MobileDet が利用可能になったりしました。今回の更新では、コンパイラや修正ツールの更新でより多くのモデルがコンパイルできるようになったり、物体検出の EfficientDet-Lite や単一人物姿勢推定の MoveNet などのモデルが追加されたりしています。この記事では July 2021 Updates | Coral をベースに、意訳・追記をしています。 Edge TPU に関しては、過去記事も参考になるかもしれません。 2019インターン紹介: Edge TPU向

                                                                            Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG
                                                                          • [速報]Google Cloud、第7世代となるAI処理向けTPU 「Ironwood」発表。推論に特化し、前世代から性能を最大10倍に

                                                                            Google Cloudは、日本時間で今日(2025年4月10日)未明に開幕した「Google Cloud Next 2025」において、AI処理向けのTPU(Tensor Processing Unit)として第7世代となる「Ironwood」を発表しました。 Ironwoodは同社初の推論に特化したTPUです。液冷システムにより1Pod当たり最大で9216個のチップが双方向1.2TBの高速なチップ間接続で接続され、1チップあたり192GBの高帯域幅メモリを搭載するなどのス……

                                                                              [速報]Google Cloud、第7世代となるAI処理向けTPU 「Ironwood」発表。推論に特化し、前世代から性能を最大10倍に
                                                                            • GoogleのAI処理チップ「Trillium」がGoogle Cloud経由で利用可能に、旧世代TPUと比べて4倍の学習性能を発揮

                                                                              2024年5月に発表されたGoogleの第6世代TPU「Trillium(v6e)」が、Google Cloudのユーザー向けに一般提供されたことがわかりました。Trilliumは以前のモデルと比べてパフォーマンスが4倍、エネルギー効率が67%向上しています。 Trillium TPU is GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga?hl=en TPU v6e  |  Google Cloud https://cloud.google.com/tpu/docs/v6e Trilliumは5月のGoogle I/O 2024で発表された第6世代TPUで、前世代のTPU v5eと比較してチップ当たりのピークパフォーマンスが4.7倍に、高帯域幅メモリ(HBM)の

                                                                                GoogleのAI処理チップ「Trillium」がGoogle Cloud経由で利用可能に、旧世代TPUと比べて4倍の学習性能を発揮
                                                                              • AI特化プロセッサ「NPU」「TPU」が“全く別物”である理由

                                                                                関連キーワード CPU | 人工知能 | GPU 機械学習などのAI(人工知能)技術の利用において使われるプロセッサは、CPU(中央処理装置)やGPU(グラフィックス処理装置)だけではない。NPU(ニューラル処理装置)と呼ばれるプロセッサも使われるようになっている。NPUは、AI技術の利用に特化しているという点ではTPU(テンソル処理装置)と共通する特徴があるが、両者は同じではない。NPUは、TPUとは何が違うのか。 TPU、NPUは何が違う? 鍵になる推論の仕組み 併せて読みたいお薦め記事 AI時代のプロセッサ再入門 第1回:GPUやNPUの時代にこそ「CPUの理解」が欠かせないのはなぜ? 第2回:「CPU」と「GPU」の仕事がこれほど違う“根本的な理由” 第3回:「TPU」とはどんなプロセッサなのか? AIインフラの基礎知識 プロセッサ関連のその他の動向 Intel、AMD、NVIDI

                                                                                  AI特化プロセッサ「NPU」「TPU」が“全く別物”である理由
                                                                                • 【PyTorch×TPU】Google ColabでPyTorchを使ってみた - ころがる狸

                                                                                  こんばんは、Dajiroです。今回はGoogle Colabratory(以下、Colab)におけるPyTorchの使い方についてご紹介します。ColabといえばGoogle社が無料で提供しているノートブック形式のPython計算環境です。通常のCPUに加え、GPUとTPUといった機械学習向けの計算環境も使えるため、手っ取り早く爆速で計算を回すのには最強の環境と言えると思います。使い方は簡単、以下のリンクに飛ぶだけです。恐ろしい・・・ colab.research.google.com さて、Colabの最大の特徴の1つはTPU (Tensor Processing Unit)が使えることです。TPUはGoogle社が開発した機械学習に特化したプロセッサです。機械学習では32, 64ビット等の計算精度が求められないため、TPUは8/16ビットの演算器から構成されています。このように使用用途

                                                                                    【PyTorch×TPU】Google ColabでPyTorchを使ってみた - ころがる狸

                                                                                  新着記事