並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 664件

新着順 人気順

NVIDIA'sの検索結果1 - 40 件 / 664件

  • Engadget 日本版 : 最新ガジェットと家電、テクノロジーのニュースとレビュー

    NVIDIA’s AI team reportedly scraped YouTube, Netflix videos without permission

      Engadget 日本版 : 最新ガジェットと家電、テクノロジーのニュースとレビュー
    • CPUの脆弱性 MeltdownとSpectreについてまとめてみた - piyolog

      2018年1月3日にCPUに関連する3つの脆弱性情報が公開されました。報告者によるとこれらの脆弱性はMeltdown、Spectreと呼称されています。ここでは関連情報をまとめます。 脆弱性の概要 報告者が脆弱性情報を次の専用サイトで公開した。 Meltdown and Spectre (またはこちら) 3つの脆弱性の概要をまとめると次の通り。 脆弱性の名称 Meltdown Spectre CVE CVE-2017-5754(Rogue data cache load) CVE-2017-5753(Bounds check bypass) CVE-2017-5715(Branch target injection) 影響を受けるCPU Intel Intel、AMD、ARM CVSSv3 基本値 4.7(JPCERT/CC) 5.6(NIST) ←に同じ PoC 報告者非公開 論文中にx

        CPUの脆弱性 MeltdownとSpectreについてまとめてみた - piyolog
      • NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能

        大手半導体メーカーでありAI研究にも力を入れているNVIDIAが、新たな画像生成AIである「eDiffi」を発表しました。NVIDIAはeDiffiについて、世界中で話題となっている「Stable Diffusion」やOpenAIの「DALL・E2」といった従来の画像生成AIより入力テキストに忠実な画像を生成できると主張しています。 [2211.01324] eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers https://arxiv.org/abs/2211.01324 eDiff-I: Text-to-Image Diffusion Models with Ensemble of Expert Denoisers https://deepimagination.cc/eDiffi/

          NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能
        • Linux開発者リーナス・トーバルズ氏がNVIDIAに対し中指を突き立てFワード発言

          Linuxカーネルの開発者として知られるリーナス・トーバルズ氏が、出身地であるフィンランドで大学生向けの講演に姿を見せ、質疑応答の中でNVIDIAに対する不満をぶちまけるという一幕がありました。 Aalto Talk with Linus Torvalds [Full-length] - YouTube Linus Torvalds on NVIDIA's non-Linux Optimus support: "F*** you" - Neowin これはフィンランドのアールト大学で行われた「Aalto Talk with Linus Torvalds」というイベントにリーナス・トーバルズ氏が参加した際の映像です。 ゲストとして登場したトーバルズ氏は、学生との話を楽しんでいる様子。 質疑応答の中で、女性から「NvidiaのOptimus技術搭載ノートPCでLinuxを動かそうとしても動かな

            Linux開発者リーナス・トーバルズ氏がNVIDIAに対し中指を突き立てFワード発言
          • DirectX ❤ Linux - DirectX Developer Blog

            DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

              DirectX ❤ Linux - DirectX Developer Blog
            • ZDNet News- Page One

              Apple's AI and Nvidia's training speed top the Innovation Index

                ZDNet News- Page One
              • The Aggregate Magic Algorithms

                There are lots of people and places that create and collect algorithms of all types (here are a few WWW sites). Unfortunately, in building systems hardware and software, we in The Aggregate often have found it necessary to do relatively obscure low-level things very efficiently. Many of the tricks we've devised or collected either require assembly language coding or are not entirely portable when

                • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

                  AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

                    Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
                  • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

                    NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                      AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
                    • NVIDIAがオープンモデル「Nemotron-4 340B」を発表、LLMトレーニング用合成データの生成に革命を起こすか

                      高度なAIのトレーニングには高品質な学習データが欠かせませんが、そのようなデータは急速に枯渇しつつあることが問題となっています。NVIDIA2024年6月14日に、大規模言語モデル(LLM)のトレーニングに使用する合成データの生成を念頭に開発され、商用アプリケーションにも使えるオープンソースのAIモデル「Nemotron-4 340B」を発表しました。 NVIDIA Releases Open Synthetic Data Generation Pipeline for Training Large Language Models | NVIDIA Blog https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/ Nvidia's 'Nemotron-4 340B' model red

                        NVIDIAがオープンモデル「Nemotron-4 340B」を発表、LLMトレーニング用合成データの生成に革命を起こすか
                      • 【レポート】CEDEC 2007 - リアルタイムの皮膚、顔面レンダリング技術をNVIDIAがリアルタイム実装 (1) 人間の皮膚の陰影処理モデルを考える | パソコン | マイコミジャーナル

                        顔の皮膚の陰影表現というのはリアルタイム3Dグラフィックス、とくにゲームグラフィックスでの実装はかなり難しいとされてきた。それは人間の皮膚が光を反射、吸収、拡散するだけでなく、透明度は低いものの、皮膚下に浸透して散乱し再び出てくるという複雑な反射モデルになっているからだ。 この難しい人間の皮膚の陰影処理も、PS3,Xbox360といった最新ゲーム機や、今世代のDirectX 10世代のGPUでは、リアルタイムでもかなりレベルの高い表現ができるようになっている。 NVIDIAは、この皮膚の陰影処理についての最新技術についての解説を行った。 NVIDIAの最新スキンシェーダの解説を行った「高度なスキンシェーディング」セッション 人間の皮膚の陰影処理モデルを考える 人間の肌の陰影処理はスキン・シェーディング(Skin Shading)と呼ばれ、これを行うために特化したシェーダーをスキン

                        • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                          NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                            NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                          • オープンソースのニューラルネットワーク向けプログラミング言語「Triton」をOpenAIが公開

                            NVIDIAが開発・提供するGPU向けの汎用並列コンピューティングプラットフォームである「CUDA」を超える生産性と高速コード記述が可能になるようなオープンソースのニューラルネットワーク向けプログラミング言語「Triton」が公開されました。非常に効率的なカスタムディープラーニングプリミティブを作成するための言語コンパイラとなっており、GitHub上で開発リポジトリが公開されています。 Introducing Triton: Open-Source GPU Programming for Neural Networks https://www.openai.com/blog/triton/ OpenAI debuts Python-based Triton for GPU-powered machine learning | InfoWorld https://www.infoworld.

                              オープンソースのニューラルネットワーク向けプログラミング言語「Triton」をOpenAIが公開
                            • GPT in 60 Lines of NumPy | Jay Mody

                              January 30, 2023 In this post, we'll implement a GPT from scratch in just 60 lines of numpy. We'll then load the trained GPT-2 model weights released by OpenAI into our implementation and generate some text. Note: This post assumes familiarity with Python, NumPy, and some basic experience training neural networks. This implementation is missing tons of features on purpose to keep it as simple as p

                              • The new Audi A5

                                Want to find cheap UK car insurance? Easy. Go to prudentplus.com. Need to save money? Visit toodear.co.uk. Not everything is so simple though. For instance, How do you create a sketch? Well firstly you can do it the difficult way, which is to get out a pencil and piece of paper and draw it yourself. You must , first of all, have the necessary skills, vis: There is an alternative - computer generat

                                • NVIDIAから署名付き証明書データが流出しNVIDIA製ドライバーになりすましたマルウェアが複数登場

                                  NVIDIAはハッカーグループの攻撃によって機密情報を盗み出されたことを2022年3月1日に発表しており、盗み出したデータを人質に仮想通貨での身代金支払いやマイニング性能制限の撤廃などを要求されていることが報じられています。新たに、盗まれたデータの中にNVIDIAのコード署名証明書が含まれていたことが判明し、証明書を悪用してNVIDIA製ドライバーになりすましたマルウェアの存在も複数報告されています。 Malware now using NVIDIA's stolen code signing certificates https://www.bleepingcomputer.com/news/security/malware-now-using-nvidias-stolen-code-signing-certificates/ NVIDIAは2022年3月1日に「私たちは脅威アクターが従

                                    NVIDIAから署名付き証明書データが流出しNVIDIA製ドライバーになりすましたマルウェアが複数登場
                                  • NVIDIAのハイエンドGPU「Titan V」は計算結果がその度に異なる気分屋すぎて技術者が悲鳴

                                    NVIDIAのハイエンドGPU「Titan V」をシミュレーションに利用するある技術者が、計算の度に計算結果が変わるのでお手上げだと悲鳴を上げています。The Registerは「2+2=4、いや、4.1……やっぱり4.3」ということかと、気まぐれなTitan Vの計算ゆれ現象をからかっています。 2 + 2 = 4, er, 4.1, no, 4.3... Nvidia's Titan V GPUs spit out 'wrong answers' in scientific simulations • The Register http://www.theregister.co.uk/2018/03/21/nvidia_titan_v_reproducibility/ NVIDIAのTitan VはVoltaアーキテクチャを採用したGPUで、5120個のCUDAコアと12GBのHBM2

                                      NVIDIAのハイエンドGPU「Titan V」は計算結果がその度に異なる気分屋すぎて技術者が悲鳴
                                    • 低画質のYouTubeやNetflixなどあらゆるウェブ動画を高解像度にアップスケールできるドライバーをNVIDIAがリリース

                                      YouTube、Twitch、Netflixなどあらゆるウェブサービスにある古いぼやけた動画を、RTX 30シリーズおよびRTX 40シリーズのGPUでアップスケールして視聴できるようにするドライバー「RTX Video Super Resolution(VSR)」をNVIDIAがリリースしました。 Pixel Perfect: RTX Video Super Resolution Now Available | NVIDIA Blog https://blogs.nvidia.com/blog/2023/02/28/rtx-video-super-resolution/ RTX Video Super Resolution FAQ | NVIDIA https://nvidia.custhelp.com/app/answers/detail/a_id/5448 Nvidia’s late

                                        低画質のYouTubeやNetflixなどあらゆるウェブ動画を高解像度にアップスケールできるドライバーをNVIDIAがリリース
                                      • TensorFlow Developer Summit 2018 でのアナウンスまとめ - 元データ分析の会社で働いていた人の四方山話

                                        プロジェクトの忙しい時期やら体調不良やら子供の保育園入園やらでマジで追いかけられていないけどこのまとめから辿っていけば良さそう。自分の勉強用にあとでまとめてみる / Highlights from TensorFlow Developer Summit, 2018 https://t.co/M6eNfflHZO— norihiro shimoda (@rindai87) 2018年4月3日 ということで、こちらをもとにした完全に自分用のメモ集みたいな感じです。まあ言ってみればただのリンク集なので、元ブログと情報量に大差はありませんのでご注意を。 medium.com 最初にやったほうがいいこと $ pip install --upgrade tensorflow とかやって、TensorFlowのバージョンを1.7まであげておきます。 Installing TensorFlow  |  T

                                          TensorFlow Developer Summit 2018 でのアナウンスまとめ - 元データ分析の会社で働いていた人の四方山話
                                        • GeForce RTX 4090の融解問題はGPUではなくケーブルの問題である可能性が濃厚に

                                          2022年10月に登場したNVIDIAの超ハイエンドGPU「GeForce RTX 4090」は、4K高画質設定の重量級ゲームを120fpsで動作させる程の高性能さが話題になっています。一方で、GeForce RTX 4090を搭載したグラフィックボードのユーザーからは「電源ケーブルが融解してしまった」という報告が複数件寄せられており、NVIDIAも調査に乗り出す事態に発展しています。そんな中、ハードウェア関連メディア・igor'sLABの調査によってGeForce RTX 4090搭載グラフィックボードの融解問題はGPUではなくケーブルに起因している可能性が濃厚となりました。 The horror has a face - NVIDIA’s hot 12VHPWR adapter for the GeForce RTX 4090 with a built-in breaking poin

                                            GeForce RTX 4090の融解問題はGPUではなくケーブルの問題である可能性が濃厚に
                                          • Awesome CS Courses

                                            Awesome CS Courses Introduction There are a lot of ~~hidden~~ treasures lying within university pages scattered across the internet. This list is an attempt to bring to light those awesome CS courses which make their high-quality materials, i.e. assignments, lectures, notes, readings and examinations, available online for free. Table of Contents Algorithms Artificial Intelligence Computer Graphics

                                            • NVIDIAのノイズ抑制機能「RTX Voice」のベータテストがスタート。ファンやヘアドライヤーの音が魔法のように消え失せるノイズ抑制機能を紹介する動画が多数公開される

                                              NVIDIAは、ボイスチャット中の打鍵音やファンの回転音などのノイズを除去する技術「RTX Voice」のベータテストを開始した。対応するシステムはGeForceドライバの410.18以上を導入したGeforce RTXとQuadro RTXカード、WIndows 10だ。 すでにヘアドライヤーや扇風機などを使ったテスト動画が公開されており、ベータ版ながら強力なノイズ抑制効果が確認できる。 Nvidia's RTX Voice tech looks AMAZING. I can finally use a desk mic again with my mechanical keyboard! @Barnacules's test with the fan and hammer is so impressive https://t.co/ES7ELMiMQS pic.twitter.com/

                                                NVIDIAのノイズ抑制機能「RTX Voice」のベータテストがスタート。ファンやヘアドライヤーの音が魔法のように消え失せるノイズ抑制機能を紹介する動画が多数公開される
                                              • NVIDIAがスマートフォンの能力を劇的にアップさせる「Tegra」プロセッサを発表

                                                NVIDIAが発表したところによると、今回発表された「Tegra」を使用すれば、小型携帯機器、例えばスマートフォン上などで130時間のオーディオ再生、30時間のHDビデオ再生などが可能になり、さらに高画質で激しく高速な動きを要求されるゲームも動作可能になるとのこと。処理速度を劇的に上昇させつつも、消費電力も同じくらい大幅に低下させることに成功しているため、なんと1回の充電で数日間の使用が可能だそうです。 これによってWindows Mobile製品の使い勝手が大きく上昇するかも。 詳細は以下から。 NVIDIA、シングルチップ・コンピューター「Tegraプロセッサー・ファミリー」を発表 TG Daily - Nvidia's Tegra could outsell GeForce business 4Gamer.net ― [COMPUTEX 2008#02]手のひらの上でFPSが動く!

                                                  NVIDIAがスマートフォンの能力を劇的にアップさせる「Tegra」プロセッサを発表
                                                • Replit — How to train your own Large Language Models

                                                  Header ImageHow Replit trains Large Language Models (LLMs) using Databricks, Hugging Face, and MosaicML IntroductionLarge Language Models, like OpenAI's GPT-4 or Google's PaLM, have taken the world of artificial intelligence by storm. Yet most companies don't currently have the ability to train these models, and are completely reliant on only a handful of large tech firms as providers of the techn

                                                    Replit — How to train your own Large Language Models
                                                  • CUDA Toolkit 12.1 Downloads

                                                    Get the latest feature updates to NVIDIA's proprietary compute stack.

                                                      CUDA Toolkit 12.1 Downloads
                                                    • AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用

                                                      Alibaba Cloudのエンジニア兼研究者であるEnnan Zhai氏が、LLMトレーニング向けデータセンターのGPUをイーサネットで相互接続する方法に関する研究論文を発表しました。この技術は特に、NVIDIAのGPU相互接続プロトコルであるNVLinkではなくイーサネットを採用している点で斬新とされています。 Alibaba HPN: A Data Center Network for Large Language Model Training (PDFファイル)https://ennanzhai.github.io/pub/sigcomm24-hpn.pdf Alibaba Cloud ditches Nvidia's interconnect in favor of Ethernet — tech giant uses own High Performance Network t

                                                        AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用
                                                      • VRの没入感を高めてレンダリング負荷も軽減する新技術をNVIDIAが披露

                                                        By Samantha Cristoforetti 人間が両目で見える範囲は左右に120度ほどと言われていますが、視線の先以外は「周辺視野」と呼ばれており、見えているもののしっかり認識できない「ぼやけて見える」領域になっています。そんな人間の視野をリアルに再現することで、VRのレンダリング負荷を軽減しようという技術「Foveated Rendering(中心窩レンダリング)」をNVIDIAとドイツのSensoMotoric Instruments(SMI)が開発しています。 NVIDIA Partners with SMI on Innovative VR Rendering Technique https://blogs.nvidia.com/blog/2016/07/21/rendering-foveated-vr/ NVIDIAは、VR向けの革新的なレンダリング技術を開発するためにS

                                                          VRの没入感を高めてレンダリング負荷も軽減する新技術をNVIDIAが披露
                                                        • GitHub - prakhar1989/awesome-courses: :books: List of awesome university courses for learning Computer Science!

                                                          CS 61C Great Ideas in Computer Architecture (Machine Structures) UC Berkeley The subjects covered in this course include: C and assembly language programming, translation of high-level programs into machine language, computer organization, caches, performance measurement, parallelism, CPU design, warehouse-scale computing, and related topics. Lecture Videos Lecture Notes Resources Old Exams CS 107

                                                            GitHub - prakhar1989/awesome-courses: :books: List of awesome university courses for learning Computer Science!
                                                          • TensorKart: self-driving MarioKart with TensorFlow

                                                            This winter break, I decided to try and finish a project I started a few years ago: training an artificial neural network to play MarioKart 64. It had been a few years since I’d done any serious machine learning, and I wanted to try out some of the new hotness (aka TensorFlow) I’d been hearing about. The timing was right. Project - use TensorFlow to train an agent that can play MarioKart 64. Goal

                                                            • GPU Dashboards in Jupyter Lab

                                                              IntroductionWe are excited to announce NVDashboard, an open-source package for the real-time visualization of NVIDIA GPU metrics in interactive Jupyter environments. NVDashboard is a great way for all GPU users to monitor system resources, but it is especially valuable for users of RAPIDS, NVIDIA’s open-source suite of GPU-accelerated data-science software libraries. Given the computational intens

                                                                GPU Dashboards in Jupyter Lab
                                                              • テキストから高解像度の3Dモデルを生成するAI「Magic3D」をNVIDIAが発表、テキストの微調整やスタイルの模倣も可能

                                                                大手半導体メーカーでありAI開発にも力を入れているNVIDIAが、入力したテキストを基に3Dモデルを生成するAI「Magic3D」を発表しました。Magic3Dが生成する3Dモデルは、Google Researchが発表した「DreamFusion」と比較して8倍の解像度を誇り、生成にかかる時間も半分ほどだとのことです。 [2211.10440] Magic3D: High-Resolution Text-to-3D Content Creation https://doi.org/10.48550/arXiv.2211.10440 Magic3D: High-Resolution Text-to-3D Content Creation https://deepimagination.cc/Magic3D/ 3D for everyone? Nvidia’s Magic3D can gen

                                                                  テキストから高解像度の3Dモデルを生成するAI「Magic3D」をNVIDIAが発表、テキストの微調整やスタイルの模倣も可能
                                                                • NVIDIA「RTX 2080 Ti」がVRAM容量11GBから22GBへ勝手に改造され中国で販売されている

                                                                  VRAM容量を11GBから22GBにアップグレードした改造版の「RTX 2080 Ti」が中国市場で流通していることがわかりました。AIブームが巻き起こる中、アメリカによる半導体規制を受けている中国でGPUを確保しようとする必死の試みが行われています。 Chinese workshops recondition Nvidia's old flagship gaming GPU for AI — RTX 2080 Ti upgraded to 22GB for $499 | Tom's Hardware https://www.tomshardware.com/pc-components/gpus/chinese-workshops-recondition-nvidias-old-flagship-gaming-gpu-for-ai-rtx-2080-ti-upgraded-to-22gb-

                                                                    NVIDIA「RTX 2080 Ti」がVRAM容量11GBから22GBへ勝手に改造され中国で販売されている
                                                                  • AMDが最大192GBのメモリをサポートした生成AI向けアクセラレータ「AMD Instinct MI300X」を発表

                                                                    AMDは2023年6月13日に、AIに用いられる大規模言語モデルのトレーニング用に設計されたアクセラレータ「AMD Instinct MI300X」を発表しました。MI300XはCPUタイルとGPUタイルの組み合わせではなく、GPUタイルのみを使用して最大192GBのHBM3メモリをサポートしています。 AMD Expands Leadership Data Center Portfolio with New EPYC CPUs and Shares Details on Next-Generation AMD Instinct Accelerator and Software Enablement for Generative AI https://www.amd.com/en/newsroom/press-releases/2023-6-13-amd-expands-leadershi

                                                                      AMDが最大192GBのメモリをサポートした生成AI向けアクセラレータ「AMD Instinct MI300X」を発表
                                                                    • NVIDIA cuDNN | NVIDIA Developer

                                                                      Accelerated Learning cuDNN provides kernels, targeting Tensor Cores, to deliver best available performance on compute-bound operations. It offers heuristics for choosing the right kernel for a given problem size. Expressive Op Graph API The user defines computations as a graph of operations on tensors. The cuDNN library has both a direct C API and an open-source C++ frontend for convenience. Most

                                                                        NVIDIA cuDNN | NVIDIA Developer
                                                                      • Microsoftは2019年から社内で独自のAIチップ「Athena」を開発しておりOpenAIの大規模言語モデルで既にテスト中

                                                                        Microsoftは2019年頃からChatGPTやGPT-4のような大規模言語モデル(LLM)のトレーニングに使用できるAIチップの開発に取り組んでいると、The Informationが報じています。報道によると、MicrosoftとOpenAIの一部の従業員は開発中のAIチップを用いてLLMのパフォーマンスを既にテストしているそうです。 Microsoft Readies AI Chip as Machine Learning Costs Surge — The Information https://www.theinformation.com/articles/microsoft-readies-ai-chip-as-machine-learning-costs-surge Microsoft Building Its Own AI Chip on TSMC's 5nm Proc

                                                                          Microsoftは2019年から社内で独自のAIチップ「Athena」を開発しておりOpenAIの大規模言語モデルで既にテスト中
                                                                        • NVIDIA CUDA Library Documentation

                                                                          Release Notes CUDA Features Archive EULA Installation Guides Quick Start Guide Installation Guide Windows Installation Guide Linux Programming Guides Programming Guide Best Practices Guide Maxwell Compatibility Guide Pascal Compatibility Guide Volta Compatibility Guide Turing Compatibility Guide NVIDIA Ampere GPU Architecture Compatibility Guide Hopper Compatibility Guide Ada Compatibility Guide M

                                                                          • GPUs are now available for Google Compute Engine and Cloud Machine Learning | Google Cloud Blog

                                                                            GPUs are now available for Google Compute Engine and Cloud Machine Learning Google Cloud Platform gets a performance boost today with the much anticipated public beta of NVIDIA Tesla K80 GPUs. You can now spin up NVIDIA GPU-based VMs in three GCP regions: us-east1, asia-east1 and europe-west1, using the gcloud command-line tool. Support for creating GPU VMs using the Cloud Console appears next wee

                                                                              GPUs are now available for Google Compute Engine and Cloud Machine Learning | Google Cloud Blog
                                                                            • Texture Tools Exporter

                                                                              NVIDIA Texture Tools Exporter The NVIDIA Texture Tools Exporter allows users to create highly compressed texture files - that stay small both on disk and in memory - directly from image sources using NVIDIA’s CUDA-accelerated Texture Tools 3.0 compressor technology. This exporter combines four texture tools in a single plugin and standalone application, including flexible and powerful support for

                                                                                Texture Tools Exporter
                                                                              • SIMD \< SIMT \< SMT: parallelism in NVIDIA GPUs

                                                                                Programmable NVIDIA GPUs are very inspiring to hardware geeks, proving that processors with an original, incompatible programming model can become widely used. NVIDIA call their parallel programming model SIMT - "Single Instruction, Multiple Threads". Two other different, but related parallel programming models are SIMD - "Single Instruction, Multiple Data", and SMT - "Simultaneous Multithreading"

                                                                                • 自動運転車を実現する開発ユニット「NVIDIA Drive PX 2」によるディープラーニングのデモはこんな感じ

                                                                                  NVIDIAがディープラーニングを使って外界の様子をリアルタイムで認識して自動運転車技術を開発できるユニット「NVIDIA Drive PX 2」をCES 2016に合わせて開催されたカンファレンスで発表しました。ディープラーニング技術を使ったデモを見れば、従来は数カ月かかった作業をわずか1日で終えるというNVIDIA Drive PX 2の凄まじさがよく分かります。 Live: NVIDIA's 2016 Las Vegas CES Press Event http://blogs.nvidia.com/blog/2016/01/03/ces-las-vegas-event/ Automotive Innovators Motoring to NVIDIA DRIVE | The Official NVIDIA Blog http://blogs.nvidia.com/blog/2016

                                                                                    自動運転車を実現する開発ユニット「NVIDIA Drive PX 2」によるディープラーニングのデモはこんな感じ