NVIDIA’s AI team reportedly scraped YouTube, Netflix videos without permission
2018年1月3日にCPUに関連する3つの脆弱性情報が公開されました。報告者によるとこれらの脆弱性はMeltdown、Spectreと呼称されています。ここでは関連情報をまとめます。 脆弱性の概要 報告者が脆弱性情報を次の専用サイトで公開した。 Meltdown and Spectre (またはこちら) 3つの脆弱性の概要をまとめると次の通り。 脆弱性の名称 Meltdown Spectre CVE CVE-2017-5754(Rogue data cache load) CVE-2017-5753(Bounds check bypass) CVE-2017-5715(Branch target injection) 影響を受けるCPU Intel Intel、AMD、ARM CVSSv3 基本値 4.7(JPCERT/CC) 5.6(NIST) ←に同じ PoC 報告者非公開 論文中にx
大手半導体メーカーでありAI研究にも力を入れているNVIDIAが、新たな画像生成AIである「eDiffi」を発表しました。NVIDIAはeDiffiについて、世界中で話題となっている「Stable Diffusion」やOpenAIの「DALL・E2」といった従来の画像生成AIより入力テキストに忠実な画像を生成できると主張しています。 [2211.01324] eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers https://arxiv.org/abs/2211.01324 eDiff-I: Text-to-Image Diffusion Models with Ensemble of Expert Denoisers https://deepimagination.cc/eDiffi/
Linuxカーネルの開発者として知られるリーナス・トーバルズ氏が、出身地であるフィンランドで大学生向けの講演に姿を見せ、質疑応答の中でNVIDIAに対する不満をぶちまけるという一幕がありました。 Aalto Talk with Linus Torvalds [Full-length] - YouTube Linus Torvalds on NVIDIA's non-Linux Optimus support: "F*** you" - Neowin これはフィンランドのアールト大学で行われた「Aalto Talk with Linus Torvalds」というイベントにリーナス・トーバルズ氏が参加した際の映像です。 ゲストとして登場したトーバルズ氏は、学生との話を楽しんでいる様子。 質疑応答の中で、女性から「NvidiaのOptimus技術搭載ノートPCでLinuxを動かそうとしても動かな
DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co
There are lots of people and places that create and collect algorithms of all types (here are a few WWW sites). Unfortunately, in building systems hardware and software, we in The Aggregate often have found it necessary to do relatively obscure low-level things very efficiently. Many of the tricks we've devised or collected either require assembly language coding or are not entirely portable when
AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を
NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera
高度なAIのトレーニングには高品質な学習データが欠かせませんが、そのようなデータは急速に枯渇しつつあることが問題となっています。NVIDIA2024年6月14日に、大規模言語モデル(LLM)のトレーニングに使用する合成データの生成を念頭に開発され、商用アプリケーションにも使えるオープンソースのAIモデル「Nemotron-4 340B」を発表しました。 NVIDIA Releases Open Synthetic Data Generation Pipeline for Training Large Language Models | NVIDIA Blog https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/ Nvidia's 'Nemotron-4 340B' model red
顔の皮膚の陰影表現というのはリアルタイム3Dグラフィックス、とくにゲームグラフィックスでの実装はかなり難しいとされてきた。それは人間の皮膚が光を反射、吸収、拡散するだけでなく、透明度は低いものの、皮膚下に浸透して散乱し再び出てくるという複雑な反射モデルになっているからだ。 この難しい人間の皮膚の陰影処理も、PS3,Xbox360といった最新ゲーム機や、今世代のDirectX 10世代のGPUでは、リアルタイムでもかなりレベルの高い表現ができるようになっている。 NVIDIAは、この皮膚の陰影処理についての最新技術についての解説を行った。 NVIDIAの最新スキンシェーダの解説を行った「高度なスキンシェーディング」セッション 人間の皮膚の陰影処理モデルを考える 人間の肌の陰影処理はスキン・シェーディング(Skin Shading)と呼ばれ、これを行うために特化したシェーダーをスキン
NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi
NVIDIAが開発・提供するGPU向けの汎用並列コンピューティングプラットフォームである「CUDA」を超える生産性と高速コード記述が可能になるようなオープンソースのニューラルネットワーク向けプログラミング言語「Triton」が公開されました。非常に効率的なカスタムディープラーニングプリミティブを作成するための言語コンパイラとなっており、GitHub上で開発リポジトリが公開されています。 Introducing Triton: Open-Source GPU Programming for Neural Networks https://www.openai.com/blog/triton/ OpenAI debuts Python-based Triton for GPU-powered machine learning | InfoWorld https://www.infoworld.
January 30, 2023 In this post, we'll implement a GPT from scratch in just 60 lines of numpy. We'll then load the trained GPT-2 model weights released by OpenAI into our implementation and generate some text. Note: This post assumes familiarity with Python, NumPy, and some basic experience training neural networks. This implementation is missing tons of features on purpose to keep it as simple as p
Want to find cheap UK car insurance? Easy. Go to prudentplus.com. Need to save money? Visit toodear.co.uk. Not everything is so simple though. For instance, How do you create a sketch? Well firstly you can do it the difficult way, which is to get out a pencil and piece of paper and draw it yourself. You must , first of all, have the necessary skills, vis: There is an alternative - computer generat
NVIDIAはハッカーグループの攻撃によって機密情報を盗み出されたことを2022年3月1日に発表しており、盗み出したデータを人質に仮想通貨での身代金支払いやマイニング性能制限の撤廃などを要求されていることが報じられています。新たに、盗まれたデータの中にNVIDIAのコード署名証明書が含まれていたことが判明し、証明書を悪用してNVIDIA製ドライバーになりすましたマルウェアの存在も複数報告されています。 Malware now using NVIDIA's stolen code signing certificates https://www.bleepingcomputer.com/news/security/malware-now-using-nvidias-stolen-code-signing-certificates/ NVIDIAは2022年3月1日に「私たちは脅威アクターが従
NVIDIAのハイエンドGPU「Titan V」をシミュレーションに利用するある技術者が、計算の度に計算結果が変わるのでお手上げだと悲鳴を上げています。The Registerは「2+2=4、いや、4.1……やっぱり4.3」ということかと、気まぐれなTitan Vの計算ゆれ現象をからかっています。 2 + 2 = 4, er, 4.1, no, 4.3... Nvidia's Titan V GPUs spit out 'wrong answers' in scientific simulations • The Register http://www.theregister.co.uk/2018/03/21/nvidia_titan_v_reproducibility/ NVIDIAのTitan VはVoltaアーキテクチャを採用したGPUで、5120個のCUDAコアと12GBのHBM2
YouTube、Twitch、Netflixなどあらゆるウェブサービスにある古いぼやけた動画を、RTX 30シリーズおよびRTX 40シリーズのGPUでアップスケールして視聴できるようにするドライバー「RTX Video Super Resolution(VSR)」をNVIDIAがリリースしました。 Pixel Perfect: RTX Video Super Resolution Now Available | NVIDIA Blog https://blogs.nvidia.com/blog/2023/02/28/rtx-video-super-resolution/ RTX Video Super Resolution FAQ | NVIDIA https://nvidia.custhelp.com/app/answers/detail/a_id/5448 Nvidia’s late
プロジェクトの忙しい時期やら体調不良やら子供の保育園入園やらでマジで追いかけられていないけどこのまとめから辿っていけば良さそう。自分の勉強用にあとでまとめてみる / Highlights from TensorFlow Developer Summit, 2018 https://t.co/M6eNfflHZO— norihiro shimoda (@rindai87) 2018年4月3日 ということで、こちらをもとにした完全に自分用のメモ集みたいな感じです。まあ言ってみればただのリンク集なので、元ブログと情報量に大差はありませんのでご注意を。 medium.com 最初にやったほうがいいこと $ pip install --upgrade tensorflow とかやって、TensorFlowのバージョンを1.7まであげておきます。 Installing TensorFlow | T
2022年10月に登場したNVIDIAの超ハイエンドGPU「GeForce RTX 4090」は、4K高画質設定の重量級ゲームを120fpsで動作させる程の高性能さが話題になっています。一方で、GeForce RTX 4090を搭載したグラフィックボードのユーザーからは「電源ケーブルが融解してしまった」という報告が複数件寄せられており、NVIDIAも調査に乗り出す事態に発展しています。そんな中、ハードウェア関連メディア・igor'sLABの調査によってGeForce RTX 4090搭載グラフィックボードの融解問題はGPUではなくケーブルに起因している可能性が濃厚となりました。 The horror has a face - NVIDIA’s hot 12VHPWR adapter for the GeForce RTX 4090 with a built-in breaking poin
Awesome CS Courses Introduction There are a lot of ~~hidden~~ treasures lying within university pages scattered across the internet. This list is an attempt to bring to light those awesome CS courses which make their high-quality materials, i.e. assignments, lectures, notes, readings and examinations, available online for free. Table of Contents Algorithms Artificial Intelligence Computer Graphics
NVIDIAは、ボイスチャット中の打鍵音やファンの回転音などのノイズを除去する技術「RTX Voice」のベータテストを開始した。対応するシステムはGeForceドライバの410.18以上を導入したGeforce RTXとQuadro RTXカード、WIndows 10だ。 すでにヘアドライヤーや扇風機などを使ったテスト動画が公開されており、ベータ版ながら強力なノイズ抑制効果が確認できる。 Nvidia's RTX Voice tech looks AMAZING. I can finally use a desk mic again with my mechanical keyboard! @Barnacules's test with the fan and hammer is so impressive https://t.co/ES7ELMiMQS pic.twitter.com/
NVIDIAが発表したところによると、今回発表された「Tegra」を使用すれば、小型携帯機器、例えばスマートフォン上などで130時間のオーディオ再生、30時間のHDビデオ再生などが可能になり、さらに高画質で激しく高速な動きを要求されるゲームも動作可能になるとのこと。処理速度を劇的に上昇させつつも、消費電力も同じくらい大幅に低下させることに成功しているため、なんと1回の充電で数日間の使用が可能だそうです。 これによってWindows Mobile製品の使い勝手が大きく上昇するかも。 詳細は以下から。 NVIDIA、シングルチップ・コンピューター「Tegraプロセッサー・ファミリー」を発表 TG Daily - Nvidia's Tegra could outsell GeForce business 4Gamer.net ― [COMPUTEX 2008#02]手のひらの上でFPSが動く!
Header ImageHow Replit trains Large Language Models (LLMs) using Databricks, Hugging Face, and MosaicML IntroductionLarge Language Models, like OpenAI's GPT-4 or Google's PaLM, have taken the world of artificial intelligence by storm. Yet most companies don't currently have the ability to train these models, and are completely reliant on only a handful of large tech firms as providers of the techn
Alibaba Cloudのエンジニア兼研究者であるEnnan Zhai氏が、LLMトレーニング向けデータセンターのGPUをイーサネットで相互接続する方法に関する研究論文を発表しました。この技術は特に、NVIDIAのGPU相互接続プロトコルであるNVLinkではなくイーサネットを採用している点で斬新とされています。 Alibaba HPN: A Data Center Network for Large Language Model Training (PDFファイル)https://ennanzhai.github.io/pub/sigcomm24-hpn.pdf Alibaba Cloud ditches Nvidia's interconnect in favor of Ethernet — tech giant uses own High Performance Network t
By Samantha Cristoforetti 人間が両目で見える範囲は左右に120度ほどと言われていますが、視線の先以外は「周辺視野」と呼ばれており、見えているもののしっかり認識できない「ぼやけて見える」領域になっています。そんな人間の視野をリアルに再現することで、VRのレンダリング負荷を軽減しようという技術「Foveated Rendering(中心窩レンダリング)」をNVIDIAとドイツのSensoMotoric Instruments(SMI)が開発しています。 NVIDIA Partners with SMI on Innovative VR Rendering Technique https://blogs.nvidia.com/blog/2016/07/21/rendering-foveated-vr/ NVIDIAは、VR向けの革新的なレンダリング技術を開発するためにS
CS 61C Great Ideas in Computer Architecture (Machine Structures) UC Berkeley The subjects covered in this course include: C and assembly language programming, translation of high-level programs into machine language, computer organization, caches, performance measurement, parallelism, CPU design, warehouse-scale computing, and related topics. Lecture Videos Lecture Notes Resources Old Exams CS 107
This winter break, I decided to try and finish a project I started a few years ago: training an artificial neural network to play MarioKart 64. It had been a few years since I’d done any serious machine learning, and I wanted to try out some of the new hotness (aka TensorFlow) I’d been hearing about. The timing was right. Project - use TensorFlow to train an agent that can play MarioKart 64. Goal
IntroductionWe are excited to announce NVDashboard, an open-source package for the real-time visualization of NVIDIA GPU metrics in interactive Jupyter environments. NVDashboard is a great way for all GPU users to monitor system resources, but it is especially valuable for users of RAPIDS, NVIDIA’s open-source suite of GPU-accelerated data-science software libraries. Given the computational intens
大手半導体メーカーでありAI開発にも力を入れているNVIDIAが、入力したテキストを基に3Dモデルを生成するAI「Magic3D」を発表しました。Magic3Dが生成する3Dモデルは、Google Researchが発表した「DreamFusion」と比較して8倍の解像度を誇り、生成にかかる時間も半分ほどだとのことです。 [2211.10440] Magic3D: High-Resolution Text-to-3D Content Creation https://doi.org/10.48550/arXiv.2211.10440 Magic3D: High-Resolution Text-to-3D Content Creation https://deepimagination.cc/Magic3D/ 3D for everyone? Nvidia’s Magic3D can gen
VRAM容量を11GBから22GBにアップグレードした改造版の「RTX 2080 Ti」が中国市場で流通していることがわかりました。AIブームが巻き起こる中、アメリカによる半導体規制を受けている中国でGPUを確保しようとする必死の試みが行われています。 Chinese workshops recondition Nvidia's old flagship gaming GPU for AI — RTX 2080 Ti upgraded to 22GB for $499 | Tom's Hardware https://www.tomshardware.com/pc-components/gpus/chinese-workshops-recondition-nvidias-old-flagship-gaming-gpu-for-ai-rtx-2080-ti-upgraded-to-22gb-
AMDは2023年6月13日に、AIに用いられる大規模言語モデルのトレーニング用に設計されたアクセラレータ「AMD Instinct MI300X」を発表しました。MI300XはCPUタイルとGPUタイルの組み合わせではなく、GPUタイルのみを使用して最大192GBのHBM3メモリをサポートしています。 AMD Expands Leadership Data Center Portfolio with New EPYC CPUs and Shares Details on Next-Generation AMD Instinct Accelerator and Software Enablement for Generative AI https://www.amd.com/en/newsroom/press-releases/2023-6-13-amd-expands-leadershi
Accelerated Learning cuDNN provides kernels, targeting Tensor Cores, to deliver best available performance on compute-bound operations. It offers heuristics for choosing the right kernel for a given problem size. Expressive Op Graph API The user defines computations as a graph of operations on tensors. The cuDNN library has both a direct C API and an open-source C++ frontend for convenience. Most
Microsoftは2019年頃からChatGPTやGPT-4のような大規模言語モデル(LLM)のトレーニングに使用できるAIチップの開発に取り組んでいると、The Informationが報じています。報道によると、MicrosoftとOpenAIの一部の従業員は開発中のAIチップを用いてLLMのパフォーマンスを既にテストしているそうです。 Microsoft Readies AI Chip as Machine Learning Costs Surge — The Information https://www.theinformation.com/articles/microsoft-readies-ai-chip-as-machine-learning-costs-surge Microsoft Building Its Own AI Chip on TSMC's 5nm Proc
Release Notes CUDA Features Archive EULA Installation Guides Quick Start Guide Installation Guide Windows Installation Guide Linux Programming Guides Programming Guide Best Practices Guide Maxwell Compatibility Guide Pascal Compatibility Guide Volta Compatibility Guide Turing Compatibility Guide NVIDIA Ampere GPU Architecture Compatibility Guide Hopper Compatibility Guide Ada Compatibility Guide M
GPUs are now available for Google Compute Engine and Cloud Machine Learning Google Cloud Platform gets a performance boost today with the much anticipated public beta of NVIDIA Tesla K80 GPUs. You can now spin up NVIDIA GPU-based VMs in three GCP regions: us-east1, asia-east1 and europe-west1, using the gcloud command-line tool. Support for creating GPU VMs using the Cloud Console appears next wee
NVIDIA Texture Tools Exporter The NVIDIA Texture Tools Exporter allows users to create highly compressed texture files - that stay small both on disk and in memory - directly from image sources using NVIDIA’s CUDA-accelerated Texture Tools 3.0 compressor technology. This exporter combines four texture tools in a single plugin and standalone application, including flexible and powerful support for
Programmable NVIDIA GPUs are very inspiring to hardware geeks, proving that processors with an original, incompatible programming model can become widely used. NVIDIA call their parallel programming model SIMT - "Single Instruction, Multiple Threads". Two other different, but related parallel programming models are SIMD - "Single Instruction, Multiple Data", and SMT - "Simultaneous Multithreading"
NVIDIAがディープラーニングを使って外界の様子をリアルタイムで認識して自動運転車技術を開発できるユニット「NVIDIA Drive PX 2」をCES 2016に合わせて開催されたカンファレンスで発表しました。ディープラーニング技術を使ったデモを見れば、従来は数カ月かかった作業をわずか1日で終えるというNVIDIA Drive PX 2の凄まじさがよく分かります。 Live: NVIDIA's 2016 Las Vegas CES Press Event http://blogs.nvidia.com/blog/2016/01/03/ces-las-vegas-event/ Automotive Innovators Motoring to NVIDIA DRIVE | The Official NVIDIA Blog http://blogs.nvidia.com/blog/2016
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く