並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 161件

新着順 人気順

NVIDIA'sの検索結果1 - 40 件 / 161件

  • NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能

    大手半導体メーカーでありAI研究にも力を入れているNVIDIAが、新たな画像生成AIである「eDiffi」を発表しました。NVIDIAはeDiffiについて、世界中で話題となっている「Stable Diffusion」やOpenAIの「DALL・E2」といった従来の画像生成AIより入力テキストに忠実な画像を生成できると主張しています。 [2211.01324] eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert Denoisers https://arxiv.org/abs/2211.01324 eDiff-I: Text-to-Image Diffusion Models with Ensemble of Expert Denoisers https://deepimagination.cc/eDiffi/

      NVIDIAが高精度な画像生成AI「eDiffi」を発表、従来の「Stable diffusion」や「DALL・E2」よりテキストに忠実な画像生成が可能
    • DirectX ❤ Linux - DirectX Developer Blog

      DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

        DirectX ❤ Linux - DirectX Developer Blog
      • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

        AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

          Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
        • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

          NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

            AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
          • NVIDIAがオープンモデル「Nemotron-4 340B」を発表、LLMトレーニング用合成データの生成に革命を起こすか

            高度なAIのトレーニングには高品質な学習データが欠かせませんが、そのようなデータは急速に枯渇しつつあることが問題となっています。NVIDIA2024年6月14日に、大規模言語モデル(LLM)のトレーニングに使用する合成データの生成を念頭に開発され、商用アプリケーションにも使えるオープンソースのAIモデル「Nemotron-4 340B」を発表しました。 NVIDIA Releases Open Synthetic Data Generation Pipeline for Training Large Language Models | NVIDIA Blog https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/ Nvidia's 'Nemotron-4 340B' model red

              NVIDIAがオープンモデル「Nemotron-4 340B」を発表、LLMトレーニング用合成データの生成に革命を起こすか
            • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

              NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                NVIDIAがCUDAを他のハードウェア上で実行することを禁止
              • オープンソースのニューラルネットワーク向けプログラミング言語「Triton」をOpenAIが公開

                NVIDIAが開発・提供するGPU向けの汎用並列コンピューティングプラットフォームである「CUDA」を超える生産性と高速コード記述が可能になるようなオープンソースのニューラルネットワーク向けプログラミング言語「Triton」が公開されました。非常に効率的なカスタムディープラーニングプリミティブを作成するための言語コンパイラとなっており、GitHub上で開発リポジトリが公開されています。 Introducing Triton: Open-Source GPU Programming for Neural Networks https://www.openai.com/blog/triton/ OpenAI debuts Python-based Triton for GPU-powered machine learning | InfoWorld https://www.infoworld.

                  オープンソースのニューラルネットワーク向けプログラミング言語「Triton」をOpenAIが公開
                • GPT in 60 Lines of NumPy | Jay Mody

                  January 30, 2023 In this post, we'll implement a GPT from scratch in just 60 lines of numpy. We'll then load the trained GPT-2 model weights released by OpenAI into our implementation and generate some text. Note: This post assumes familiarity with Python, NumPy, and some basic experience training neural networks. This implementation is missing tons of features on purpose to keep it as simple as p

                  • NVIDIAから署名付き証明書データが流出しNVIDIA製ドライバーになりすましたマルウェアが複数登場

                    NVIDIAはハッカーグループの攻撃によって機密情報を盗み出されたことを2022年3月1日に発表しており、盗み出したデータを人質に仮想通貨での身代金支払いやマイニング性能制限の撤廃などを要求されていることが報じられています。新たに、盗まれたデータの中にNVIDIAのコード署名証明書が含まれていたことが判明し、証明書を悪用してNVIDIA製ドライバーになりすましたマルウェアの存在も複数報告されています。 Malware now using NVIDIA's stolen code signing certificates https://www.bleepingcomputer.com/news/security/malware-now-using-nvidias-stolen-code-signing-certificates/ NVIDIAは2022年3月1日に「私たちは脅威アクターが従

                      NVIDIAから署名付き証明書データが流出しNVIDIA製ドライバーになりすましたマルウェアが複数登場
                    • 低画質のYouTubeやNetflixなどあらゆるウェブ動画を高解像度にアップスケールできるドライバーをNVIDIAがリリース

                      YouTube、Twitch、Netflixなどあらゆるウェブサービスにある古いぼやけた動画を、RTX 30シリーズおよびRTX 40シリーズのGPUでアップスケールして視聴できるようにするドライバー「RTX Video Super Resolution(VSR)」をNVIDIAがリリースしました。 Pixel Perfect: RTX Video Super Resolution Now Available | NVIDIA Blog https://blogs.nvidia.com/blog/2023/02/28/rtx-video-super-resolution/ RTX Video Super Resolution FAQ | NVIDIA https://nvidia.custhelp.com/app/answers/detail/a_id/5448 Nvidia’s late

                        低画質のYouTubeやNetflixなどあらゆるウェブ動画を高解像度にアップスケールできるドライバーをNVIDIAがリリース
                      • GeForce RTX 4090の融解問題はGPUではなくケーブルの問題である可能性が濃厚に

                        2022年10月に登場したNVIDIAの超ハイエンドGPU「GeForce RTX 4090」は、4K高画質設定の重量級ゲームを120fpsで動作させる程の高性能さが話題になっています。一方で、GeForce RTX 4090を搭載したグラフィックボードのユーザーからは「電源ケーブルが融解してしまった」という報告が複数件寄せられており、NVIDIAも調査に乗り出す事態に発展しています。そんな中、ハードウェア関連メディア・igor'sLABの調査によってGeForce RTX 4090搭載グラフィックボードの融解問題はGPUではなくケーブルに起因している可能性が濃厚となりました。 The horror has a face - NVIDIA’s hot 12VHPWR adapter for the GeForce RTX 4090 with a built-in breaking poin

                          GeForce RTX 4090の融解問題はGPUではなくケーブルの問題である可能性が濃厚に
                        • NVIDIAのノイズ抑制機能「RTX Voice」のベータテストがスタート。ファンやヘアドライヤーの音が魔法のように消え失せるノイズ抑制機能を紹介する動画が多数公開される

                          NVIDIAは、ボイスチャット中の打鍵音やファンの回転音などのノイズを除去する技術「RTX Voice」のベータテストを開始した。対応するシステムはGeForceドライバの410.18以上を導入したGeforce RTXとQuadro RTXカード、WIndows 10だ。 すでにヘアドライヤーや扇風機などを使ったテスト動画が公開されており、ベータ版ながら強力なノイズ抑制効果が確認できる。 Nvidia's RTX Voice tech looks AMAZING. I can finally use a desk mic again with my mechanical keyboard! @Barnacules's test with the fan and hammer is so impressive https://t.co/ES7ELMiMQS pic.twitter.com/

                            NVIDIAのノイズ抑制機能「RTX Voice」のベータテストがスタート。ファンやヘアドライヤーの音が魔法のように消え失せるノイズ抑制機能を紹介する動画が多数公開される
                          • Replit — How to train your own Large Language Models

                            Header ImageHow Replit trains Large Language Models (LLMs) using Databricks, Hugging Face, and MosaicML IntroductionLarge Language Models, like OpenAI's GPT-4 or Google's PaLM, have taken the world of artificial intelligence by storm. Yet most companies don't currently have the ability to train these models, and are completely reliant on only a handful of large tech firms as providers of the techn

                              Replit — How to train your own Large Language Models
                            • AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用

                              Alibaba Cloudのエンジニア兼研究者であるEnnan Zhai氏が、LLMトレーニング向けデータセンターのGPUをイーサネットで相互接続する方法に関する研究論文を発表しました。この技術は特に、NVIDIAのGPU相互接続プロトコルであるNVLinkではなくイーサネットを採用している点で斬新とされています。 Alibaba HPN: A Data Center Network for Large Language Model Training (PDFファイル)https://ennanzhai.github.io/pub/sigcomm24-hpn.pdf Alibaba Cloud ditches Nvidia's interconnect in favor of Ethernet — tech giant uses own High Performance Network t

                                AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用
                              • GPU Dashboards in Jupyter Lab

                                IntroductionWe are excited to announce NVDashboard, an open-source package for the real-time visualization of NVIDIA GPU metrics in interactive Jupyter environments. NVDashboard is a great way for all GPU users to monitor system resources, but it is especially valuable for users of RAPIDS, NVIDIA’s open-source suite of GPU-accelerated data-science software libraries. Given the computational intens

                                  GPU Dashboards in Jupyter Lab
                                • NVIDIA「RTX 2080 Ti」がVRAM容量11GBから22GBへ勝手に改造され中国で販売されている

                                  VRAM容量を11GBから22GBにアップグレードした改造版の「RTX 2080 Ti」が中国市場で流通していることがわかりました。AIブームが巻き起こる中、アメリカによる半導体規制を受けている中国でGPUを確保しようとする必死の試みが行われています。 Chinese workshops recondition Nvidia's old flagship gaming GPU for AI — RTX 2080 Ti upgraded to 22GB for $499 | Tom's Hardware https://www.tomshardware.com/pc-components/gpus/chinese-workshops-recondition-nvidias-old-flagship-gaming-gpu-for-ai-rtx-2080-ti-upgraded-to-22gb-

                                    NVIDIA「RTX 2080 Ti」がVRAM容量11GBから22GBへ勝手に改造され中国で販売されている
                                  • テキストから高解像度の3Dモデルを生成するAI「Magic3D」をNVIDIAが発表、テキストの微調整やスタイルの模倣も可能

                                    大手半導体メーカーでありAI開発にも力を入れているNVIDIAが、入力したテキストを基に3Dモデルを生成するAI「Magic3D」を発表しました。Magic3Dが生成する3Dモデルは、Google Researchが発表した「DreamFusion」と比較して8倍の解像度を誇り、生成にかかる時間も半分ほどだとのことです。 [2211.10440] Magic3D: High-Resolution Text-to-3D Content Creation https://doi.org/10.48550/arXiv.2211.10440 Magic3D: High-Resolution Text-to-3D Content Creation https://deepimagination.cc/Magic3D/ 3D for everyone? Nvidia’s Magic3D can gen

                                      テキストから高解像度の3Dモデルを生成するAI「Magic3D」をNVIDIAが発表、テキストの微調整やスタイルの模倣も可能
                                    • AMDが最大192GBのメモリをサポートした生成AI向けアクセラレータ「AMD Instinct MI300X」を発表

                                      AMDは2023年6月13日に、AIに用いられる大規模言語モデルのトレーニング用に設計されたアクセラレータ「AMD Instinct MI300X」を発表しました。MI300XはCPUタイルとGPUタイルの組み合わせではなく、GPUタイルのみを使用して最大192GBのHBM3メモリをサポートしています。 AMD Expands Leadership Data Center Portfolio with New EPYC CPUs and Shares Details on Next-Generation AMD Instinct Accelerator and Software Enablement for Generative AI https://www.amd.com/en/newsroom/press-releases/2023-6-13-amd-expands-leadershi

                                        AMDが最大192GBのメモリをサポートした生成AI向けアクセラレータ「AMD Instinct MI300X」を発表
                                      • Microsoftは2019年から社内で独自のAIチップ「Athena」を開発しておりOpenAIの大規模言語モデルで既にテスト中

                                        Microsoftは2019年頃からChatGPTやGPT-4のような大規模言語モデル(LLM)のトレーニングに使用できるAIチップの開発に取り組んでいると、The Informationが報じています。報道によると、MicrosoftとOpenAIの一部の従業員は開発中のAIチップを用いてLLMのパフォーマンスを既にテストしているそうです。 Microsoft Readies AI Chip as Machine Learning Costs Surge — The Information https://www.theinformation.com/articles/microsoft-readies-ai-chip-as-machine-learning-costs-surge Microsoft Building Its Own AI Chip on TSMC's 5nm Proc

                                          Microsoftは2019年から社内で独自のAIチップ「Athena」を開発しておりOpenAIの大規模言語モデルで既にテスト中
                                        • え…そっちも動いてたの??グラボのパワーを使ったノイズキャンセリングがすごすぎて耳を疑うレベル

                                          リンク www.nvidia.com NVIDIA RTX Voice: Setup Guide A quick-start guide to installing and using RTX Voice beta, NVIDIA's background noise removal plugin. 15 users 3453

                                            え…そっちも動いてたの??グラボのパワーを使ったノイズキャンセリングがすごすぎて耳を疑うレベル
                                          • Open challenges in LLM research

                                            [LinkedIn discussion, Twitter thread] Never before in my life had I seen so many smart people working on the same goal: making LLMs better. After talking to many people working in both industry and academia, I noticed the 10 major research directions that emerged. The first two directions, hallucinations and context learning, are probably the most talked about today. I’m the most excited about num

                                              Open challenges in LLM research
                                            • Xbox Architecture | A Practical Analysis

                                              OriginalMarkedMotherboard Showing first revision. Controllers are plugged using a separate daughterboard. Missing SDRAM chips are on the back and there are four unpopulated SDRAM slots.Motherboard with important parts labelled A quick introductionIt seems that Microsoft has decided to pick up where Sega left off. Their offer? A system with familiarities appreciated by developers and online service

                                                Xbox Architecture | A Practical Analysis
                                              • NVIDIAが数日以内に3つの新しいH100ベースのAIチップを中国に投入する予定との報道、輸出規制回避に必死な姿が浮き彫りに

                                                中国の国営通信社であるChinastarmarketが2023年11月9日に、NVIDIAが主力製品「H100」の改良版である新しいAIチップ「H20」「L20」「L2」を近日中に中国市場に投入すると報じました。この動きは、NVIDIAがいかに中国市場を重視し、規制の回避に躍起になっているかを示していると指摘されています。 英伟达或为中国推三款改良芯片?浪潮信息:目前还未接到通知 公司会继续和对方沟通 https://www.chinastarmarket.cn/detail/1513253 Tech war: Nvidia to tailor another set of chips for China clients after updated US export control curbs, distributor says | South China Morning Post ht

                                                  NVIDIAが数日以内に3つの新しいH100ベースのAIチップを中国に投入する予定との報道、輸出規制回避に必死な姿が浮き彫りに
                                                • ChatGPTやStable Diffusionを生み出した「機械学習ソフトウェア」の10年間の流れを専門家が解説

                                                  近年は対話型AIのChatGPTや画像生成AIのStable Diffusionなど、さまざまなAIが登場して世間の注目を集めています。これらのAIを開発するために使用される機械学習ソフトウェアの過去10年の変遷について、半導体分野のアナリストであるディラン・パテル氏が解説しています。 How Nvidia’s CUDA Monopoly In Machine Learning Is Breaking - OpenAI Triton And PyTorch 2.0 https://www.semianalysis.com/p/nvidiaopenaitritonpytorch ◆TensorFlow対PyTorch 数年前の機械学習フレームワークエコシステムではGoogleのTensorFlowがフロントランナーであり、機械学習業界を支配する準備ができているように見えたとパテル氏は指摘。ま

                                                    ChatGPTやStable Diffusionを生み出した「機械学習ソフトウェア」の10年間の流れを専門家が解説
                                                  • A programming language for hardware accelerators

                                                    Researchers created Exo, which helps performance engineers transform simple programs that specify what they want to compute into very complex programs that do the same thing as the specification, only much, much faster. Moore’s Law needs a hug. The days of stuffing transistors on little silicon computer chips are numbered, and their life rafts — hardware accelerators — come with a price. When prog

                                                      A programming language for hardware accelerators
                                                    • 15 times Faster than Llama 2: Introducing DeciLM - NAS-Generated LLM with Variable GQA

                                                      15 times Faster than Llama 2: Introducing DeciLM – NAS-Generated LLM with Variable GQA 1. Introduction As the deep learning community continues to push the boundaries of Large Language Models (LLMs), the computational demands of these models have surged exponentially for both training and inference. This escalation has not only led to increased costs and energy consumption but also introduced barr

                                                        15 times Faster than Llama 2: Introducing DeciLM - NAS-Generated LLM with Variable GQA
                                                      • NVIDIA Releases Open-Source GPU Kernel Modules | NVIDIA Technical Blog

                                                        NVIDIA is now publishing Linux GPU kernel modules as open source with dual GPL/MIT license, starting with the R515 driver release. You can find the source code for these kernel modules in the NVIDIA/open-gpu-kernel-modules GitHub page This release is a significant step toward improving the experience of using NVIDIA GPUs in Linux, for tighter integration with the OS, and for developers to debug, i

                                                          NVIDIA Releases Open-Source GPU Kernel Modules | NVIDIA Technical Blog
                                                        • AI検索エンジンの「Perplexity」がForbesなどの記事の一部をAIでまとめてほぼ同一の内容を最低限の帰属表示で再公開していると指摘される

                                                          リアルタイムAI検索エンジンを開発しているPerplexityが提供している機能の一部で、一部の報道機関の記事がAIにより要約されて必要最低限の帰属表示のみで提供されていると指摘されています。 AI Startup Perplexity Is Directly Ripping Off Content From News Outlets https://www.forbes.com/sites/sarahemerson/2024/06/07/buzzy-ai-search-engine-perplexity-is-directly-ripping-off-content-from-news-outlets/ AI Startup Perplexity Says News Summary Tool Has ‘Rough Edges’ - Bloomberg https://www.bloomb

                                                            AI検索エンジンの「Perplexity」がForbesなどの記事の一部をAIでまとめてほぼ同一の内容を最低限の帰属表示で再公開していると指摘される
                                                          • LLMで勝負するには、1000億円必要か? - Vengineerの戯言

                                                            はじめに 学習用AIチップをTSMC 7nmで開発するには、100億円必要だよね。とお話したのが2017年頃 TensorFlow XLAの可能性, Deep Learning Acceleration 勉強会(2017.09.03 TensorFlow XLA とハードウェア, 2017年9月30日(土)のChainer Meetup #6 ざっと、6年前。この頃はまだ 7nm でチップが出てきてない時です。 その後、AI Cloud学習用スタートアップが何社立ち上がります。AI Cloud学習用スタットアップでは、7nmではなく、16nmで最初のチップ(Graphcore、Cerebras)を開発していきます。その後、チップが出来上がり、システムとして組み上げ、量産し、販売するまでに200-300億円ぐらい必要になることがわかりました。 TSMC 7nmを使って、NVIDIAのA100

                                                              LLMで勝負するには、1000億円必要か? - Vengineerの戯言
                                                            • NVIDIAが超高性能ディープフェイク生成AI「Implicit Warping」をひっそり開発している

                                                              特定の人物の写真をAIに学習させて実際に撮影したわけではない偽のムービーを作り出す技術「ディープフェイク」は、「俳優を現地に呼ばずに映像作品を作成する」といった有用な使い方の他に、「ポルノ映像に他人の顔を重ねる」「架空の人物としてリモートワークの採用面接を受ける」といった悪用事例も多数報告されています。そんな中、NVIDIAがひっそりと公開していた映像補間AI「Implicit Warping」が高品質なディープフェイク生成に使えるとして話題になっています。 Implicit Warping for Animation with Image Sets https://deepimagination.cc/implicit_warping/ [2210.01794] Implicit Warping for Animation with Image Sets https://doi.org/

                                                                NVIDIAが超高性能ディープフェイク生成AI「Implicit Warping」をひっそり開発している
                                                              • FGO StyleGAN: This Heroic Spirit Doesn’t Exist

                                                                When I first saw Nvidia’s StyleGAN’s results I felt like it looked like a bunch of black magic. I am not as experienced in the area of GANs as other parts of deep learning, this lack of experience and the thought that I really lacked the GPU firepower to train up my own StyleGAN stopped me from jumping in sooner. For scale, on the StyleGAN github Nvidia lists the GPU specifications, basically sayi

                                                                  FGO StyleGAN: This Heroic Spirit Doesn’t Exist
                                                                • NVIDIAのクラウドゲーミング「GeForce NOW」に「最大2分」の動画広告が流れる仕組みが2024年3月5日からスタート

                                                                  NVIDIAのクラウドゲーミングサービス「GeForce Now」のフリープランにおいて、接続待機中に最大2分の動画広告が流れる予定であることがわかりました。この仕組みは2024年3月5日から適用されます。 Nvidia’s free-tier GeForce Now will soon show ads while you’re waiting to play - The Verge https://www.theverge.com/2024/2/26/24084338/nvidia-geforce-now-ads-free-tier NVIDIA GeForce Now gets pre-roll ads for free users https://www.engadget.com/nvidia-geforce-now-gets-pre-roll-ads-for-free-users

                                                                    NVIDIAのクラウドゲーミング「GeForce NOW」に「最大2分」の動画広告が流れる仕組みが2024年3月5日からスタート
                                                                  • Linus Torvalds Doesn't Recommend Using ZFS On Linux - Phoronix

                                                                    Linus Torvalds Doesn't Recommend Using ZFS On Linux Written by Michael Larabel in Linux Storage on 9 January 2020 at 04:49 PM EST. 255 Comments Linux kernel creator Linus Torvalds doesn't recommend using ZFS On Linux at least until Oracle were to re-license the code to make it friendly for mainline inclusion. But even then he doesn't seem turned on by the ZFS features or general performance. Derai

                                                                      Linus Torvalds Doesn't Recommend Using ZFS On Linux - Phoronix
                                                                    • NVIDIAの高性能グラボは複雑なパスワードも短時間で突破可能

                                                                      セキュリティ企業のHive Systemsは、パスワードの長さや複雑さによって強度がどれだけ変わるのかをまとめたパスワードテーブルを毎年発表しています。さらに2024年には、複数のグラフィックボードでパスワードの解読にどれだけの時間がかかるかを調査した結果が発表されました。 Are Your Passwords in the Green? https://www.hivesystems.com/blog/are-your-passwords-in-the-green Nvidia's flagship gaming GPU can crack complex passwords in under an hour | Tom's Hardware https://www.tomshardware.com/pc-components/gpus/nvidias-flagship-gaming-g

                                                                        NVIDIAの高性能グラボは複雑なパスワードも短時間で突破可能
                                                                      • Using PyTorch + NumPy? You're making a mistake.

                                                                        Update: The problem is now fixed in Pytorch but can still happen in tensorflow-keras. Discussion on reddit. Bugs in ML code are notoriously hard to fix - they don’t cause compile errors but silently regress accuracy. Once you have endured the pain and fixed one of these, the lesson is forever etched into your brain, right? Wrong. Recently, an old foe made a comeback - a familiar bug bit me again!

                                                                        • Patterns for Building LLM-based Systems & Products

                                                                          Patterns for Building LLM-based Systems & Products [ llm engineering production 🔥 ] · 66 min read Discussions on HackerNews, Twitter, and LinkedIn “There is a large class of problems that are easy to imagine and build demos for, but extremely hard to make products out of. For example, self-driving: It’s easy to demo a car self-driving around a block, but making it into a product takes a decade.”

                                                                            Patterns for Building LLM-based Systems & Products
                                                                          • 今やBlackBerryの主力事業に、下克上を果たしたRTOS「QNX Neutrino」

                                                                            「QNX Neutrino」も結構長い歴史を持つリアルタイムOS(RTOS)である。もっとも、長い歴史を持つということは、いろいろな会社の事情に振り回されてきたということとニアリーイコールでもある。 ⇒連載記事「リアルタイムOS列伝」バックナンバー カナダの“カナタ”で創業 QNX Neutrinoは1980年、カナダのウォータールー大学の学生だったGordon Bell氏とDan Dodge氏により開発された。ちなみにBell氏は、DECでPDPやVAXの開発にも関わり、ACMのゴードンベル賞(HPCの分野で画期的な成果に対して贈られる賞。別名スパコン界のノーベル賞)の名前の由来となったGordon Bell氏とは同姓同名の別人である。 Bell氏とDodge氏は計算機学科でRTOSについて学んでおり、自分たちでもマイクロカーネルベースのRTOSを作ってみた。この試しに作ったRTOSの完

                                                                              今やBlackBerryの主力事業に、下克上を果たしたRTOS「QNX Neutrino」
                                                                            • NVIDIAのマイニング性能リミッターが回避されたという情報はリミッター対象外の仮想通貨を用いた誤報か

                                                                              NVIDIAが2021年2月下旬に発売したGPU「GeForce RTX 3060」をはじめとする「GeForce RTX 30」シリーズには、暗号資産(仮想通貨)・イーサリアムのマイニングを検知してハッシュレート(マイニング速度)を制限し、マイニング効率を最大で50%減少させるリミッターが搭載されています。 このリミッターを回避する方法が見つかったらしいとの情報が出回っていますが、一方で、リミッター対象であるイーサリアムのマイニング以外での結果が出ているだけで、リミッター自体が外れたわけではないとの指摘が出ています。 Chinese Cryptocurrency Miners Allegedly Bypass NVIDIA's GeForce RTX 3060 Hash Rate Limiter, Delivers Up To 50 MH/s https://wccftech.com/c

                                                                                NVIDIAのマイニング性能リミッターが回避されたという情報はリミッター対象外の仮想通貨を用いた誤報か
                                                                              • NVIDIAが価格5万2800円からのミドルレンジGPU「GeForce RTX 4060 Ti」「GeForce RTX 4060」を発表

                                                                                NVIDIAがAda Lovelaceアーキテクチャ採用でRTX 40シリーズのミドルレンジクラスとなるGPU「GeForce RTX 4060 Ti」および「GeForce RTX 4060」を発表しました。 GeForce RTX 4060 Ti & 4060 グラフィックス カード | NVIDIA https://www.nvidia.com/ja-jp/geforce/graphics-cards/40-series/rtx-4060-4060ti/ GeForce RTX 4060 Family Is Here: NVIDIA’s Revolutionary Ada Lovelace Architecture Comes to Core Gamers Everywhere, Starting at $299 | NVIDIA Newsroom https://nvidianew

                                                                                  NVIDIAが価格5万2800円からのミドルレンジGPU「GeForce RTX 4060 Ti」「GeForce RTX 4060」を発表
                                                                                • Freedom and Portability

                                                                                  The economic advantages of portability are very great. In many segments of the computer industry, the dominant cost is development and maintenance of software. Dennis Ritchie and Stephen Johnson 1978 … many insist that C is the programming language and that it will last forever. Byte Magazine 1983 The August 1983 issue of Byte Magazine devoted its cover, and a large part of its editorial content,

                                                                                    Freedom and Portability