NVIDIAによる買収、失敗すればArmは業績低迷か:両社が英国・競争市場庁に反論(1/2 ページ) 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 29ページに及ぶこの文書は、英国政府が2021年11月に英国の競争市場庁(CMA:Competition and Markets Authority)にさらなる調査の実施を指示したことに対し、Arm/NVIDIAが
EDIT: はてなブックマークのエントリ だと ABCD (BCD加算) や DJNZ (ループ命令) が人気なようだ(Wikipediaしばりなもんで...) 。6502によくある JSR / RET が対応しないコーディングや、Z80で PUSH を目的外利用するような例は入れても良かったのかも。 DOOMの例を追加。 Wikipediaに個別ページができちゃうくらい有名な命令のメモ。 きっかけ このソースコードは現在の倫理上一般的でない表現が使われている箇所については当時の内容を尊重して掲載しています — ほうめい マイコンで遊んでばっかりで (@houmei) July 14, 2020 を受けて、 6809の命令のことですね。わかります >RT — Miura Hideki (@miura1729) July 14, 2020 1つのCPU命令が独立したWikipediaのページ
Microsoft、AIの影響で年間水消費量がプール2,000個分に2023.09.14 20:0040,681 Angely Mercado - Gizmodo US [原文] ( そうこ ) AI台頭によって、AIがとんでもないエネルギー喰いだということが明らかになりました。電力はもちろん、炭素排出量も多く、環境への不可は仮想通貨を超えるとも言われており、AI活用とともにエネルギー効率化も求められています。 その中でも、消費量が特にに大きいのが水。 Microsoftの環境に関する報告書が公開Microsoft(マイクロソフト)が毎年公開している環境に関する報告書、2022年版がアップされました。 2021年の水使用料は477万2890トン。これが2022年には639万9415トンにまでアップ。実にたった1年で約30%も使用量が増加。オリンピックのプールでいうと、この増加量は2,000
米NVIDIAは11月22日(米国時間)、風景画像を自動生成する同社のAI技術「GauGAN」(ゴーギャン)の新モデルである「GauGAN 2」を発表した。従来はベタ塗りからリアルな画像を生成できていたが、GauGAN 2では文字情報を与えるだけで画像を生成できるようになった。 同社が公開している動画では「ocean waves hitting rocks on the beach」(ビーチの岩に当たる波)と入力する過程が収められており、「ocean」の段階では湾を俯瞰した画像が作られ、「waves」まで入れると波が現れ、「hitting rocks」まで入れた段階では波打ち際の画像が生成されている。
Ryzen 7 3700Xを使用してオールM.2 SSDの質実剛健系PCを組みました。 パーツ構成やそのパーツを選んだ動機などの話をします。 パソコンの買い替え 個人的な動機とか読者の方は興味ないでしょうから手短に。 パソコンを買い替えたいと思いました。 CPUなんてSandyおじさんですらないAMD FXシリーズだし、M.2とか使えないし、グラボもそろそろ力不足……CPU的なパワー不足は感じていなかったけど、足回りの方が気になり始めてきた。 それに今Zen2 Ryzenめっちゃ流行ってるし良さそうだし欲しくない?欲しい!よし、買い替えだ!!という具合。 というわけでPCを新たに組み立てることに。 シンプルに行こう 今回のPCで重視した方針は「シンプル」です。 前に使っていたPCではグラボ2枚刺し、SSD+HDD、回転数なんて一度も調整しなかったファンコン、DL販売化の流れで使われなくなっ
はじめに こんにちは。富士通株式会社ICTシステム研究所のMLPerf HPC五人衆です。先週、国際学会SC’21 において、理化学研究所/富士通が共同で開発した新しいスーパーコンピュータ(スパコン)「富岳」がスパコンランキングで4期連続の4冠(TOP500, HPCG, HPL-AI, Graph500)を獲得しましたが、同会議で発表された、実際のディープラーニング(DL)学習処理に特化したMLPerfTM HPC ベンチマークにおいても世界一を獲得しました。 本ブログでは、このMLPerf HPCの一つのアプリケーションであるCosmoFlowの学習を「富岳」で大規模に行い世界一となった、その挑戦についてお話させてもらいます。 はじめに 背景 MLPerf HPCって何?(白幡) CosmoFlowって何?(田渕) 「富岳」って何?(田渕) プロセッサ 通信ネットワーク ストレージ 準
我々が住んでいる現実世界には時間が流れていますよね。もし、この時間が止まったらどうなるでしょうか。 そう、みんなピタっと止まって動かなくなるでしょう。そういう「時間が止まる」系の物語は漫画やアニメの世界では良く用いられるモチーフですが、実際、時間が止まった世界を見たことがある人はいません。 なぜなら現実世界では常に時間が流れていますし、仮に止まった瞬間があったとしても、我々にその事象を知覚することはできません。知覚にも時間が必要だからです。 それはそれとして、我々の現実世界の時間についてもう少し深く考えてみます。 時間は1分が60秒、1時間は60分…みたいな感じで捉えられていますよね。実生活で、よく用いられる時間の最小単位は1秒でしょうか。「そんな簡単なこと、”秒”で終わらせられるぜ」と強がったことのある人、いっぱいいると思います。 ただ、ストップウォッチを手に取って、徒競走のタイムを計測
Nintendo Switch 2の詳細スペックが判明。GPU内蔵のCUDAコアは1280基、CPUはArm A78を8コア搭載 Nintendo Switch 2についてはGamescom2023にて関係者内でデモ機が披露され、そこでUnreal Engine 5などが動作しているデモが行われたという噂が出るなど、発売に向けて着々と開発が進められているためかここ最近はリーク情報が多く出始めています。 今回はこの中でも今まで明らかにされていたAmpereアーキテクチャーのGPUを搭載すると言う情報に加えて、このGPUに内蔵されるCUDAコア数やCPUのアーキテクチャーとコア数、そして製造プロセスに関する情報が登場しました。 Samsung Foundry 7LPH(8-nanometer improved version) — Revegnus (@Tech_Reve) September
近年、ChatGPTを始めとする大規模言語モデル*1に大きな注目が集まっておりますが、これらは膨大な知識をモデル内に有することで高い言語処理性能を示す一方、学習に要するエネルギーは、原発1基1時間分の電力量が必要*2とも言われており、また、運用には大規模なGPUクラスタを必要とし様々な業界に特化するためのチューニングや推論にかかるコストが膨大であることから、サステナビリティおよび企業が学習環境を準備するための経済的負担面で課題があります。 NTTでは、これらの課題を解決する研究開発を進め、今回、軽量でありながら世界トップレベルの日本語処理性能を持つ大規模言語モデル「tsuzumi*2」を開発しました。「tsuzumi」のパラメタサイズは6~70億と軽量であるため、市中のクラウド提供型LLMの課題である学習やチューニングに必要となるコストを低減します。「tsuzumi」は英語と日本語に対応し
3月といえば新生活。これから始まる大学生活や一人暮らしなどで、初めてノートパソコンが必要になったり新調したりする方も少なくないでしょう。 一筋縄ではいかないノートパソコン選び。その選び方を解説していきます。 自分の用途を考えよう! 筆者が強い信条として持っているのが、「ノートパソコンはどこに金をかけたいかで選べ!」というものです。 デスクトップPCであれば、ミニPCやトレーディング用PCなどわずかな例外もありますが、おおむね価格と処理性能の相関が成り立ちます。スマートフォンもブランドや愛国心を売りにする製品など例外はありますが、だいたい同じですよね。 一方、ノートパソコンで考慮すべきはメモリ・CPUなどの単純な処理性能だけではありません。例えばゲームや動画編集をするならGPU性能が、外出先での使用がメインなら可搬性や耐久性、そして駆動時間の長さなどが必要となります。限られたポイント(=資金
Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers
世界的な半導体不足が続く中、毎日のように半導体関連のニュースが話題となっていますが、半導体関連企業は「ファウンドリ」や「ファブレス」といった分かりづらいジャンル名で呼ばれることが多く、どの企業がどんな役割を果たしているのかは分かりづらいものです。それらの企業の役割について、半導体関連情報をまとめているウェブサイト・SemiWikiが解説しています。 The Semiconductor Ecosystem Explained - SemiWiki https://semiwiki.com/semiconductor-manufacturers/307494-the-semiconductor-ecosystem-explained/ 半導体はスマートフォンやPCの計算処理チップやエアコンの温度センサーなど、電化製品の部品として広く使われています。そんな半導体の生産には設計・生産・材料となる物
はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 大規模言語モデル(Large Language Model: LLM)への注目がGPT-4のリリース以降高まっていますが、LLMを作るための知見は十分に共有されているとは言い難いと個人的に感じています。 Turingでは、Vision and Language, Video and Languageなどのマルチモーダルなモデルの研究開発を行っている一環として、Megatron-DeepSpeed, GPT-NeoXなどを用いて数十Bのモデルの学習を行う知見を蓄積しています。今回はLLMの事前学習を行う際に候補となるMegatron-DeepSpeedを用いてGPT-2-7B(6.6B)の学習をどのように行うのかについて解説します。 分散並列学習がどのよう
(最新SSD IOはPCIe x4でした。ご指摘ありがとうございます。) はじめに どの処理で律速しているか調べる 各処理の速度改善方法 データ読み込み速度の改善 データ前処理速度の改善 GPU処理速度の改善 コンピューティングについての他記事 はじめに Kaggle Advent Calendar 2022 8日目です。 突然ですが、あなたはDNN学習時にどの処理で学習速度が律速しているか把握してますか? DNN学習には図に示すように大きく3つの要素があります: (SSDからの)データ読み込み (CPUによる)データ前処理 (GPUによる)DNN計算 学習時のデータの流れとしては SSDからデータが読み込まれ、CPUに送られる(SATA or PCIe) CPUにてaugmentationや正規化などの前処理が行われ、GPUにデータが送られる(PCIe x16) GPUにてDNNの計算・
テキストから画像を生成できるオープンソースのMac用Stable Diffusionクライアント「Diffusers」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍になっています。詳細は以下から。 DiffusersはiPhone用カメラアプリ「Camera+」などを開発するPedro Cuencaさんがオープンソースで開発していたStable Diffusionアプリで、現在はCuencaさんが学習済みの機械学習モデルやデータセットなどを公開/共有するHugging Face HubのMLエンジニアになられたことで、Hugging Faceの公式Macクライアントとなっていますが、このDiffusersのバージョン1.1アップデートがリリースされています。 Generate images up to twice as fast!
著書に『宇宙世紀の政治経済学』(宝島社)、『ガンダムと日本人』(文春新書)、『教養としてのゲーム史』(ちくま新書)、『PS3はなぜ失敗したのか』(晋遊舎)、共著に『超クソゲー2』『超アーケード』『超ファミコン』『PCエンジン大全』(以上、太田出版)、『ゲーム制作 現場の新戦略 企画と運営のノウハウ』(MdN)など。 Nintendo Switchも発売から7年目を迎え、そろそろライフサイクルの終わりに差し掛かりつつあります。 そんななか、後継モデル(以下「スイッチ2」)の未確認情報も相次いでいましたが、今度は「任天堂が実際に開発者にスイッチ2の技術デモを見せた」と複数の人物が証言しています。 いずれも、先月下旬にドイツ・ケルンで開催された大型ゲームイベントgamescom 2023での証言です。 まずはイベント終了直後、マイクロソフト関連で信頼性の高いWindows Centralの編集者
こんにちは。Turing株式会社の機械学習チームでインターンをしている九州大学修士1年の岩政(@colum2131)です。 Turingは完全自動運転EVの開発をするスタートアップです。 自動運転技術において、カメラやセンサ情報は正確な制御をする上で不可欠な要素である一方、自然言語やマルチモーダルな処理が必要となる状況もしばしば存在します。特に完全自動運転車においては、音声認識によってドライバーの音声命令を認識し、リアルタイムで適切な制御を行うことや、複雑な交通状況の背景にあるコンテクストを理解させるといった要求が出てきます。そのために、「基盤モデル」と呼ばれるような、自然言語処理を含む大規模モデルの学習が必要になってくると、私たちは考えています。 そこで本記事では、言語モデルの発展の流れとTuringが目指す基盤モデルの開発について紹介します! 1. 言語モデルとは? 近年の言語処理モデ
Apple独自開発のSoCであるM1チップを搭載したMacでの動作を目指すLinuxディストリビューション・Asahi Linuxの開発に携わる開発者兼VTuberの朝日リナ氏が、M1 GPUのドライバー開発についてAsahi Linux公式ブログで解説しています。 Tales of the M1 GPU - Asahi Linux https://asahilinux.org/2022/11/tales-of-the-m1-gpu/ リナ氏によれば、近年のGPUはほぼすべて、以下のようなメインコンポーネントで構成されているとのこと。 ・ユーザー定義のプログラムを実行して三角形(頂点データ)とピクセル(フラグメントデータ)を処理する「シェーダーコア」 ・三角形を画面上のピクセルに変換する「ラスタライズユニット」「テクスチャサンプラー」「レンダー出力ユニット」、およびシェーダーと一緒に動作す
BIOS、更新してますか?2020.07.03 22:0070,742 David Nield - Gizmodo US [原文] ( 松浦悦子/Word Connection JAPAN ) えっ、「ばいおす」ってなんですか? そう思う人もいるかもしれませんが、ざっくり言うとPC(Windows機)の基本中の基本となるソフトウェアのことです。米GizmodoのDavid Nieldが基本的なところから解説してくれています。その性質上、実際に試される際は自己責任でお願いいたします。 BIOSとはBIOS(Basic Input/Output System)はコンピューターに搭載されている最も基本的なソフトウェア。コンピューターの電源を入れると最初に起動し、システムの構成要素(コンポーネント)がすべて動作しているか、正しい場所にあるかをチェックし、メインのOSをロードします。PCのスムーズな
Unity Technologiesがゲームの最適化について解説する電子書籍を無料で公開 メモリやGPU管理、ボトルネック特定の方法などを解説したPDF資料 モバイル向けとコンソール/PC向けの2冊があり、各デバイス向け解説も Unity Technologiesは2023年12月6日、Unityにおけるゲームの最適化を解説する2冊の電子書籍を公開しました。 公開されたのは、モバイル向け開発ガイド『OPTIMIZE YOUR MOBILE GAME PERFORMANCE』と、コンソール/PC向け開発ガイド『OPTIMIZE YOUR GAME PERFORMANCE FOR CONSOLES AND PC』です。 各ガイドには、ボトルネックの特定方法やメモリ管理、プログラミングやアセット管理など、さまざまなカテゴリーにおける最適化が解説されています。また、各ガイドそれぞれに、対象デバイス
開発者向けの主要プラットフォームであり続けるために LinuxのGUIアプリへの対応が必要? Microsoftは、WSL2(Windows Subsystem for Linux 2)でLinux GUIアプリケーションに対応することを計画している。以下の動画は昨年9月に開催されたXDC 2020のセッションのものだ。 上のWSLGのデモビデオより。GIMPや裏のウィンドウのタイトルバーはLinux GUIアプリケーションのもので、Windows 10とは明らかに違う。ただ、GIMPなどのアイコンがタスクバーに表示されていることから、Windowsのデスクトップのウィンドウになっていることがわかる この改良はかなり大きなものと言える。以前紹介したWSL2のGPUコンピューティングへの対応も(「Windows 10のWSL2からGPUが使えるようになった」)、WSL2内でGPUによる描画(
普段、メインで使っているPCがMacBook Air 2018なので、さすがにDockerでコンテナをたくさん立ち上げたまま、ブラウザで調べ物する、みたいな使い方が辛くなってきた。夏場はファンも凄い回っちゃうし、レスポンスはすごく悪くなるし。 メインPCを買い替えようかとも思ったけど、ブラウザを使うくらいの作業なら特に不満は無い。それにそもそもメインPCでLinuxが動いている必然性も無いし、画面も要らないのでサブPCとしてデスクトップPCを用意して、Linuxをインストールする方に方向に転換。 部屋に大きなデスクトップが有るとサイズ的に圧迫感が有るし、複数のマシンのファンの音が同時に鳴るのは苦手なので(データセンタではないので...)、作業している場所から離れた所の隙間に設置できるような、1リットルサイズの小型PCを探すことにした。 Amazonとかで探すと色々と出てくるけど、それなりの
CyberAgentが日本語LLMを公開していたので、とりあえず動かしてみました。 サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供― | 株式会社サイバーエージェント モデルは次のように6サイズ提供されています。 ※ Rinna社も同時に新しいモデルを出したので試しています。 Rinnaの新しい3Bモデルを試してみる - きしだのHatena open-calm-small(160M) まずはopen-calm-small。160Mパラメータです。 このあたりは動作確認用なので、内容は気にしない。 GPUメモリは1.3GBくらいの消費です。 open-calm-medium(400M) 次にopen-calm-medium。400Mパラメータです。 このへんも細かいことは気にしないけど、なんかま
Preferred Networks(PFN)は深層学習などの最先端の技術を最短路で実用化することで、これまで解決が困難であった現実世界の課題解決を目指しています。コンピュータビジョン、自然言語処理、音声認識、ロボティクス、コンパイラ、分散処理、専用ハードウェア、バイオインフォマティクス、ケモインフォマティクスといった幅広い分野で研究開発を行っており、それを支えているのが Kubernetes を用いて構築しているオンプレミス/ベアメタルの GPU クラスタです。 本セッションでは、PFN が Kubernetes を用いてクラスタを運用するなかでどのような障害が起きるのかを紹介し、また障害対応をどのように自動化しているのかを具体的に使用/開発したソフトウェアを含めてご紹介します。また Kubernetes クラスタの管理、アップグレードの自動化にも取り組んでおり、それを実現する Clus
この記事を書いたところ、たくさんの方から「リモートデスクトップを使えばいいしゃん」とツッコミを受けたので、比較してみました katsumakazuyo.hatenablog.com 結論から言いますと私の14インチのノートパソコンだと画面が、NMKDのGUIの画面が小さすぎてちょっといろいろ工夫が必要でした。デフォルトだと、こんな感じ。 リモートデスクトップの画面が当たり前ですが、通常のノートより一回り小さくて、さらにその内周にNMKDがはいるので、フォントの文字が極小サイズになってしまいます。 デスクトップ側の画面を175%とかにしたら、ギリいける感じでしたので、たぶん、そういった工夫が必要みたいです。 あと、Promptに文字を入れるのも、日本語モードになっていると、キーボード入力受け付けないみたいです。これ、気をつけないと。 あと、超当たり前ですが、できあがったファイルもリモート側に
GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art
by Expanscape 近年では軽量かつ高性能なノートPCの普及によって外出先や移動中でもPC作業がしやすくなっていますが、オフィスや自宅でマルチディスプレイを使っている人にとっては、1つの画面しかないノートPCでの作業はやりにくいもの。そこでイギリスのExpanscapeという企業が、4Kディスプレイを4枚搭載した驚異の7画面ノートPC「Aurora 7」を発表しました。 Expanscape | The story of the Aurora 7 https://expanscape.com/the-aurora-7-prototype/the-story-of-the-aurora-7/ This Obscene 7-Screen Laptop Only Has 1-Hour Battery Life https://gizmodo.com/its-no-surprise-thi
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く