理化学研究所(理研)脳神経科学研究センター統計数理研究ユニットの松⽥孟留ユニットリーダーらの国際共同研究チームは、データをもとに未知の量を推定する統計学の問題において、ベクトル[1]の推定で知られている古典的な結果を行列[2]の推定に一般化しました。 本研究成果は、データの背後に潜む構造を捉えて解析する統計手法の開発に貢献すると期待できます。 データをもとに未知の量を推定することは統計学の基本的な問題であり、さまざまな推定方法が研究されています。ベクトルの推定において、標準的な推定方法である最尤(さいゆう)推定[3]よりも精度の良い「縮小推定[4]」という方法が知られています。一方で、複数の変数を同時に解析する状況では未知の量が行列の構造を持ちますが、行列の縮小推定についてはベクトルに比べて未解明な点が多く残されています。 今回、国際共同研究チームは「行列二乗損失[5]」と「行列優調和性[
はじめに 前回の記事でwganおよび改良型wgan(wgan-gp)の説明をおこないました。 今回はkerasでの実装のポイントと生成結果について紹介します。 参考にしたコードは以下 tjwei/GANotebooks discriminatorの学習のためのモデル定義 discriminatorの学習のための全体構造(discriminator_with_own_loss)を実装していきます。 WGAN-gpにおける学習では、識別でよく使われる形式 (y_true, y_pred)、つまり、「正解ラベルと予想結果を付き合わせる」といった形式を用いません。binary_cross_entropyなどの既に定義された関数を使うのではなく、損失関数を独自に定義する必要があります。 損失関数を定義して使用する 損失関数を独自に定義し、optimizerに渡して学習させていく手順は以下です。 mo
はじめに Microsoftも AI Chip (Maia 100) と CPU (Cobalt 100) を発表しましたね。下記は Microsoft からのMaia AI Chip と Cobalt CPU の発表内容です。 news.microsoft.com Youtube : AI Infrastructure: Satya Nadella at Microsoft Ignite 2023 Google : TPU v4/v5e AWS : Trainium & Inferentia2 Meta : MTIA と既に発表していましたが、Microsoftも発表しましたね。 Maia 100 == Athena Maia 100 下記の写真が Maia 100 の写真、上記のMicrosoftの記事から説明のために引用します。 HBM が 4個載っています。 下記の写真が Maia
This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed. Find sources: "Gelfond's constant" – news · newspapers · books · scholar · JSTOR (October 2022) (Learn how and when to remove this message) In mathematics, Gelfond's constant, named after Aleksandr Gelfond, is eπ, that
今日は 3/14 、すなわち 「円周率の日」 ということで、円周率の一風変わった近似式を紹介したいと思います。 今回紹介したい式はこちらです: ここで、 は自然対数です。 「なんじゃこりゃ」というような式ですが、実際に計算してみるとその精度の高さに驚きます。 Google電卓を使うと、簡単に計算できるのでやってみましょう。Googleの検索窓に数式を入れると、電卓としてその計算を実行してくれます。 以下の式を検索窓に打ち込んでみてください。 ln(640320^3+744)/sqrt(163)この "ln" というのは自然対数を表す記号で、"sqrt" はルートの記号ですね。 それでは実行してみましょう。 計算結果は 3.14159265359です!! なんと、小数点以下10桁 まで一致しています。10桁というのはGoogle電卓の限界によるもので、実際はもっと先の桁まで一致します。 すご
AMPを使うとNaNに出くわしてうまく学習できない場合があったので,そのための備忘録と,AMP自体のまとめ.あまり検索してもでてこない注意点があったので,参考になればうれしいです. Averaged Mixed Precision(AMP)とは PyTorch中の一部の計算を,通常float32で計算するところ,float16で計算して,高速化するための技術です.そんなことやると性能が下がるのでは?という疑いもありますが,NVIDIAのページとかを見ると,あまり下がらなさそうです. 基本的には,計算も計算結果もfloat16で持ちますが,パラメタはfloat32で持つので,テスト時にfloat16でしか計算できない,ということは起こりません.(全部float16で持つこともできますが,性能の低下が起きます.) 使い方 PyTorchのドキュメントの通りにやればいいです.基本的にGPU用です
Pandasは、データ分析にPythonを使うデータサイエンティストにとって、最もよく使われているツールの1つです。 GPU データフレームのライブラリーの1つに、pandasライクなRAPIDS cuDF(cuda based Dataframes)というものがあります。 v23.10から、cuDFはpandasアクセラレータモードを提供するようになりました。 このことによって、%load_ext cudf.pandasをjupyterノートブックに追加するだけで、Pandasを150倍速く動かすことができます。 GPUが利用可能な場合、データ操作を高速化します。GPUが利用できない場合、CPUにフォールバックし高速化の程度が弱くなります。 RAPIDSのインストール 以下から、インストールするためのコードを取得できます。 今現在(2023年11月16日現在)、pipでインストールすると
Research GraphCast: AI model for faster and more accurate global weather forecasting Published 14 November 2023 Authors Remi Lam on behalf of the GraphCast team Our state-of-the-art model delivers 10-day weather predictions at unprecedented accuracy in under one minute The weather affects us all, in ways big and small. It can dictate how we dress in the morning, provide us with green energy and, i
NVIDIAが半導体設計に関する一般的な質問への回答、バグドキュメントの要約、EDAツール用スクリプトの作成など、半導体設計に関連するタスクを支援する大規模言語モデル(LLM)である「ChipNeMo」を開発した。 NVIDIAは、2023年10月29日~11月2日に米国カリフォルニア州サンフランシスコで開催された「IEEE/ACM International Conference on Computer-Aided Design(ICCAD) 2023」の基調講演で、「ChipNeMo」と呼ぶ大規模言語モデル(LLM)を発表した。NVIDIAのチーフサイエンティストを務めるBill Dally氏によると、ChipNeMoは同社のLLMフレームワーク「NeMo LLM」を内部データでトレーニングし、半導体設計に関する一般的な質問への回答、バグドキュメントの要約、EDAツール用スクリプトの作
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く