エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
東芝と理研、利用環境にあわせてAIの性能と演算量を学習後に調整可能な「スケーラブルAI技術」を開発 | Biz/Zine
東芝と理化学研究所(以下、理研)は、学習済みのAIを、できるだけ性能を落とさず、演算量が異なる様々... 東芝と理化学研究所(以下、理研)は、学習済みのAIを、できるだけ性能を落とさず、演算量が異なる様々なシステムに展開することを可能にする学習方法であるスケーラブルAIを開発した。 東芝と理研は、性能低下を抑えて演算量を調整可能なスケーラブルAI技術を開発した。独自の深層学習技術より、学習済みのAIがその性能を維持しながら様々な処理能力のプロセッサで動作可能になり、利用用途の異なる多様なシステムに向けたAIの開発の効率化が期待できるという。 この技術は、元となるフルサイズの深層ニューラルネットワーク(フルサイズDNN)において、各層の重みを表す行列を、なるべく誤差が出ないように近似した小さな行列に分解して演算量を削減したコンパクトDNNを用いる。コンパクトDNNを作る際、従来技術は、単純にすべての層で行列の一部を一律に削除して演算量を削減するが、この技術は、重要な情報が多い層の行列をできるだけ
2021/08/23 リンク