エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
生成AI/LLMの開発を加速するGPUクラスタ Vol.1【前編】マルチノードGPUシステムとインターコネクト|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
生成AI/LLMの開発を加速するGPUクラスタ Vol.1【前編】マルチノードGPUシステムとインターコネクト|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC
大規模言語モデルの開発機運が高まる 2022年11月30日にOpenAI社が「ChatGPT」(図1)を公開したことをき... 大規模言語モデルの開発機運が高まる 2022年11月30日にOpenAI社が「ChatGPT」(図1)を公開したことをきっかけに、AIを取り巻く状況は大きく変わりました。それまでのAIとは一線を画すChatGPTの能力はさまざまなメディアで取り上げられ、「生成AI」という専門用語も一般的に使われるようになり、企業や行政機関でChatGPTを活用する動きも広がるなど、社会に大きな影響を与えています。 ChatGPTを実現しているのがニューラルネットワークの一種である「transformer」で開発された「大規模言語モデル」(LLM:Large Language Model)です。学習に大量のテキストを使うことに加えて、パラメータ数(重みの次元数)をきわめて大きく設定しているのが従来の言語モデルとの違いです。ちなみに、ChatGPTに使われている大規模言語モデル「GPT-3.5」のパラメータ数