公開からわずか2カ月で利用者数が1億人を超えた対話型AI(人工知能)「ChatGPT(チャットGPT)」。どのような質問にもたちどころに流ちょうな言葉でそれらしい答えを返してくれるAIはどのように生まれ、これから世界をどう変えていくのか――。これからのビジネスや働き方を考える上で知っておきたいChatGPTのインパクトを、日経BPの専門誌記者が国内外の最前線から徹底解説した書籍『ChatGPT
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである
本章では、HTTP/3がTCPに代わって下位層で用いるQUICについて解説します。 QUICはトランスポートプロトコル QUICはトランスポートプロトコルです。QUICの説明に入る前に、トランスポートプロトコルついておさらいします。 TCP/IPの4階層モデル プロトコルは階層で役割を分担しています。TCP/IPの4階層モデルでは、アプリケーション層、トランスポート層、インターネット層、ネットワークインタフェース層に分かれます(図1)。 図1 TCP/IPの4階層モデル アプリケーション層に分類されるアプリケーションプロトコルは、クライアントやサーバで動作するアプリケーションの動作に関するデータやメッセージの通信ルールを規定します。たとえばSMTP(Simple Mail Transfer Protocol)は、メールを送信する通信ルールを規定しています。HTTPはこの層に属します。
こんにちは、SCSK株式会社の小寺崇仁です。 今回はZabbixにて検知したSNMPTrapをChatGPTに連携して、対処方法を教えてもらいたいと思います。 機能概要としては、以下となります。 1.CahtGPT用のメディアタイプ(javascript)を作成 2.トリガーアクションでメディアタイプが実行されるように設定 3.障害を検知すると、アクション(メディアタイプ)が実行され、イベントにコメントを付けます。 コメントの内容はChatGPTが考えた対処方法になります。 忙しい方はこちらからメディアタイプがダウンロード可能です。 ※拡張子をyamlにして、インポートしてご利用ください。
「Nejumi LLM リーダーボード」で評価された大規模言語モデル数が日本最大級にJGLUEデータを使ったLLM日本語評価を自動化し再現可能なジョブを公開 Weights & Biases Japan株式会社(以下、W&B Japan)は、2023年7月より大規模言語モデル(LLM)の日本語性能を評価結果のランキングを公開する「Nejumi LLM リーダーボード」(以下、Nejumiリーダーボード)を運用して来ましたが、このたび評価されたLLMモデルの数が20を超え、日本語性能評価のLLMモデルリーダーボードとしては日本最大級の規模になりました。本ランキングはオンライン上で公開されており、http://wandb.me/nejumi からアクセスすることができます。評価に使われているコードは実行可能なWandBジョブ形式で公開されており、モデルが公開された際には今後も順次評価結果が追加
本特集は国内ITサービス企業主要20社の有価証券報告書や決算資料を読み解き、売上高や収益力、成長性、平均給与など、様々な観点で比較している。上場企業が事業年度ごとに提出する有価証券報告書には、2010年3月期から年間1億円以上の報酬を受け取る役員の氏名と一人ひとりの報酬額を開示することが義務付けられている。 今回は2022年度の有価証券報告書を基に1億円以上の報酬を得ている人物を取り上げる。ただし社外取締役や監査役は除き、NECや日立製作所、富士通のようにIT以外の事業も幅広く手掛ける企業の場合は、それらの事業を担当する役員も含めた。日本オラクルは8月17日時点で2023年5月期の有価証券報告書を公開しておらず、2022年5月期の実績を参考値として掲載した。 1億円プレーヤーは計39人、日立製作所にずらり 国内ITサービス企業主要20社のうち、1億円以上の報酬を得ている役員、「1億円プレー
東京大学院工学系研究科・松尾研究室(主宰:松尾豊教授)は8月18日、日英の2カ国語に対応した100億パラメータサイズの大規模言語モデル(LLM)「Weblab-10B」を、事前学習と事後学習(ファインチューニング)により開発し、非商用ライセンスでモデルを無料公開した。 【修正履歴:2023年8月18日午後9時 当初、モデルの公開形式をオープンソースと記載していましたが、ソースコードが公開されていないなどオープンソースの定義に沿わないと思われる部分があるため記述を改めました。なお、引用部分についてはそのままにしています】 日本語だけでなく英語のデータセットも学習に用いることで学習データ量を拡張し、言語間の知識転移を行うことで日本語の精度を高めたのが特徴。 事前学習には、代表的な英語のデータセット「The Pile」と日本語のデータセット「Japanese-mC4」を使用。事後学習には、Alp
この記事では、Metaの研究である「Shepherd」について紹介します。Shepherdは、GPT-4などテキスト生成AIに対する批評家として機能するモデルです。この記事では、Shepherdの全体的な概要、技術的な側面、有効性の検証、議論、そしてその意義について紹介します。 参照論文情報 タイトル:Shepherd: A Critic for Language Model Generation 著者:Tianlu Wang et al. 所属:Meta URL:https://doi.org/10.48550/arXiv.2308.04592 GitHub:https://github.com/facebookresearch/Shepherd 関連研究 大規模言語モデルが音声をダイレクトに理解する能力を与える Metaとケンブリッジ大 AIが生成したテキストが事実なのか確認する手法「
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く