【シリコンバレー=清水孝輔】カナダのトロント大学のジェフリー・ヒントン名誉教授がノーベル物理学賞を受賞する。ヒントン氏の2012年の研究成果は世界を驚かせ、米エヌビディアの半導体で大量のデータを学習する人工知能(AI)開発の潮流をつくった。「AIの父」の功績の裏には、米オープンAI元幹部ら弟子たちの存在がある。【関連記事】2012年、AIの「ビッグバン」1月、雪が積もる極寒のカナダ・トロント
米OpenAIは7月17日(現地時間)、LLMの出力の信頼性と透明性を向上させるための新しいトレーニング方法を紹介する論文(PDF)を公開した。AIによる回答が本当に正しいのか、人間が理解しやすくするための取り組みだ。 このトレーニング方法は、「Prover-Verifier Games(証明者ー検証者ゲーム)」と」呼ばれるゲーム理論に基づいている。おおまかに説明すると、賢い「証明者」と証明者よりはるかに能力の低い「検証者」を用意し、証明者に問題を解決させ、その解決方法を検証者にも理解できるように説明させる。このトレーニングを繰り返すことで、証明者は説明能力が向上し、検証者は解決方法の問題点を見つける能力が向上する。 論文では小学校の算数の回答を判断する設定でトレーニングする方法を紹介している。 論文では、この方法によって、3つの成果が得られたとしている。 まず、読みやすさとパフォーマンス
OpenAI、ChatGPTの望ましい動作を規定する「モデル仕様」を公開 OpenAIは2024年5月8日、AIモデルの動作に関する議論を深めるため、OpenAI APIとChatGPTにおけるAIモデルの望ましい動作を規定する「モデル仕様(Model Spec)」の最初のドラフトを公開した。 Introducing the Model Spec | OpenAI To deepen the public conversation about how AI models should behave, we’re sharing our Model Spec — our approach to shaping desired model behavior. https://t.co/RJBRwrcTtQ — OpenAI (@OpenAI) May 8, 2024 モデル仕様は、望ま
To deepen the public conversation about how AI models should behave, we’re sharing the Model Spec, our approach to shaping desired model behavior. We are sharing a first draft of the Model Spec, a new document that specifies how we want our models to behave in the OpenAI API and ChatGPT. We’re doing this because we think it’s important for people to be able to understand and discuss the practical
第12回は、OpenAIが公開しているガイドをベースに、ファインチューニングを行う手順とポイントについて解説します。 はじめに 前回は企業データを追加学習する3つの方法のうち、コンテキスト学習とファインチューニングについて解説しました。今回は、ファインチューニングのやり方について解説します。 ファインチューニングを行う手順を学ぶことで、ファインチューニングと言えども機械学習の基本に沿って学習すること、そのため学習データ(トレーニングサンプル)の準備が大変なこと、でもうまく学習すれば良い結果が得られそうなことなども理解していただければと思います。 実施前にプロンプトを工夫する OpenAIは、ファインチューニング可能なモデル(Gpt-3.5 turbo)だけでなく、ファインチューニングを行うためのSDKやAPI、UIツール、実施ガイドなどを提供してくれています(至れり尽くせりですね)。しかし
テラーノベルで機械学習を中心に担当している川尻です。みなさんも大量のデータを特徴抽出してみたけど、どう使ったらいいかわからないなぁということありますよね。とりあえずどういうデータなのか雰囲気だけでもみるために、簡単な可視化から入るかと思います。以前にもグラフデータの可視化について記事を書きました。 テラーノベルでは小説投稿アプリを作っており、OpenAI Embedding APIを使って全作品の特徴量を出しているデータベースがあります。今回はこのデータを例にして、UMAPという可視化に便利な次元削減手法の使い方を紹介します。 UMAPとは UMAPというのは非線形の次元削減手法で、特徴は次元数やデータ量に対してほとんど一定の計算時間で済むということです。LLMなどの事前学習モデルでよく扱うような1,000次元を超えるような特徴量でも全く問題なく動きます。さらに、Pythonでとても使いや
[ChatGPT Hack] Code Interpreter で、データのファイルをアップロードしただけで、機械学習のモデル作成できた。シンプルなものだけど機械学習MachineLearningChatGPTCodeInterpreter 背景 Code Interpreter の Plugin が大きな可能性を持っています。現状のアルファ版でも、比較的シンプルなタスクはこなせてしまいます。 私の少ない経験からですが。 Deep Learning のネットワークを組めるような高い技術力は確かに役に立ちます。それでも、実社会・ビジネスの現場では、意外とシンプルな機械学習や深層学習のモデルで十二分効果・価値を発揮する場合も多いんです。 今回は機械学習のモデルの作成と、そのモデルファイルのダウンロードを試しましょう。 注意事項 注意点: ChatGPT の 有料プランが必要 Python のコ
Build Japanで発表した内容です。 主にLLMの開発上の新しいトレンド説明。 関連する Azure AI のアップデートを挟みました。 (デモ動画は動きませんので悪しからず…) 1. Plugin GPT の本質を考える 「GPT によるツールとの接続」というコンセプトを世に示した Bing Chat ツール連携で爆発的に広がる GPT の可能性 AIがサービス利用を仲介する未来像 Azure OpenAI Service プラグイン Azure OpenAI Service on your data on your data が解決する独自データ導入における課題 2. Prompt Engineering GPT の言語生成過程を改めて確認する GPT の推論時の影響要素 Fine tuning と Prompt Engineering との�位置づけ ユーザサイドの Promp
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く