関連記事 ソフトバンク子会社、独自LLM「Sarashina」シリーズを一般公開 「24年度中に3900億パラメータLLMの構築目指す」 ソフトバンクの子会社でAIの研究開発などを手掛けるSB Intuitionsは、日本語に強い大規模言語モデル(LLM)「Sarashina」シリーズを一般公開した。 LLMが別のLLMを何度も改善 より良い回答を出す最適化手法をAIが発見する技術 Sakana AIなどが開発 AIベンチャーのSakana AIやFLAIR、英ケンブリッジ大学、オックスフォード大学に所属する研究者らは、人間の介入を最小限に抑えて新しい最適化アルゴリズムをAIによって発見する手法を提案した研究報告を発表した。 生成AIでメモアプリが進化? 自分だけのチャットAIが作れる、Google「NotebookLM」を試してみた Gemini 1.5 Pro搭載、GoogleのAIノ
海外版のピザ屋のデモ 森正弥氏:海外版のピザ屋のデモを流せればと思います。英語がちょっと流れますが、こんな感じです。 ピザ屋に店員のAIアバターがいて、お客さんが来て……お客さんがだいぶぶっきらぼうですけど(笑)、答えていくのをハンドリングして、最後はペイメントまでやるという感じでした。シナリオは一定はありますが、これは裏がLLMで、ここではNVIDIAのNeMoを使って会話をやっているので、シナリオじゃないアクションにももちろん普通に対応できます。 例えばいきなり「アジャイルって知っている?」と聞いたらきちんと答えてくれます。NeMoは英語とスペイン語がすごく得意なので、このデモは英語のデモになっていますが、日本語でも動きます。 あと、単にこれは単なるマイクロサービスのマッシュアップなので、23個ぐらいのマイクロサービスが立ち上がっていて、そんなに立ち上げるのかと思いながらやっています。
こんにちは。Gunosy R&D チームの森田です。 GPT-4o が発表されたこのタイミングで!?という向きもあるかとおもいますが、LLMの世界は一ヶ月もすればまったく違う状況になっているのが常なので、いずれは GPT-4o を超えるモデルが発表される時も来るでしょう。 Claude 3 Opus は一時期 GPT-4 のスコアを超え、 Claude 3 Haiku では GPT-3.5-Turbo のトークン当たりで約半額とコストパフォーマンスに優れていますし、 AWS Bedrock 経由で安定して利用できることもあり、Claude 3 は乗り換え先の候補の一つです。 Claude 3 への乗り換えには、点々とつまづくポイントがあるので、引っかかった所と回避方法をご紹介します。 今回紹介する内容はClaude 3に限らないものもありますので、ローカルLLM や他のLLM への乗り換え
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第33回目は、生成AI最新論文の概要5つを紹介します。 生成AI論文ピックアップ 訓練なしで複数キャラを同時に異なるプロンプトで量産できる画像生成AI「ConsiStory」、NVIDIAなどが技術開発 “あいまいな言葉”で画像を合理的に編集できるモデル「MGIE」、Appleなどが開発 Gemini UltraやGPT-4に匹敵する数学特化のオープンソース言語モデル「DeepSeekMath」 Google、探索アルゴリズムを使わずチェスのグランドマスターレベルを達成するAIモデルを発表 テキストや写真から高解像度の3Dモデルを数秒で生成するモデル「LGM」 訓練な
Google / Alphabet CEO Sundar Pichaiからのメッセージ すべてのテクノロジーの変化は、科学的探求を前進させ、人類の進歩を加速し、生活をより良くする機会となります。いま目の当たりにしている AI による変化は、私たちの人生で最も意味深いものになると確信しています。これは、これまでのモバイルやウェブへの移行よりも、はるかに大きなものになるでしょう。AI は、日常から非日常に至るまで、あらゆる場所の人々に機会を生み出す可能性を秘めています。AI は、イノベーションと経済発展の新たな波をもたらし、これまでにない規模で知識、学習、創造性、生産性を高めます。 世界中のあらゆる場所で、あらゆる人に AI を役立てられることが、私がとてもワクワクしている理由です。 私たちが AI ファーストを掲げ取り組みを開始してから 8 年近くが経ちますが、進化の速度はより一層早くなって
Amazon Connect アドベントカレンダー 2023、1日目の記事です! クラスメソッドとギークフィードさん、スカイアーチHRソリューションズ さんの有志が募ってチャレンジしている企画になります。 (アドベントカレンダーのカレンダー一覧はこちら↓) はじめに Amazon Connect + GPT-4 Turbo JSONモードで、予約内容を復唱して確認後、顧客の色々な返答を正しくヒアリングできるか検証しました。 前回、Amazon Connect + GPT-4 Turbo JSONモードで、1回の発話から下記の5つの予約情報をヒアリングするチャットボットを構築しました。 名前 電話番号 予約日 予約時間 人数 予約情報をヒアリング後、Connect側で予約内容を復唱するところまでを前回行いました。 今回、予約内容を復唱後、顧客の返答をヒアリングするチャットボットを構築しました
米OpenAIは1月25日(現地時間)、「GPT-4」が怠け者になってきたという苦情を受け、新たな「GPT-4 Turbo」(バージョンはgpt-4-0125-preview)のプレビューモデルをリリースすると発表した。 このモデルは、コード生成などのタスクで、タスクを完了しない(怠ける)ケースを減らすことを目的とする。また、英語以外のUTF-8に関連するバグの修正も含まれる。 GPT-4 Turboは、昨年11月の「OpenAI DevDay」で発表されたGPT-4の改良版モデル。2023年4月までのWebデータでトレニングされており、コンテキストウィンドウはGPT-4の4倍になる。また、テキスト分析向けとテキストと画像の両方を理解するものの2つのバージョンが用意される。 向こう数カ月中に、GTP-4 Turboの公式版を一般公開する予定としている。 同社はまた、GPT-3.5 Turb
こちらは「ChatGPT の仕組みを理解する」の後編記事になります。 前編は以下の記事をご参照ください。 tech-blog.abeja.asia 前半記事では、自然言語の基礎的な部分から GPT-3.5 まで説明していきました。GPT-3.5 の次としては、ChatGPT の元になっている InstructGPT を説明したいところなんですが、InstructGPT では強化学習の手法を使用しているので、後半記事では一旦自然言語から離れて強化学習の基礎から PPO までを説明し、最後にメインコンテンツである InstructGPT → ChatGPT を説明します。 強化学習の基礎事項 強化学習のモデル化 環境のマルコフ性とマルコフ決定過程(MDP) 価値関数 強化学習手法の分類 価値ベースの強化学習手法 方策ベースの強化学習手法と方策勾配法 アクター・クリティック手法 TRPO [Tr
11月頭に開催されたOpenAI初のデベロッパーカンファレンスDevDay。あのころは、まさかその後とんでもないドラマが待ち受けているなんて思ってませんでしたね…。 ドラマはさておき、DevDeayで発表された特定分野専門のChatGPTともいえる「GPT」。GPTストアから入手できるGPT。すでに多くの開発者が制作しており、続々と公開されています。 その中で使える(笑える)GPTをいくつかピックアップして、ランキング形式でまとめてみました。 10位:NOT HotdogImage: ChatGPT画像にあるものが、ホットドッグかそうではないかを見分けるだけのGPT。 ドラマ『シリコンバレー』で登場したアプリをそのままGPT化。ドラマのファンだった人は思わず笑ってしまいますが、ドラマを知らない人からしたらネタGPTにもならないのですが…。 9位:The Secret of Monkey I
米OpenAIは5月16日(現地時間)、ChatGPTに「Google Drive」「OneDrive」といったクラウドストレージとのデータ連携機能を追加すると発表した。各ストレージから直接ChatGPTにデータをアップロードし、表やグラフを作れるという。 ChatGPTに作らせた表やグラフの編集機能も強化する。例えば表の一部分を指定し、その部分だけに関して質問したり、クリックで色を変えたりできるようになるという。 新機能はいずれも、ChatGPTの有料サブスクリプション「ChatGPT Plus」「Team」「Enterprise」のユーザーに対し、今後数週間以内に提供する予定。13日に発表したばかりの新モデル「GPT-4o」で利用可能になるという。 OpenAIは新機能のデモとして、Google Drive内からスプレッドシートを直接ChatGPTにアップロードし、プレゼンテーション用
こんにちは、安部です。 気温の上下に翻弄されて最近風邪をひいてしまいましたが、皆さま元気にお過ごしでしょうか。 今回は、GPT-4Vのモデルを利用して、OCRができるか試していきます。 GPT-4Vによって、「ChatGPTに目ができた」などと騒がれましたが、文字認識はどれくらいできるのでしょうか? 得意分野ではなさそうですが、GPTも進化が目覚ましいので分かりませんね。 検証では、日本語(漢字/ひらがな/カタカナ)・英語の2言語で精度など比較していきます。 また、手書き・活字での違いも見ていきましょう。 一番簡単に試せるChatGPT(Web版)でOCRをさせようとするとエラーになることが多かったので、 ここではAPIを使っていくこととします。 APIを呼び出すプログラム 以下のコードを使い、gpt-4-vision-previewというモデルを呼び出しています。 画像は個人のgithu
生成AI(人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。米OpenAI(オープンAI)や米Google(グーグル)などAI開発を主導するIT企業の多くが、研究成果をarXivに競って投稿している。 そんなarXivの投稿論文から、2024年4月(1日~30日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 「GPT2」に再び脚光?スケーリング則の論文 最初に取り上げるのが、大規模言語モデル(LLM)のスケーリング則に関する論文「Phys
GPT-4などの大規模言語モデルは非常に高い性能を有していますが、各モデルがどのような思考を経て応答を出力しているのかは開発者ですら把握できていません。新たに、OpenAIが大規模言語モデルの思考を読み取る手法を開発し、GPT-4の思考を1600万個の解釈可能なパターンに分解できたことを発表しました。 Extracting Concepts from GPT-4 | OpenAI https://openai.com/index/extracting-concepts-from-gpt-4/ Scaling and evaluating sparse autoencoders https://cdn.openai.com/papers/sparse-autoencoders.pdf 一般的なソフトウェアは人間の設計に基づいて開発されているため、各機能の仕組みを理解した上で機能を修正したり安
こんにちは。電通総研コーポレート本部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAI
Image credit: OpenAI OpenAI の CEO Sam Altman 氏は6日、同社初の開発者会議「DevDay」で多くの新機能を発表した。 このツールは、「ChatGPT Plus」と「ChatGPT for Enterprise」の加入者向けに徐々にリリースされ、ユーザは、OpenAI の新モデル「GPT-4 Turbo」の上に、独自の GPTs、基本的には AI エージェントを作成することができる。これにより、技術に明るくないユーザや正式な開発者トレーニングを受けていないユーザであっても、数分で独自の AI エージェントやアプリケーションを構築できるようになる。 このようなサードパーティの GPT は、ユーザがアップロードした文書や資料を参照し、他のアプリにアクセスして指定したアクションを繰り返し実行することができる。例えば、カレンダー上のスケジュールのダブりを検
1. はじめに ついに ChatGPT-4V が使えるようになりました! これまでGUIを作成するときには、ChatGPT に 「まず左上にテキストボックスがあって、その右にボタンがあって...」 とちまちま指示する必要があったのですが、GPT-4V により画像を渡せるようになります。 この記事では、ChatGPT-4V を使うと GUI 作成がどのくらい楽になるのかを検証してみたいと思います! 作成するGUIはこちらのものです。 2. GPT-4V の読み取り精度の確認 2.1. 日本語のポンチ絵 まず、元の記事で使用した日本語のポンチ絵を渡して、どのように読み取れるのかを確認します。 GUIの各要素の位置はなんとなく読み取れている感じがしますが、日本語の読み取り精度はあまり高くないようです。 2.2. 英語のポンチ絵 先ほどのポンチ絵を英語に変換してみます(左下だけ詳しく書き直しました
日本時間11月7日午前3時にOpenAI DevDayが開催され、ChatGPTの新機能「GPTs」が新たにリリースされました。 この機能を活用すれば、ChatGPT上で手軽にGPT搭載ツールを作れるようになります。 しかも、自然言語のみでツールを作成できるので、プログラミングに関する難しい知識は一切必要ありません! 今回の記事では、GPTsの機能や使い方、活用事例をご紹介します。 最後まで目を通していただくと、GPTsを使ったAI開発の手法を理解できるので、今後はシステム開発を外注する必要がなくなるかもしれません。 ぜひ、最後までご覧ください! なお、OpenAI DevDayで公開されたGPTs以外の最新ツールを知りたい方はこちらの記事をご覧ください。 →OpenAI DevDay日本最速レポ!GPT-4 Turbo、GPTs、Assistant APIとは?ChatGPT最新情報徹底
【速報&朗報】GPT Storeが遂に公開 待ちに待ったGPT Storeが遂に公開されました!🔥 公式発表によると、GPT公開からのたった2ヶ月で300万以上のGPTsが作成されているとのこと。 注目ポイント👀 ・毎週Open AIからの注目GPTsが特集される… pic.twitter.com/94WCTnwDiJ — 木内翔大@SHIFT AI代表「日本をAI先進国に」𝕏 (@shota7180) January 10, 2024 ChatGPTには「GPTs」という機能があり、ユーザーがChatGPTを自由にカスタムできます。 さらにGPT StoreではGPTsが公開され、将来的には収益化も可能になる予定です。 AIを使って稼げる時代が、目の前まで来ていますね。 今回は、そんなGPT Storeの中でOpenAI社が開発した公式のGPTsをご紹介します。 生活に役立つ便利な
今回も導入方法などは説明しないので、まだ環境が用意できていない方は本家リポジトリのREADMEを参考にしてください。 オプション下記のコードを実行することで設定ファイルを開きます。これから説明するオプションは、このファイルかpythonコードに記載してください。 interpreter --config# config.yaml system_message: | You are Open Interpreter, a world-class programmer that can complete any goal by executing code. First, write a plan. **Always recap the plan between each code block** (you have extreme short-term memory loss, so you
2024年5月にOpenAIの最新AIモデル「GPT-4o」が発表されました。テキストや音声、カメラの入力を人間と同じぐらいの速度で処理可能という高い性能であることが報じられているのですが、一方で、中国語ユーザーからは、トレーニングに大きな問題を抱えていて、トークンデータが汚染されていることが指摘されています。 Just wrote a script to further investigate how the corpus used to train the gpt4o tokenizer is polluted by Internet scams. The results are quite interesting... 🤦♂️🤦♂️🤦♂️https://t.co/Fc2T4rSHix https://t.co/Q1Syh9amJn pic.twitter.com/lQ1u
参加申し込みはコチラ techplay.jp ※外部サイトへ遷移いたします。 こんな方におすすめ ・生成AIを活用した開発に携わるITエンジニア ※その他、本テーマに興味関心のある方 開催概要 生成AIセキュリティ対策事例共有会 Azure OpenAI 最新情報セミナー特別同時開催! ITテクノロジーに関する様々な職種やテーマで「他社・他の人ってどうしてるの?」を学ぶ、 TECH Streetコミュニティ恒例の事例・知見共有勉強会。 今回の知見共有会は国内でも生成AIを活用したサービスや社内利用が増えてきた今だからこそ学びたい生成AI関連のセキュリティ対策を中心としたセミナーと、実際に事業会社内で生成AIを活用したプロジェクトに携わる2社のエンジニアが集まり、各社の開発事例とセキュリティ対策をどのように実装しているかについて発表します。 今回も質問コーナーをたっぷり設けますので、いろんな
高精度な翻訳ツールを提供するDeepLが、翻訳性能を強化した次世代言語モデルの実装を発表しました。DeepLの次世代言語モデルはGoogle翻訳やGPT-4と比べて高い精度で翻訳が可能とのことです。 DeepLが翻訳でChatGPT-4、Google、Microsoftを上回る次世代LLMモデルを実装 https://www.deepl.com/ja/blog/next-gen-language-model DeepLはAIを用いた高精度な翻訳が可能なウェブアプリで、日本語や英語を含む多様な言語を相互に翻訳可能です。DeepLでアメリカ独立宣言の冒頭を日本語に翻訳してみた結果が以下。かなり高い精度で翻訳できていることが分かります。 上記のようにDeepLには高品質な翻訳が可能な言語モデルが搭載されていますが、新たに既存の言語モデルよりも翻訳性能を高めた次世代言語モデルを実装することが発表さ
EMNLP2023に採択された論文を眺めていたところ、ある論文が目に止まりました。 「Discovering Universal Geometry in Embeddings with ICA」という論文です。 これは京大下平研の山際さんの論文で、ざっくりとサマると「Word EmbeddingなどのEmbeddingを独立成分分析(ICA)で次元削減することで、人間にとって解釈性の高い成分を取り出すことができる」という論文です。 Vision TransformerやBERTを用いた実験から、モーダルや言語に関わらず解釈性の高い表現が得られたという結果を得ています。 論文内では、文を対象としたEmbeddingであるText Embeddingには触れられていないですが、おそらくうまく動くだろうという見込みがあったため、本手法をText Embeddingに対して実行してみました、という
はじめに こんにちは、LLM Advent Calendar 2023 4日目の記事を担当する_mkazutakaです。よろしくお願いします。 LLM Advent CalendarといってもRAGの話になりますが、ご容赦ください。 企業独自のデータを使ってLLMからの出力を制御する際には、検索拡張生成(いわゆるRAG)が使われます。 RAGの実装方法としては、「PDFからドキュメント情報を読み取り検索エンジンに保存」「ユーザの入力する質問文から関連するドキュメントを検索エンジンから取得」「取得したものをコンテキストとしてプロンプトに含める」という流れが一般的だと思います。 この際、RAGの課題の一つでもあるのですが、検索結果から取得するドキュメントのサイズ(いわゆるチャンクサイズ)をどれぐらいのものにするかというものがあります。チャンクサイズが小さすぎるとLLMは関連するコンテキストから
コードレビューが怖かった私の、レビューへの向き合い方が変わった話 ソニックガーデンジムに参加してコードに対する向き合い方が変わった話 登川氏の自己紹介 登川仁至氏:じゃあ始めていきたいと思います。「ソニックガーデンジムに参加してコードに対する向き合い方が変わった話」という長めなタイトルなんですが、そのまんまの感じになります。 まず自己紹介から言っていきます。ソニックガーデンジム7期生。前期ですね。プログラマー歴も2、3年ぐらいですね。今はWebアプリケーション開発をしています。沖縄に住んでいて今日はすごく暑くて半袖でもぜんぜんいけました。すごく暖かいです。「白くま」が横なのは、あんまり気にしないでください(笑)。ちなみに名前は「ノボ」です。よろしくお願いします。 本セッションで話すこと 今回何を話すのかです。タイトルどおり、「ソニックガーデンジムに参加してコードに対する向き合い方が変わった
AI研究者のライアン・グリーンブラット氏が、AIの一般的な推論能力を評価する指標の「ARC-AGI」において、GPT-4oを工夫して使用することで50%という正答率を達成できたと発表しました。 Getting 50% (SoTA) on ARC-AGI with GPT-4o https://redwoodresearch.substack.com/p/getting-50-sota-on-arc-agi-with-gpt ARC-AGIでは下図のようにいくつかの例と問題が用意されます。例からルールを推測して正しく問題の図に対応する結果を出力できればOK。人間がこのタスクを行うと子どもであっても85%から100%のスコアを出すことができますが、これまでAIが出したARC-AGIの最高スコアは34%であり、数多くのベンチマークの中でも特に人間との差が顕著でした。 上記の問題はシンプルなため特
OpenAIがChatGPTの企業向け有料プラン「ChatGPT Enterprise」を2023年8月28日(月)に発表しました。ChatGPT EnterpriseではGPT-4を無制限に利用可能で、動作速度は最大2倍になるとのこと。さらに、データ送受信時の暗号化機能も提供されるなど、セキュリティ面も重視されています。 ChatGPT Enterprise https://openai.com/enterprise Introducing ChatGPT Enterprise https://openai.com/blog/introducing-chatgpt-enterprise ChatGPTの有料プランである「ChatGPT Plus」では、機能強化版言語モデル「GPT-4」を用いて高精度な会話が可能です。しかし、記事作成時点ではChatGPT Plus加入者であってもメッセー
オープンLLMの開発をリードする現場の視点から、開発の実情や直面する課題について発表したのは、Stability AI Japan株式会社の秋葉拓哉氏。Weights & Biasesのユーザーカンファレンス「W&Bカンファレンス」で、LLM開発のポイントを紹介しました。全2記事。前半は、より優れたLLMを作るために必要なこと。前回はこちら。 より優れたLLMを作るために必要なこと 秋葉拓哉氏:めでたくFine-Tuningもできた。これけっこう、びっくりするかもしれません。コードはさすがにゼロとはいかないと思いますが、ほとんど書かずに実はLLMは作れます。 「さすがにこんなんじゃゴミみたいなモデルしかできないだろう」と思われるかもしれませんが、おそらく余計なことをしなければこれだけでも、まあまあそれっぽいLLMにはなるかなと思います。 なので、ちょっと、先ほどの鈴木先生(鈴木潤氏)の話と
関連研究 LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト 推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった メタ認知をさせてLLMの能力を上げる手法「メタ認知プロンプティング」 従来の課題と背景 LLMの推論能力の限界 大規模言語モデル(LLM)は、短い質問や単純なタスクに対してはゼロショットで高い性能を発揮しますが、ステップバイステップの推論が必要な長い質問や複雑なタスクに対しては、通常はその性能に限界があります。複数の前提条件や仮定に基づいて論理的に推論する必要がある場合、LLMはしばしば不正確な結論に至ることがあります。 CoTフレームワークの限界と利点 Chain-of-Thought(CoT)フレームワークは、このような複雑な問題に対する一つの解決策として提案され
「OpenAI」の 「Assistant Playground」の「Code Interpreter」を試したので、まとめました。 前回 1. Code Interpreter「Code Interpreter」は、アシスタントがサンドボックス実行環境でPythonコードを作成および実行できるツールです。さまざまなデータと形式を含むファイルを処理し、データとグラフの画像を含むファイルを生成できます。 2. アシスタントの作成アシスタントの作成手順は、次のとおりです。 (1) 「Playground」を開き、左端の「Playgroundアイコン」とタイトル横の「Assistants」を選択し、「+Create」を押す。 (2) WebUIで以下のように設定して、SAVEボタンを押す。 ・Name : 数学の家庭教師ボット ・Instructions : あなたは数学の個人家庭教師です。数学
このところプログラミングの楽しみを覚えて毎日Claude ArtifactsとChatGPT Artifactsで遊んでいる筆者ですが、またまた新しいツールに出会ってしまいました。 それは、PoeのPreviewsという新機能。 Poeは、ChatGPT、Claude、Gemini、Mistralといった複数の最新LLM(大規模言語モデル)を呼び出して対話ができる総合窓口的AIエージェントサービスです。AIアグリゲーターという人もいます。似たようなサービスに、先ごろソフトバンクが利用者に1年間無料で提供し始めたPerplexityがありますね。 個別のLLMと契約をしなくても、Poeと月額契約(3000円から)を結ぶと、それぞれの最新モデルが使えるというメリットもあります。 そんなPoeが投入したPreviewsは、Claude 3.5 Sonnetで使えるようになったプログラミングコンパ
チャットボットAI「Claude」を開発するAnthropicが新モデルとなる「Claude 3.5 Sonnet」を2024年6月21日に発表しました。これは今後リリースされるClaude 3.5ファミリーの最初となるモデルで、ベンチマーク結果はOpenAIのGPT-4oに匹敵するとのことです。 Introducing Claude 3.5 Sonnet \ Anthropic https://www.anthropic.com/news/claude-3-5-sonnet Anthropicによると、Claude 3.5 Sonnetは大学院レベルの推論力、大学学部レベルの知識とコーディング能力を持つとのこと。Claude 3 Opusなど従来のClaudeモデルと比較し、ニュアンスやユーモア、複雑な指示を理解する能力が著しく向上し、自然で親しみやすい口調で高品質のコンテンツを書く能力
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く