並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 13 件 / 13件

新着順 人気順

ベンチマークの検索結果1 - 13 件 / 13件

  • 「AI生成キャラクター」はいまどのレベルまで進んでいるのか?バンダイナムコ研究所が語るAIテキスト生成の光と影【CEDEC 2024】

    頼展韜氏プロフィール 會田翔氏プロフィール バンダイナムコ研究所は、バンダイナムコエンターテインメントと協力して配信AIキャラクタープロジェクトを実施しており、「ゴー・ラウンド・ゲーム(ごらんげ)」という企画を進行している。その裏側で、あるいはゲームテキスト素材生成ツールを作る際において、どのようにAIテキスト生成を利用していたか解説が行われた。 ゲーム開発環境においてもAI生成は当たり前に 近年、LLMは目まぐるしい発展をしており、さまざまな領域を含む問題で構成されるベンチマーク「MMLU」において、人間の専門家を超えるスコアを達成しているという。 しかもこれは商用モデルのみならず、MetaのLlamaをはじめとするオープンモデルも性能差が縮まってきているという。ゆえに、ゲーム開発においても応用が効くわけだ。 ゲーム内のテキスト生成という分野においては、 『ダンジョンズ&ドラゴンズ』のゲ

      「AI生成キャラクター」はいまどのレベルまで進んでいるのか?バンダイナムコ研究所が語るAIテキスト生成の光と影【CEDEC 2024】
    • RedisをフォークしたインメモリDBの「Valkey」、次期バージョンでは性能が2倍以上に

      オープンソースの代表的なインメモリデータストア「Redis」のフォークとしてLinux Foundation傘下で開発が進められている「Valkey」は、AWSやGoogle Cloud、Oracle Cloudなどへの採用が始まっています。 参考:Google Cloud、Redisをフォークした「Valkey 7.2」のマネージドサービス「Memorystore for Valkey」プレビュー版を開始 8月2日に、フォーク後の最初のメジャーバージョンとなる「Valkey 8.0」のリリース候補版が公開されたのに合わせて、Valkey 8.0で予定されている性能や機能の向上についての記事「Valkey 8.0: Delivering Enhanced Performance and Reliability」がValkeyのブログに投稿されました。 その内容から、Valkey 8.0の主

        RedisをフォークしたインメモリDBの「Valkey」、次期バージョンでは性能が2倍以上に
      • プレイヤーキャラクターのグラフィックに関するフィードバックへの対応について | FINAL FANTASY XIV, The Lodestone

        皆さんこんにちは、ファイナルファンタジーXIVプロデューサー兼ディレクターの吉田です。 パッチ7.0リリースと同時に行われた「第一次グラフィックスアップデート」に際して、多数のフィードバックまことにありがとうございます! SS撮影などを含め、多くのご好評のお声をいただいておりますが、それと同時に、特にキャラクターの細部について、主にフォーラムにて詳細なフィードバックやご確認も多数いただいております。 開発チームおよび運営チーム、QAチームでは、皆さんから寄せられたフィードバックや確認点について、各種SNSへの投稿も含め仔細に内容を確認させていただき、今後の対応について細かく検討と検証を重ねて参りました。 すべてのフィードバックにひとつずつ回答を行うことは非常に難しいのですが、今回は『プレイヤーキャラクター』について、不具合やフィードバックへ対応させていただくための方針や、仕様とさせていただ

          プレイヤーキャラクターのグラフィックに関するフィードバックへの対応について | FINAL FANTASY XIV, The Lodestone
        • GPT-4oの価格が大幅値下げ、競合に対抗するOpenAIの静かなアップデート、その裏では驚愕のプロジェクトが進行中(AMP[アンプ]) - Yahoo!ニュース

          大規模言語モデルをめぐる状況は、この1年で大きく変化した。1年ほど前まで、OpenAIのGPT-4が他モデルを圧倒するパフォーマンスを示していたが、その後、Anthropicやグーグルのモデル性能が大幅に向上、またメタのLlama3.1 405Bの登場でオープンソースモデルにも注目が集まるようになっている。 たとえば、Anthropicが2024年6月21日にリリースした「Claude3.5 Sonnet」は、多くのベンチマークでGPT-4を上回る性能を示す。「LiveBench(2024年8月15日時点)」によると、Claude3.5 Sonnetは総合平均スコアで59.87を記録し、2位のGPT-4o(56.71)を超え、1位を獲得。またClaude3.5 Sonnetは、コーディング能力の向上が顕著で、コーディングに特化したベンチマーク「LiveCodeBench(2024年8月15

            GPT-4oの価格が大幅値下げ、競合に対抗するOpenAIの静かなアップデート、その裏では驚愕のプロジェクトが進行中(AMP[アンプ]) - Yahoo!ニュース
          • Reflection Llama-3.1 70B を試す|ぬこぬこ

            tl;drReflection Llama-3.1 70B  がオープン LLM の中で世界最高性能を謳う Llama 3.1 70B を Reflection-Tuning を用いて事後学習 <output> / <thinking> / (reflection) などのタグを用いて推論 Ollama を使って推論させてみる Reflection Llama-3.1 70B とはHyperWrite の CEO Matt Shumer 氏の公開した Llama 3.1 ベースのオープンな大規模言語モデル。 I'm excited to announce Reflection 70B, the world’s top open-source model. Trained using Reflection-Tuning, a technique developed to enable LLM

              Reflection Llama-3.1 70B を試す|ぬこぬこ
            • 【朗報】さよなら8GBメモリ!一体型メモリ採用のインテル新型「Core Ultra シリーズ2」発表 - すまほん!!

              Intelは、ノートPC向けのCPUであるCore Ultraシリーズ2を発表しました。直近のノートPC向けCPUとは少し違い、少ないコアで高い性能を出しつつも消費電力を抑えた製品となっています。この記事ではCore Ultraシリーズ2の特徴をかんたんに解説します。 概要 IntelはPC向けCPUのCore iシリーズを昨年より改称。現時点ではノートパソコン向けCPUのみを、高い処理性能やAI性能を持つ最新鋭のモデルを「Core Ultra」シリーズ、安価なモデルを「Core」シリーズへ改称し販売しています。 なお、全モデルがCore iシリーズからCoreシリーズに変わったかと言われればそうではなく、デスクトップ向け、およびデスクトップ向けCPUをベースとして高い性能を発揮する高性能ノートPC向けのCPUでは「Core i」の名称を現在も冠しています。 主な特徴 「Core Ultr

                【朗報】さよなら8GBメモリ!一体型メモリ採用のインテル新型「Core Ultra シリーズ2」発表 - すまほん!!
              • 第378回NRIメディアフォーラム

                中国AI産業の最新動向及び 日本企業への示唆 第378回NRIメディアフォーラム 2024年8月22日 株式会社野村総合研究所 未来創発センター 戦略企画室 李 智慧 エキスパート 1 Copyright (C) Nomura Research Institute, Ltd. All rights reserved. 序章 米中「ハイテク戦争」の最前線 第1部 イノベーションの主戦場 第1章 現地で見たファーウェイ(華為技術)復活 第2章 世界展開を急ぐバイトダンス(字節跳動) 第3章 急成長するチャイナ生成AI 第2部 ハイテク分野の「鉄のカーテン」とチャイナ・イノベーション 第4章 技術包囲網の突破に挑む中国 第5章 米中が激突する大技術競争時代 第6章 分断されるテクノロジー勢力圏 第3部 デジタル・チャイナの現在地 第7章 デジタル技術を使った社会管理の光と影 第8章 デジタル化が

                • GPT-4oの価格が大幅値下げ、競合に対抗するOpenAIの静かなアップデート その裏で進行している極秘プロジェクトとは | AMP[アンプ] - ビジネスインスピレーションメディア

                  激化する大規模言語モデル開発競争、OpenAI、Anthropic、グーグル、メタ、xAI 大規模言語モデルをめぐる状況は、この1年で大きく変化した。1年ほど前まで、OpenAIのGPT-4が他モデルを圧倒するパフォーマンスを示していたが、その後、Anthropicやグーグルのモデル性能が大幅に向上、またメタのLlama3.1 405Bの登場でオープンソースモデルにも注目が集まるようになっている。 たとえば、Anthropicが2024年6月21日にリリースした「Claude3.5 Sonnet」は、多くのベンチマークでGPT-4を上回る性能を示す。「LiveBench(2024年8月15日時点)」によると、Claude3.5 Sonnetは総合平均スコアで59.87を記録し、2位のGPT-4o(56.71)を超え、1位を獲得。またClaude3.5 Sonnetは、コーディング能力の向上

                    GPT-4oの価格が大幅値下げ、競合に対抗するOpenAIの静かなアップデート その裏で進行している極秘プロジェクトとは | AMP[アンプ] - ビジネスインスピレーションメディア
                  • TDP 105W動作にするとRyzen 7 9700X/Ryzen 5 9600Xはどの程度化ける? レッドゾーン寸前を攻める絶妙な設定だが、ゲームでの効果は期待薄 (1/7)

                    Ryzen 9000シリーズのローンチは決して順風満帆と言えるものではなかった。当初7月31日発売と予告したものの初期ロット品の一部に問題があったとして発売日が延期。まず8月10日に「Ryzen 7 9700X」および「Ryzen 5 9600X」が解禁され、8月23日に「Ryzen 9 9950X」と「Ryzen 9 9900X」という2段階を経て発売された。 新Ryzenの性能は前世代を上回ってきたものの、なにもかもがすごい! と評価できるものではなかったことは確かだ。特にTDPを65Wに絞ったRyzen 7 9700XおよびRyzen 5 9600Xは、前世代と大きく変わらなかった部分も散見された。だがTDPを絞ったことで空冷クーラーでもCPUが十分冷えるという扱いやすさ、さらに消費電力も小さいという特徴もみられた。 筆者としてはRyzen 7 9700XおよびRyzen 5 960

                      TDP 105W動作にするとRyzen 7 9700X/Ryzen 5 9600Xはどの程度化ける? レッドゾーン寸前を攻める絶妙な設定だが、ゲームでの効果は期待薄 (1/7)
                    • 「ELYZA-japanese-Llama-2-70b」開発における、大規模モデル学習ノウハウの解説

                      はじめに こんにちは。ELYZAの研究開発チームのSam (@SamPassaglia)、佐々木 (@hikomimo)です。 今年の3月に我々は、日本語に特化した700億パラメータの大規模言語モデル「ELYZA-japanese-Llama-2-70b」を開発し、日本語タスクにおいてグローバルモデルに比肩する性能を達成することに成功しました。 この際の知見は、今年6月にリリースした「Llama-3-ELYZA-JP」にも活かされています。 700億ものパラメータを持つ大規模言語モデルを開発することは国内でも前例が少なく、開発を通して多くの学びがあった一方で、思わぬ対応に迫られる場面も少なくありませんでした。 本記事では国内における大規模言語モデル開発のコミュニティに貢献するべく、「ELYZA-japanese-Llama-2-70b」の開発の過程で得られた知見を紹介いたします。 取り組み

                        「ELYZA-japanese-Llama-2-70b」開発における、大規模モデル学習ノウハウの解説
                      • IntelがLunar Lake世代のAI PC向けSoC「Core Ultraモバイル・プロセッサー シリーズ2」シリーズを発表、Qualcomm Snapdragon X EliteやAMD Ryzen AI 9 HX 370よりも高い電力効率とAI性能をアピール

                        Intelが、「Lunar Lake」のコードネームで開発されていたノートPC向けのSoC「Core Ultra モバイル・プロセッサー シリーズ2(Core Ultra 200Vシリーズ)」を発表しました。このCore Ultra モバイル・プロセッサー シリーズ2はIntelの「AI PC向けのフラッグシップSoC」という位置付けで、前世代である「Meteor Lake」のプロセッサよりも高い電力効率でゲームやAIのローカル処理を行うことができるとアピールされています。 New Core Ultra Processors Deliver Breakthrough Performance,... https://www.intel.com/content/www/us/en/newsroom/news/core-ultra-200v-series-mobile.html インテル® Co

                          IntelがLunar Lake世代のAI PC向けSoC「Core Ultraモバイル・プロセッサー シリーズ2」シリーズを発表、Qualcomm Snapdragon X EliteやAMD Ryzen AI 9 HX 370よりも高い電力効率とAI性能をアピール
                        • 投資のプロが教える「株で稼げる人と損する人では考え方に決定的な違い」

                          1984年慶應義塾大学経済学部卒業、大和住銀投信投資顧問などを経て、2014年より楽天証券経済研究所チーフ・ストラテジスト。2015年より所長兼務。 日本株ファンドマネジャー歴25年。年間100社を超える調査取材をこなし、公的年金・投資信託・NY上場ファンドなど20代で1000億円以上、40代で2000億円超の日本株運用を担当。ベンチマークである東証株価指数(TOPIX)を大幅に上回る運用実績をあげてきた。 ファンドマネジャー時代の1999-2013年に毎週書いてきた投資情報「黒潮週報」は、英語・中国語に翻訳され、海外機関投資家に配布されてきた。中東・中国・東南アジアに出張し、機関投資家と直接対談してきた経験から、外国人投資家事情に精通。 楽天証券では2014年から現在まで、同社投資メディア「トウシル」にて月曜日から木曜日まで「3分でわかる!今日の投資戦略」を連載。月間200万ページビュー

                            投資のプロが教える「株で稼げる人と損する人では考え方に決定的な違い」
                          • OpenAI、「GPT-4o」のファインチューニングが可能に。全ての有料利用レベルの開発者が利用可能

                            OpenAIは8月20日、「GPT-4o」がファインチューニングに対応したと発表しました。カスタマイズ可能な独自のLLMとして、アプリケーションのパフォーマンスや精度向上が実現します。 このニュースのポイント OpenAIは、2024年8月20日に「GPT-4o」のファインチューニングを提供開始 有料ユーザーは独自データでモデルをカスタマイズ可能に。アプリケーションのパフォーマンスと精度が向上 コストは100万トークン当り25ドルで、推論コストは100万入力トークン当り3.75ドル、100万出力トークン当り15ドル 米OpenAI社は、マルチモーダルAIモデル「GPT-4o」のファインチューニングを可能にする機能を、8月20日に提供開始しました。すべての有料ユーザーが独自データを使ってモデルをカスタマイズできるようになり、アプリケーションのパフォーマンスと精度向上が期待されます。 ファイン

                              OpenAI、「GPT-4o」のファインチューニングが可能に。全ての有料利用レベルの開発者が利用可能
                            1