並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 68件

新着順 人気順

ベンチマークとはの検索結果1 - 40 件 / 68件

  • ShellScriptで自動化を楽にしたい時に知っておいても良いこと | sreake.com | 株式会社スリーシェイク

    はじめに こんにちは、皆さん。今日は、シェルスクリプトを使った高度な自動化のベストプラクティスとパターンについて解説します。これらは、ちょっとした知識で実行でき、作業を大幅に効率化できるTipsです。シェルスクリプトは、特にUNIX系システムでの自動化タスクに欠かせないツールです。適切に使用すれば、複雑なタスクを効率的に、そして信頼性高く実行できます。 トイルとは、反復的でマニュアルな作業のことを指します。これには、例えば、手動でのシステムのスケーリングや、エラーのトラブルシューティング、ルーティンなメンテナンス作業などが含まれます。トイルを特定し、それを自動化することで、エンジニアはより創造的なタスクやプロジェクトに焦点を合わせることができます。 トイルを判別する方法としては、以下のような基準が挙げられます: 手作業であること 完全な手作業だけでなく、「あるタスクを自動化するためのスクリ

      ShellScriptで自動化を楽にしたい時に知っておいても良いこと | sreake.com | 株式会社スリーシェイク
    • 「Intelは欠陥のあるCPUを販売している」。第13~14世代CPUの不具合にゲームデベロッパーが苦言。リコールを促す | ニッチなPCゲーマーの環境構築Z

      ゲームデベロッパーのAlderon Gamesは、「Intelは欠陥のあるCPUを販売している」と明言しました。以下、Alderon Gamesのアナウンスになります。 Intelは欠陥のある第13~14世代CPUを販売しています マルチプレイヤー恐竜サバイバルゲームであるPath of Titansの開発を行っている私たちAlderon Gamesのチームは、Intel CPUの安定性に関する重大な問題に直面しています。クラッシュしたり、不安定になったり、メモリ破損といった問題は、Intelの第13世代と第14世代プロセッサーでのみ発生します。リリースされたすべてのマイクロコード、BIOSなどのアップデートを行っても問題は解決しません。 私たちは以下の5つの範囲で不具合を確認しています。 エンドユーザー: 当社のクラッシュレポートツールは、Intel第13世代および第14世代環境で数千件

        「Intelは欠陥のあるCPUを販売している」。第13~14世代CPUの不具合にゲームデベロッパーが苦言。リコールを促す | ニッチなPCゲーマーの環境構築Z
      • ネットワーク パフォーマンスの解読: TCP と UDP のバルクフローのベンチマーク | Google Cloud 公式ブログ

        Gemini 1.5 モデル をお試しください。Vertex AI からアクセスできる、Google のもっとも先進的なマルチモーダル モデルです。 試す ※この投稿は米国時間 2024 年 6 月 22 日に、Google Cloud blog に投稿されたものの抄訳です。 Google Cloud ネットワーキング チームは長年にわたり、お客様のネットワークの構築、修正、強化の支援に深く携わってきました。その間に、ネットワークのパフォーマンスと効率を最大限に高める重要なパターンやベスト プラクティスを発見しました。この豊富な知見は、ただの理論的なリソースではありません。Google Cloud、クロスクラウド、オンプレミス、その他のクラウド プロバイダなどデプロイ先を問わず、お客様のビジネス目標達成を支援するよう設計された実用的なツールキットです。Google はこの専門知識を共有する

          ネットワーク パフォーマンスの解読: TCP と UDP のバルクフローのベンチマーク | Google Cloud 公式ブログ
        • 時系列データのための大規模言語モデル

          近年の大規模言語モデル(LLM)の出現は、自然言語処理(NLP)においてパラダイムシフトをもたらし、ChatGPTをはじめとする様々な革新的サービスを生み出している。LLMの急速な進化は、NLPの領域を超えて、より広範なデータモダリティへのLLMの適用可能性を探る研究への発展を促している。その中で今回注目したのが、時系列データへのLLMの適用である。例えば、[Gruver+, 2023] では、GPT-3やLLaMA-2などの既存のLLMが、ダウンストリームタスクで教師あり学習した時系列モデルの性能に匹敵するか上回るレベルで、zero-shotで時系列予測ができることを報告しており、大変興味深い。本ブログでは、2024年に公開されたサーベイ論文「Large Language Models for Time Series: A Survey」を参考にLLM for Time Seriesの全

            時系列データのための大規模言語モデル
          • ボタン一発でWindowsを必要最小限の構成に変更して軽快な動作を実現してくれるツール「Win Debloat Tools」レビュー

            「Win Debloat Tools」は難しい設定を行わずともボタンを押すだけでWindowsから不要な機能を削除し、必要最小限の構成に変更して軽量化を実現してくれるツールです。実際に使ってどれくらい動作が改善されるのかを確かめてみました。 GitHub - LeDragoX/Win-Debloat-Tools: Re-imagining Windows like a minimal OS install, already debloated with minimal impact for most functionality. https://github.com/LeDragoX/Win-Debloat-Tools GitHubのページにアクセスし、「Download Latest Version」の項目にある「Main」をクリック。 zipファイルがダウンロードされるのでクリックして

              ボタン一発でWindowsを必要最小限の構成に変更して軽快な動作を実現してくれるツール「Win Debloat Tools」レビュー
            • Intelの第13・14世代のCPUには欠陥がありクラッシュ・強制終了・エラーの原因となっているという指摘を証明する膨大な量のレポートデータが発見される

              Intel第13世代~14世代CPUの不具合を報告する声が相次ぎ、ゲーム開発者やテクノロジー系メディアの間で「何が原因だったのか」を特定する動きが見られています。 Intel has a Pretty Big Problem - YouTube Complaints about crashing 13th, 14th Gen Intel CPUs now have data to back them up - The Verge https://www.theverge.com/2024/7/14/24198299/intel-13th-14th-gen-i9-cpu-crashes-telemetry-alderon-games-warframe Intel Core i9-13900K/14900K stability issues drive game server provider

                Intelの第13・14世代のCPUには欠陥がありクラッシュ・強制終了・エラーの原因となっているという指摘を証明する膨大な量のレポートデータが発見される
              • 「Llama 3.1」の日本語追加学習モデル、サイバーエージェントが公開 SNSでは「爆速すぎる」の声

                サイバーエージェントは7月26日、米Metaの最新AIモデル「Llama 3.1 70B」を使った新たな大規模言語モデル(LLM)を公開した。Llama 3.1 70Bをベースに、日本語データを追加学習させたもので、Hugging Face上で公開している。ライセンスはMetaの「Llama 3.1 Community License」に基づいており、商用利用可能だが、利用規約などに同意が必要となる。 「Llama 3.1」シリーズはMetaが24日(現地時間)に公開した最新LLM。15兆トークンを超えるデータでトレーニングしたとしており、複数のベンチマークで米OpenAIのLLM「GPT-4o」や米AnthropicのLLM「Claude 3.5 Sonnet」より優れているという。

                  「Llama 3.1」の日本語追加学習モデル、サイバーエージェントが公開 SNSでは「爆速すぎる」の声
                • わたしの私用PCの開発環境 - 覚書

                  わたしに声をかけてくれるIT技術者、とくに経験が浅い人に私用PCの開発環境は何を使っているかということをよく聞かれます。なにかの役に立つかもしれないので、環境を紹介しつつ、どういう思いでそうしているのかについても書きます。 私のバックグラウンドを説明しておくと、会社員として15年ちょっとLinuxカーネルの開発、サポート業務をしていました。その後6年くらい別のSaaS企業で自社インフラ用の分散ストレージの開発をしています。このストレージはLinux上で動作します。趣味ではLinuxカーネルやその周辺領域についての技術書を出したり記事を書いたり、YouTubeの動画を公開したりしています。つまりLinuxに非常に縁が深いです。 わたしはPCを2台持っています。一つめは普段使いのモバイルノートPC、もう一つはミニタワーのデスクトップPCです。ノートPCはVAIO Zで、スペックを盛れるだけ盛り

                    わたしの私用PCの開発環境 - 覚書
                  • X、xAIのAI「Grok」のトレーニングに投稿を使う設定を初期設定で有効に モバイルでは無効化できず

                    Grokは、Xのオーナーであるイーロン・マスク氏の別会社、xAIが開発するAIチャットbot。Xのプレミアムユーザーが利用できる。 xAIは22日、Grokのための「世界最強のAIトレーニングクラスタ」をテネシー州メンフィスで稼働開始したが、AIのトレーニングには設備だけでなく、大量のトレーニング用データが必要だ。 Xのユーザーデータをトレーニングに使う設定がいつから追加されていたかは、Xからの発表がないので分からない。 Xは昨年9月に改定したプライバシーポリシーで、公開データをAIのトレーニングに使うという文言を追加したが、その時点ではユーザー向けの設定にGrokに関する項目はまだなかった。 本稿執筆現在、Xあるいはイーロン・マスク氏(現地でパリ五輪観戦中)からは、この件についてのポストはない。 関連記事 xAIのメンフィスAI向けギガファクトリー始動 「世界最強のAIトレーニングクラス

                      X、xAIのAI「Grok」のトレーニングに投稿を使う設定を初期設定で有効に モバイルでは無効化できず
                    • ローカルLLMでzoltraakを動かせるか検証してみた

                      はじめに どんな人向けの記事? ローカルLLMに興味のある人 zoltraakに興味のある方 LLMを用いて要件定義書を作りたい方 内容 今回は元木さんのZoltraakを使って、自然言語から要件定義書を作ってみようと思います。 ただし、リリースされてから2ヶ月以上経ったzoltraakを普通に動かすだけでは面白くないので、この記事ではローカルLLMを使った場合にどの程度の品質のアウトプットが得られるか、そもそもまともに使えるのかを検証してみたいと思います。 結論 結論から述べると、下記の通りになりました。 現状のローカルLLMだけでzoltraakを完全に動作させるのは難しそう。 要件定義書は問題なく作成できる。 その後の工程の、ディレクトリ・ファイル構成を作成するための実行可能なpythonコードを作ることができなかった。 grimoiresの記載を工夫することで、ある程度は改善できる

                        ローカルLLMでzoltraakを動かせるか検証してみた
                      • Meta、無料で商用可の「Llama 3.1」リリース 「世界最大かつ最も高性能なオープンモデル」

                        米Metaは7月24日(現地時間)、“オープンソースの”LLMの最新版「Llama 3.1」を発表した。最大モデルは4050億(405B)のパラメータを持ち、米NVIDIAの1万6000個以上の「H100」でトレーニングした。Llama 3の70Bモデルと8Bモデルもアップグレードされる。 4月にリリースした「Llama 3」同様に、ほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM、Snowflake)で利用可能になる。 15兆トークンを超えるトレーニングデータでトレーニングしたとしているが、データの出所は明示していない。 405Bモデルは、長文テキストの要約、多言語会話エージェント、コーディングアシスタント、将来のAI言語モデルのト

                          Meta、無料で商用可の「Llama 3.1」リリース 「世界最大かつ最も高性能なオープンモデル」
                        • まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう! - Qiita

                          まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう!APIOpenAI生成AIChatGPTGPT-4o-mini ChatGPTのAPIを使ってチャットボットを作ったり、アプリにChatGPTを導入している人も多いと思います。 ChatGPTのAPIが2023年3月に登場して1年、気づけばGPT-3.5 Turboは時代遅れとなりつつあります。 ChatGPTのAPI利用している場合はすぐにでもGPT-4o miniに乗り換えましょう。 GPT-4o miniは激安の生成AI 7月18日に登場したGPT-4o miniは生成AI界隈で大きな注目を集めています。 OpenAIはChatGPTを発表後、GPT-4やGPT-4oなど性能面でのアップデートを主に図ってきました。 そんな中、GPT-4o miniはコスト面を改良した激安AIモ

                            まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう! - Qiita
                          • Intelが自社の設計が原因で第13・14世代CPUに不具合が発生していることをついに認める

                            Intelの第13世代Coreプロセッサーおよび第14世代Coreプロセッサーのユーザーから「ゲームがクラッシュする」「ソフトウェアが正常に動作しない」という報告が相次いで寄せられていた件について、Intelが「自社のマイクロコードに原因があった」とする声明を発表しました。Intelは2024年8月中に修正パッチをリリースする予定です。 July 2024 Update on Instability Reports on Intel Core 13th and 14th Gen Desktop Processors - Intel Community https://community.intel.com/t5/Processors/July-2024-Update-on-Instability-Reports-on-Intel-Core-13th-and/m-p/1617113#M747

                              Intelが自社の設計が原因で第13・14世代CPUに不具合が発生していることをついに認める
                            • AWS 新CPU Graviton4 の性能検証 | 外道父の匠

                              公式の説明による大きな変化点は、 Graviton 2 → 3 の時は、性能25%UP で費用6%UP、Network/EBS 帯域幅が向上、 Graviton 3 → 4 では、性能30%UP で費用10%UP、最大スペックが3倍、 に加えて、細かいところでも色々少しずつ向上しているという感じです。 特にスペック3倍は、データベース用途におけるスケールアップが強力で、一時的な緊急負荷対策としても強いし、クラスタデータを3分割するくらいなら1クラスタで分割なしで貫けばいいじゃない、など安定と選択の幅が広がるのは間違いないでしょう。 ベンチマーク それでは、疑り深い外道父さんによる、いつもの Phoronix による検証です。 今回は R系 という点と、あまり古いのと混ぜると共通成功テスト数が減ってしまうことから、R6g, R7g, R8g での比較としています。C7i 以前なども知りたけれ

                                AWS 新CPU Graviton4 の性能検証 | 外道父の匠
                              • 難しいことはAIに任せて、素人でもデータ分析できるのか? ChatGPT4-oで検証! | 【レポート】Web担当者Forumミーティング 2024 春

                                世界の話題を牽引するAIチャット「ChatGPT」は、幅広いビジネス分野での活用が期待されている。Webビジネスを成功させるためには欠かせない業務のひとつであるデータ分析も、その例外ではない。 「Web担当者Forum ミーティング 2024 春」では、IT分野の記事執筆や講演、企業向け研修などを行っているAIコンサルタントのマスクド・アナライズ氏が登壇。本記事では「現実的なAIデータ分析」活用についての講演セッションの内容をレポートする。 データ分析とは? Web担当者にはなぜ必要?データ分析は、データの収集、データの整理、パターンの発見や問題を特定し、その結果を経営の意思決定などに用いている。データ分析にはさまざまな手法はあるが、分析手法やツールを使いこなすには、数学の知識やプログラミング学習が必要だ。 難しいことは生成AIに任せて、自分でもデータ分析を行いたいと思っている担当者も多い

                                  難しいことはAIに任せて、素人でもデータ分析できるのか? ChatGPT4-oで検証! | 【レポート】Web担当者Forumミーティング 2024 春
                                • “人間には簡単なパズル”、AIが解ければ賞金 総額約1億7700万円 「AGI」を目指すコンテスト開催中

                                  このテストは、こちらのページからWebブラウザ上で体験できる。 賞金総額110万ドルのコンテスト「ARC Prize 2024」 現在、ARCを用いたコンテスト「ARC Prize 2024」が開催中だ。ARC Prize 2024は、AGIに向けた新しいアイデアの探求を奨励し、その進歩をオープンソース化することを重視している。 ARC Prize 2024は、総額110万ドル(約1億7780万円、1ドル=161円換算)以上の賞金が用意され、グランプリの50万ドル(約8081万円)は、ARC-AGIの非公開評価セットで85%以上のスコアを達成した最大5チームに授与される(人間の正解率が平均84%なため)。 2024年の進歩賞として、トップスコア賞と論文賞がそれぞれ5万ドル(約808万円)を用意。トップスコア賞は、24年の競争期間中に最高スコアを記録した上位5チームに分配される。1位が2.5

                                    “人間には簡単なパズル”、AIが解ければ賞金 総額約1億7700万円 「AGI」を目指すコンテスト開催中
                                  • GPT-4o mini の概要|npaka

                                    以下の記事が面白かったので、簡単にまとめました。 ・GPT-4o mini: advancing cost-efficient intelligence 1. GPT-4o mini の概要「GPT-4o mini」は、インテリジェンスをより手頃な価格にすることで、AIで構築されるアプリの範囲を大幅に拡大すると期待しているモデルです。MMLUで82%のスコアを獲得し、現在「LMSYS leaderboard」のチャットで「GPT-4」を上回っています。価格は、入力トークン100万個あたり15セント、出力トークン100万個あたり60セントで、以前のモデルよりも1桁手頃な価格で、「GPT-3.5 Turbo」よりも60%以上安価です。 「GPT-4o mini」は、低コストと低レイテンシで、複数のモデル呼び出しを連鎖または並列化するアプリ (複数のAPIの呼び出しなど)、大量のコンテキストをモ

                                      GPT-4o mini の概要|npaka
                                    • OpenAIが無料で使えるAIモデル「GPT-4o mini」をリリース、マルチモーダルで画像や音声入力にも対応

                                      OpenAIが2024年7月18日に、コスト効率に優れた小型モデルの「GPT-4o mini」を発表しました。低コストでありながら、一部のベンチマークでGPT-4を上回るスコアを示したGPT-4o miniは、GPT-3.5の後継として無料ユーザーとChatGPT Plusのユーザーに提供が開始されています。 GPT-4o mini: advancing cost-efficient intelligence | OpenAI https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/ OpenAI Releases GPT-4o Mini, a Cheaper Version of Flagship AI Model - Bloomberg https://www.bloomberg.com/ne

                                        OpenAIが無料で使えるAIモデル「GPT-4o mini」をリリース、マルチモーダルで画像や音声入力にも対応
                                      • MetaがGPT-4超えのAIモデル「Llama 3.1」をリリース

                                        Metaが大規模言語モデル「Llama 3.1」を2024年7月23日にリリースしました。Llama 3.1はオープンソースで公開されており、GPT-4やGPT-4oといった最先端のクローズドソースAIモデルと同等以上の性能を備えているそうです。 Llama 3.1 https://llama.meta.com/ Introducing Llama 3.1: Our most capable models to date https://ai.meta.com/blog/meta-llama-3-1/ Llama 3.1はパラメーター数「4050億」「700億」「80億」のモデルが用意されており、すべてのモデルが12万8000のコンテキストウィンドウを備えています。 パラメーター数4050億の「Llama 3.1 405B」のベンチマーク結果を「Nemotron 4 340B Instru

                                          MetaがGPT-4超えのAIモデル「Llama 3.1」をリリース
                                        • RAGで複数のLLMを使う「Speculative RAG」の解説

                                          株式会社ナレッジセンスは、生成AIやRAGを使ったプロダクトを、エンタープライズ向けに開発提供しているスタートアップです。本記事では、「Speculative RAG」という手法について、ざっくり理解します。 この記事は何 この記事は、複数の言語モデルを利用してRAGの回答精度を上げる手法である「Speculative RAG」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー Speculative RAG は、複数の言語モデルで回答生成&最良の回答を選別する手法です。Google DeepMindの研究者らによって2024年7月に提案されました。Speculative RAGを使うメリットは、小さいモデルでも回答精度を高く保てること、それにより、回答

                                            RAGで複数のLLMを使う「Speculative RAG」の解説
                                          • 次世代Web BandlerのFarmが熱そう

                                            はじめに 昨今、ビルドツールは様々なものが開発され、いかに高速化するか、開発者体験を上げられるかが注目されているように思います。2024年6月にState of JSが公開され、その中でBuild Toolsはwebpackが最も使用されており、次いでViteがランキングしています。 Viteの伸びがすごいですね...🔥 ビルドツールも様々ありますが、2024年4月にFarmというWeb Bandlerのv1.0がリリースされました。 気になってドキュメントサイトを覗いてみるとなんだか良さげな雰囲気を感じたので、Farmの特長と推せるポイントをまとめてみようと思います。 やること、やらないこと やること Farmの紹介 Farmの特長とおすすめポイントの紹介 やらないこと Farmの導入方法や詳細について (ドキュメントがわかりやすい) Farmとは? Farmは、webpackやVit

                                              次世代Web BandlerのFarmが熱そう
                                            • NVIDIAとMistral AIがAIモデル「Mistral NeMo」を発表、新型トークナイザ「Tekken」を採用し日本語を含む多言語性能が強み

                                              AI開発企業のMistral AIがNVIDIAと協力してAIモデル「Mistral NeMo」を開発したことを発表しました。Mistral NeMoは各種ベンチマークでGemma 2 9BやLlama 3 8Bを上回る性能を示しており、NVIDIAのAIプラットフォームで利用できるほか、モデルデータがオープンソースで公開されています。 Mistral NeMo | Mistral AI | Frontier AI in your hands https://mistral.ai/news/mistral-nemo/ Mistral AI and NVIDIA Unveil Mistral NeMo 12B, a Cutting-Edge Enterprise AI Model | NVIDIA Blog https://blogs.nvidia.com/blog/mistral-nvid

                                                NVIDIAとMistral AIがAIモデル「Mistral NeMo」を発表、新型トークナイザ「Tekken」を採用し日本語を含む多言語性能が強み
                                              • Steepのメモリ使用量を改善するつもりが、実行速度の改善をしていた - Money Forward Developers Blog

                                                こんにちは。id:Pocke です。 私は最近、Steep のメモリ使用量の改善に取り組んでいます。その過程で(意図せず) Steep の実行速度の改善に成功しました。 その中で行った、メモリ使用量の調査や、結果として実行速度が改善されたことは自分にとって中々楽しい体験でした。この記事では実行速度の改善に至るまでの経緯を紹介します。 記事中のソフトウェアは、執筆時点で最新のものを使用しています。具体的なバージョンは以下の通りです。 Ruby: 3.3.4 MemoryProfiler: 1.0.2 Steep: 1.8.0.dev.1 TL;DR メモリ使用量の調査のために、memory_profiler gem を使った それだけだと不十分なので、Ruby にパッチを当てた上で計測をした 結果としてsteep checkの解析対象ファイル数が多い場合に速度が遅くなることが分かり、改善した

                                                  Steepのメモリ使用量を改善するつもりが、実行速度の改善をしていた - Money Forward Developers Blog
                                                • Intelが第14/13世代Coreの故障原因をようやく究明? 不具合の修正を8月中旬にリリース

                                                  Intelが第14/13世代Coreの故障原因をようやく究明? 不具合の修正を8月中旬にリリース ライター:米田 聡 IntelのデスクトップPC向け第14世代および第13世代Coreプロセッサのうち,おもにハイエンド市場向け製品が唐突に故障するという問題が,ここ数か月,大いに話題になっていた。Intelは,その原因を究明中だったが,詳しい情報が明らかになっておらず,故障の原因さえあやふやな状況が続いていたので,やきもきしていたユーザーもいるだろう。 北米時間7月22日,Intelは,同社のユーザーサポートフォーラムにおいて,故障原因の概要と,問題を修正したマイクロコードを8月中旬を目処にリリースすることを明らかにした。 同ポストをざっくり要約すると,マイクロコードのアルゴリズムに問題があり,プロセッサに対して過大な電圧要求が生じることがあったそうだ。「故障で返品となったプロセッサの分析に

                                                    Intelが第14/13世代Coreの故障原因をようやく究明? 不具合の修正を8月中旬にリリース
                                                  • OpenAI 「GPT-4o mini」発表、優れた推論力とコスト効率、GPT-3.5 Turboの置き換えに

                                                    米OpenAIは7月18日(現地時間)、「GPT-4o mini」を発表した。優れたマルチモーダル推論と低コストを両立させたGPT-4oの小型モデルである。18日より、Assistants API、Chat Completions API、Batch APIを利用するAPI顧客に、GPT-3.5 Turboに代わるテキストおよび視覚モデルとして展開を開始した。エンタープライズ顧客には、来週に提供を開始する。 GPT-4o miniは、GPT-4oと同じ範囲の言語をサポートしている。「MMLU」(自然言語処理モデルの理解力と推論能力を総合的に評価)スコアは82%と、GPT-3.5 Turboや他の小型モデルを上回っている。数学に特化したベンチマーク「MGSM」は87.0%、多言語対応能力と多分野にわたる言語理解能力を評価する「MMMLU」も59.4%と、いずれも高いスコアで優れた実用性を示し

                                                      OpenAI 「GPT-4o mini」発表、優れた推論力とコスト効率、GPT-3.5 Turboの置き換えに
                                                    • AIが量産するデータで何度も学習するAIは「モデル崩壊」する研究結果、SD級の大型画像生成AIを「約29万円」「2.6日」の高コスパで訓練できるSonyAI開発「MicroDiT」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                      Google DeepMindは、同社のAIシステム(AlphaProofとAlphaGeometry 2)が2024年の国際数学オリンピック(IMO)の問題6問中4問を解いたと発表しました。解くのに3日かかった問題もありましたが、超難問も含め42点満点中28点を獲得しました。これは銀メダル相当の成績で、金メダル圏内まであと1点という高得点です。 さて、この1週間の気になる生成AI技術をピックアップして解説する「生成AIウィークリー」(第57回)では、生成AIが生成したコンテンツを生成AIが学習し続けると性能低下が見られ、モデル崩壊が起きるという研究報告を取り上げます。また、Sony AIが大型の画像生成AI(11.6億パラメータ)の訓練を8台のNVIDIA H100 GPUを使用してわずか2.6日で完了し、しかもそれが約29万円という高いコストパフォーマンスを達成した手法「MicroDi

                                                        AIが量産するデータで何度も学習するAIは「モデル崩壊」する研究結果、SD級の大型画像生成AIを「約29万円」「2.6日」の高コスパで訓練できるSonyAI開発「MicroDiT」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                      • コード生成・数学・推論の能力が大幅に向上した「Mistral Large 2」をMistral AIがリリース

                                                        フランスのAI開発企業・Mistral AIが、新世代の主力モデル「Mistral Large 2」を2024年7月24日に発表しました。Mistral Large 2は、コード生成、数学、推論能力が大幅に向上したほか、128kのコンテキストウィンドウを持ち、数十種類の言語やプログラミング言語にも対応しています。 Large Enough | Mistral AI | Frontier AI in your hands https://mistral.ai/news/mistral-large-2407/ Mistral Large 2のモデルサイズは1230億パラメーターで、単一ノードで高スループットを実現できるように設計されているとのこと。また、128kのコンテキストウィンドウを持ち、英語以外にもフランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、アラビア語、ヒンディー語、ロシ

                                                          コード生成・数学・推論の能力が大幅に向上した「Mistral Large 2」をMistral AIがリリース
                                                        • ESModules プラットフォームとエコシステムの狭間で | poteboy

                                                          一定の規模以上のWebアプリケーションにおいて、JavaScriptを開発時のままの形で配信することは滅多にありません。webpackやRollupなどのバンドラを使用して、ファイルをまとめた上で配信することが一般的です。 ESModulesが普及しバンドル工程なしでも主要ブラウザがJavaScriptのモジュールを直接解釈できるようにはなりましたが、我々は依然としてバンドラを使用してWebアプリケーションを開発しています。一体なぜでしょうか? いくつか理由はありますが、その内の1つに importのコストが高い ことがあげられます。 これはv8チームが公開しているベンチマーク測定を見ても明らかです。モジュールの読み込みに時間がかかると当然ページの読み込み速度が遅くなり、ユーザー体験が悪化します。 出典: ES Module loading importのコストを削減するためにエコシステム

                                                            ESModules プラットフォームとエコシステムの狭間で | poteboy
                                                          • 【MiniCPM-Llama3-V 2.5】たった8BでGPT-4o超えのVLM | WEEL

                                                            WEELメディア事業部LLMライターのゆうやです。 MiniCPM-Llama3-V 2.5は、中国のOpenBMB(Open Lab for Big Model Base)が開発した最新のオープンソースマルチモーダル言語モデルで、8BというサイズながらGPT-4Vと同等の性能を有しています。 🚀 Excited to introduce MiniCPM-Llama3-V 2.5! With 8B parameters, it’s our latest breakthrough, outperforming top models like GPT-4V. 📈 💪 Superior OCR capabilities 🔑 Supports 30+ languages HuggingFace:https://t.co/Skivve1BgN GitHub:https://t.co/x868

                                                            • Mistral AIがコード生成特化型AI「Codestral Mamba」をオープンソースライセンスでリリース

                                                              MetaとGoogle DeepMindの元従業員が立ち上げたAI開発企業のMistral AIが、コーディング用AIモデル「Codestral Mamba」を発表しました。オープンソースライセンスでのリリースであり、商用利用が可能となっています。 Codestral Mamba | Mistral AI | Frontier AI in your hands https://mistral.ai/news/codestral-mamba/ Mistral AIは2024年5月に初のコーディング用生成AIモデルとして「Codestral」をリリースしていましたが、Codestralは商用利用が禁止されていました。 Mistral AIが初のコーディング用生成AIモデル「Codestral」をリリース、80以上のプログラミング言語でトレーニング済み - GIGAZINE 今回リリースされたC

                                                                Mistral AIがコード生成特化型AI「Codestral Mamba」をオープンソースライセンスでリリース
                                                              • なぜ中国人に「サイゼリヤ」は人気? 元社長が、赤字のまま20店舗も出店したワケ

                                                                個人消費低迷、原価高騰、人手不足など苦境の外食業界において、安さとおいしさで人気を集めているのが、イタリアンレストランチェーン「サイゼリヤ」です。サイゼリヤは1500以上の店舗のうち、約3分の1を海外店舗が占めているなど、アジアを中心に、海外進出に成功していることでも知られています。 国内で有名なチェーン店の多くが海外展開に苦戦しているなかで、なぜサイゼリヤはうまくいっているのでしょうか。2009年から2022年までサイゼリヤの社長を務めた堀埜一成さんの視点で解説します。 ※本稿は『サイゼリヤ元社長が教える 年間客数2億人の経営術』(ディスカヴァー・トゥエンティワン)を一部抜粋・編集したものです。 裏路地の上海1号店からひっそりスタート サイゼリヤの海外店舗は現在485店。その内訳は、香港を含む中国が432店、台湾21店、シンガポール32店です(2023年8月期)。海外出店は上海からのスタ

                                                                  なぜ中国人に「サイゼリヤ」は人気? 元社長が、赤字のまま20店舗も出店したワケ
                                                                • GoogleがPixel 9でついに「超音波指紋センサー」を採用するとの報道

                                                                  2024年秋にリリースされるPixel 9シリーズでは、これまで精度などの問題が指摘されてきた光学式指紋認証センサーではなく、より信頼性の高い超音波式センサーが搭載されると、海外メディアのAndroid Authorityが報じました。 Google is switching the Pixel 9 to an ultrasonic fingerprint reader - Android Authority https://www.androidauthority.com/pixel-9-fingerprint-scanner-3456801/ GoogleはPixel 6から光学式のディスプレイ内指紋センサーを採用してきました。しかし、初期の光学式センサーには反応が遅い、精度が低い、指に付着している水分や汚れに敏感かと思えば、指が乾燥していても精度が落ちるなどの問題がありました。 Go

                                                                    GoogleがPixel 9でついに「超音波指紋センサー」を採用するとの報道
                                                                  • Microsoftの新作AI PC「Surface Pro」:アイデンティティが“高価”しかない

                                                                    Microsoftの新作AI PC「Surface Pro」:アイデンティティが“高価”しかない2024.07.05 11:3023,968 Kyle Barr - Gizmodo US [原文] ( 福田ミホ ) 宙ぶらりんなのに値段だけ高すぎ、と。 Microsoft(マイクロソフト)のPCブランド「Surface」の2-in-1モデル、Surface Proの第11世代が発売されました。パフォーマンスが上がったのはもちろんですが、時節柄AI機能に特化したCopilot+ PCである、という触れ込みです。 …が、米GizmodoのKyle Barr記者のレビューによると、値段に納得できる要素が、処理性能くらいしかないみたいで…。 この記事の要点・Surface Pro(第11世代)を試用してみたが、欠点が目につき、実質約29万円/約37万円という価格には納得がいかなかった。 ・目玉のA

                                                                      Microsoftの新作AI PC「Surface Pro」:アイデンティティが“高価”しかない
                                                                    • Ruby は String をメモリ上でどのように扱っているのか? | IIJ Engineers Blog

                                                                      電子メール、ネットワーク機器集中管理、異常検知、分散処理、クラウド基盤などのシステム開発に従事。古代Rubyist。 先日、 Ruby (CRuby) が String をメモリ上でどのように扱っているのか気になって調べていました。そこで String の構造体やメモリの扱いとその変遷が興味深いと思ったので、ちょっとまとめてみました。 Ruby のオブジェクトのデータ構造 まず前提知識として、そもそも Ruby が C の世界でオブジェクトをどのようなデータ構造で持っているかをざっくりおさらいします。 VALUE 型 Ruby の内部ではオブジェクトを VALUE 型という型の変数で取り扱っています。 // include/ruby/internal/value.h typedef unsigned long VALUE; 宣言の通り VALUE 型の実体は unsigned long で

                                                                        Ruby は String をメモリ上でどのように扱っているのか? | IIJ Engineers Blog
                                                                      • ASUSの高性能GPUやIntel Core Ultraプロセッサーなどを詰め込んだ超小型ゲーミングPC「ASUS ROG NUC」を分解してみたレビュー

                                                                        ASUSが2024年7月に発売した小型PC「ASUS ROG NUC」は、最大構成で「Intel Core Ultra 9 185H」や、NVIDIAのノートPC向けGPU「GeForce RTX 4070 Laptop GPU」を搭載しており、強力なスペックが魅力の1つです。今回は、外観レビューに引き続き、本体を分解して中の基板などを確認してみました。 ROG NUC | Gaming desktops|ROG - Republic of Gamers|ROG 日本 https://rog.asus.com/jp/desktops/mini-pc/rog-nuc/ というわけで、今回は「ASUS ROG NUC」を分解して中身をチェックしていきます。「ASUS ROG NUC」の外観については、以下の前回記事を参照してください。 超小型ゲーミングPC「ASUS ROG NUC」レビュー、

                                                                          ASUSの高性能GPUやIntel Core Ultraプロセッサーなどを詰め込んだ超小型ゲーミングPC「ASUS ROG NUC」を分解してみたレビュー
                                                                        • 「ChatGPT」一強時代の終わり 狙われるAIの王座

                                                                          OpenAIはこれまで「ChatGPT」および「GPT-4」で大規模言語モデル(LLM)市場を席巻してきた。2022年11月のChatGPT発表、2023年3月のGPT-4リリース、そしてマイクロソフトからの巨額投資により、OpenAIの独走が決定的かに見えた。しかし、その独占的地位は揺らぎつつある。 次々に登場する高性能なLLM OpenAIがGPT-4からGPT-5へのメジャーアップデートに苦戦している中、ライバル勢が急速に台頭してきている。グーグルは「Gemini 1.5 Pro」、Anthropicは「Claude 3.5 Sonnet」、メタは「LlaMA 3.1 405B」と、GPT-4に匹敵する性能を持つモデルを次々と発表している。 特筆すべきは、オープンソースLLMの急速な進化だ。たとえばフランスのAIスタートアップMistralが7月24日(現地時間)に公開した「Mist

                                                                            「ChatGPT」一強時代の終わり 狙われるAIの王座
                                                                          • Metaが「マルチトークン予測」を実行する事前トレーニング済みのコード生成モデルをオープンソースでリリース

                                                                            通常、大規模言語モデル(LLM)のほとんどは「次の単語を予測する」という作業を行っており、一度に出力されるデータ(トークン)は1つです。これに対しMetaは2024年4月の論文で、一度に複数のトークンを出力する「マルチトークン予測」というアプローチを提案しています。7月4日、Metaがマルチトークン予測を用いた事前トレーニング済みモデルを、AI開発プラットフォームのHugging Faceにオープンソースでリリースしました。 In April we published a paper on a new training approach for better & faster LLMs using multi-token prediction. To enable further exploration by researchers, we’ve released pre-trained

                                                                              Metaが「マルチトークン予測」を実行する事前トレーニング済みのコード生成モデルをオープンソースでリリース
                                                                            • 2024年アメリカ人が選ぶ高コスパのコンパクトカー8選(日本車が5車も‼) - 限界ギリギリのサラリーマンのセミリタイアを目指す海外経済・投資・雑記です。

                                                                              2024 年お金に見合った 8 つの最高のコンパクトカー Gobankingratesにタイトル通りの記事が出ていたのでご紹介します。アメリカには ケリー・ブルーブック(Kelley Blue Book)という有名な中古自動車サイトがあり、そのサイトでの評価をもって、高コスパなコンパクトカーを選定しています。車種と参考価格を載せていきます。 ①ホンダ シビック ($25,040 約401万円) ケリー・ブルーブックの2024年最高評価のコンパクトカーです。「ホンダ車は、コンパクトカーの部門の中で確固たる地位を築いており、信頼性、価値、効率性を提供することで何十年にもわたって高い評価を得ています。」とのことです。 ②現代 エラントラ($22,740 約364万円) 車両専門家と消費者の双方の立場から、ケリー・ブルーブックの最高評価を受けたセダンの1つとされています。 ③トヨタ カローラ($2

                                                                                2024年アメリカ人が選ぶ高コスパのコンパクトカー8選(日本車が5車も‼) - 限界ギリギリのサラリーマンのセミリタイアを目指す海外経済・投資・雑記です。
                                                                              • 「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始

                                                                                「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始 AIソリューション事業を手掛ける株式会社ヘッドウォータース(本社:東京都新宿区、代表取締役:篠田 庸介、以下「ヘッドウォータース」)は、生成AIの業務活用を推進する企業向けに「SLMファインチューニング」カスタムサービスの提供を開始しました。 同サービスは、マイクロソフト株式会社が提供する「Azure AI モデルカタログ」から選べるオープンソースAI基盤モデル「Phi-3」、「Llama-3」、並びに「GPT-4o mini」を中心とした小規模言語モデルを使用して、生成AIの回答精度を向上させるサービスとなり、生成AIが作成する文章の精度では業務利用が厳しいと考えられている企業に有用なサービスとなっております。 ヘッ

                                                                                  「Phi-3」「Llama-3」「GPT-4o mini」などの小規模言語モデルを使用して生成AIの回答精度を向上させる「SLMファインチューニング」カスタムサービスを開始
                                                                                • AvidPad A90 レビュー 格安で買える大型タブレットならこれで十分かな - 格安ガジェットブログ

                                                                                  昨今では格安タブレットも目覚ましい進化を見せてきており、昔にありがちだった低価格低性能で、いちいちフリーズを頻発しがちだったものとは変わって、低価格はそのままに、ネットサーフィンや動画鑑賞くらいであれば、特にストレス無く使えるものが増えてきています。 今回レビューしていくAvidPad A90は、実売価格3万円ほどで買えるAndroidタブレットながら、普段遣いに困らない良品となっています。 製品特徴 普段遣いなら困らない処理能力 Widevine L1なので動画鑑賞には向いている 発熱はほとんどしない 大きい割には軽い ディスプレイは結構きれい SIMとMicroSDカードにも対応 メモリが無駄に多い 付属品について 充電に関して 顔認証対応 実売30000円ほどで買える まとめ 製品特徴 普段遣いなら困らない処理能力 このタブレットのSoCには、MediaTek Helio G99とい

                                                                                    AvidPad A90 レビュー 格安で買える大型タブレットならこれで十分かな - 格安ガジェットブログ