並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 953件

新着順 人気順

高速化の検索結果201 - 240 件 / 953件

  • 仮眠プログラマーのつぶやき : UnityでGPGPU応用編 バイトニックソートを高速化

    2020年07月13日12:44 カテゴリUnityGPGPU UnityでGPGPU応用編 バイトニックソートを高速化 バイトニックソート(Bitonic Sort)の概要バイトニックソート(Bitonic Sort)は主にGPU等の並列計算器でソートを実装しようとするときに使われるソートである。 計算量のオーダーはO(n log^2 n)であり、クイックソートのO(n log n)には負けるものの並列化による高速化が勝るという感じなのでいろんなところに使われている。 対象読者キーワード「GPU」「バイトニックソート」で検索してこの記事にたどり着いただろう方が対象。 この記事では ・バイトニックソートでなぜソートできるか ・どうやったら高速化できるか という点について重点的に書いている。 高速化については OpenCLでバイトニックソートを実装している海外サイト をパクリ参考にした。 こ

    • CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみた - Qiita

      CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみたCUDAGPGPUGPU機械学習OpenACC この記事は何? CUDA123 に代わる新しい GPU の 標準API 、OpenACC が最近 CUDA よりも高速化できたという結果4を出していて調子が良いので、現状のヘテロジニアス環境でのマルチデバイス実行(複数のデバイス:CPU、GPU、FPGA、メニーコアCPU、ASIC などを組み合わせた演算)の対応状況を調査してみました。 そもそもOpenACCとは? NVIDIAが中心となって本腰を入れているGPGPUなどのハードウェアアクセラレーションの標準APIです。その特徴として最も特筆すべき点はCUDAと比較してプログラミングが超簡単なことです。以前なら性能差がよりシビアでしたが、現在

        CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみた - Qiita
      • 人間の約830倍高速化を実現。Microsoft「Text Analytics API」でde:code 2019のアンケートを分析してみた | Ledge.ai

        顧客満足度向上を目指して、アンケートを設けている企業は多いだろう。デジタル化が進み、入力や集計が簡単になったため、昔よりアンケートに回答する機会は増えている。 しかし、せっかくエクセルやスプレッドシートでデジタルでアンケートを簡単に収集しても、その後、テキストから満足度の計測や、何を改善すべきかなどを洗い出し、解決するのは人間である。大量のアンケートの集計に莫大な時間を取られるのは想像に難くない。 そこで今回は、マイクロソフト社に協力いただき、同社主催イベント「de:code 2019」で実際にアンケート分析をおこなった。AIを用いてアンケート分析業務の効率化が可能か、AIの精度は実用に耐えうるのかを検証した。 「フィードバック把握の高速化」と「セールスの質向上」を目指す今回のゴールは、「フィードバック把握の高速化」と「セールスの質向上」の2つだ。ひとつ目の「フードバック把握の高速化」では

          人間の約830倍高速化を実現。Microsoft「Text Analytics API」でde:code 2019のアンケートを分析してみた | Ledge.ai
        • "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita

          ローカル環境でも高速で動作するLLMとして話題のRWKVですが、ドキュメントを見ていると環境変数の"RWKV_CUDA_ON"を1に設定することでより高速で動くということなので試してみました。 設定を変更するときに1箇所エラーで躓いたところがあったのでそちらも記録しておきます。 RWKVとは RWKVとはTransformerレベルの性能を持つRNNです。他のLLMと同様に高性能でありつつ推論が高速でVRAMを節約しているのが特徴です。 RWKVをチャットで使えるようにしたものとしてChatRWKVがあります。 また、RWKVをAlpacaデータセットなどを使用してファインチューニングしたものとしてRavenがあります。 ChatRWKVの使い方は次の記事で分かりやすく解説されています。 またRWKVのファインチューニングの方法については以下の記事で解説されています。 RWKV_CUDA_

            "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita
          • Ansibleを最大で25倍高速化するMitogenについて調べてみた - Qiita

            大規模環境になると、Ansibleの実行速度が課題になります。 PipeliningやControlMasterを設定することで、デフォルト設定の2倍程度は速くなりますが、それでも、まだ遅い、、、!! 遅すぎる、、、!! もっと速くする方法はないのかと調べていると Mitogen for Ansible というソフトウェアが、『環境によっては、最大で25倍になるよ!!』と謳っているではありませんか!! わかります。怪しい、怪しいですよね、急にそんな倍率出されるとびっくりしちゃいますよね。私もです。 ですので、本記事では、Ansibleの実行が2倍から5倍速くなり、一部の環境では25倍速くなると謳う Mitogen for Ansibleについて個人的に調べてみました。 (Ansibleの公式ドキュメントの「Other Tools And Programs」のOther Toolsには、記載

              Ansibleを最大で25倍高速化するMitogenについて調べてみた - Qiita
            • teyuに届いたPullRequestで使われているRubyの高速化手法 - takanamitoのブログ

              この記事は ZOZOテクノロジーズ #1 Advent Calendar 2019 21日目の記事です。 昨日の記事は @awsmgsさんによる「Classic ASPによるRESTful APIのルーティング実装例」でした。 この記事では、会社の開発合宿でつくったgem teyu に届いたPullRequestで使われていた高速化手法の紹介と、なぜ速くなるのか?の考察をします。 techblog.zozo.com 届いたPullRequest 高速化その1 each → while 高速化その2 define_method → class_eval 最後に 届いたPullRequest sonots さんから2件の高速化PullRequestが届きました。 Improve performance and readability #2 Fastest version #3 前者では eac

                teyuに届いたPullRequestで使われているRubyの高速化手法 - takanamitoのブログ
              • CircleCIの高速化🚀 / CircleCI faster

                【オフライン開催】Omotesando.rb #92 https://omotesandorb.connpass.com/event/302869/ Example code to skip tests if source trees are the same. https://gist.github.com/sinsoku/7b4201787d36f8ef669abd38395a28db

                  CircleCIの高速化🚀 / CircleCI faster
                • 【山口真弘の電子書籍タッチアンドトライ】 高速化&USB Type-C対応になった「Amazon Fire HD 10(第9世代)」

                    【山口真弘の電子書籍タッチアンドトライ】 高速化&USB Type-C対応になった「Amazon Fire HD 10(第9世代)」
                  • SIMDによる将棋Bitboard計算の高速化 - すぎゃーんメモ

                    自作Rust製将棋合法手生成ライブラリ、計算の高速化のためBitboardの128bit計算をSIMDで行うようx86_64のAVX2、AArch64のNEON、wasm32のsimd128で動くようにそれぞれ実装して 各環境で多少速く探索できるようになった。https://t.co/h7Dz3X6BhT— すぎゃーん💯 (@sugyan) July 2, 2022 ということでSIMDでの高速化のメモ。 SIMDとは 実装 x86_64 基本演算 飛び利き計算 AArch64 同値判定、ゼロ値判定 飛び利き計算 Iterator WebAssembly Benchmark x86_64 AArch64 WebAssembly 感想 SIMDとは ja.wikipedia.org の通り、複数のデータを1命令で同時に演算する、というもの。 将棋Bitboardは81マスのデータを表現する

                      SIMDによる将棋Bitboard計算の高速化 - すぎゃーんメモ
                    • Amazonが自社倉庫に新ロボットの「Sequoia」と「Digit」を導入し在庫の特定を最大75%・注文処理を最大25%高速化することに成功

                      Amazonの物流拠点であるフルフィルメントセンターでは、ロボットアームの「Sparrow」や自律移動ロボットの「Proteus」など、さまざまなロボットが働いており、その総数は75万台にもおよびます。そんなAmazonが、新しいロボットソリューションの「Sequoia」と「Digit」をフルフィルメントセンターに導入したと発表しました。 Amazon announces new fulfillment center robots, Sequoia and Digit https://www.aboutamazon.com/news/operations/amazon-introduces-new-robotics-solutions Amazon’s latest collection of robots aims to speed up fulfillments and increas

                        Amazonが自社倉庫に新ロボットの「Sequoia」と「Digit」を導入し在庫の特定を最大75%・注文処理を最大25%高速化することに成功
                      • ElasticsearchのANNを利用して100万件のベクトル検索を高速化! - Taste of Tech Topics

                        この記事は Elastic Stack (Elasticsearch) Advent Calendar 2023 18日目の記事です。 こんにちは。 Acroquestのデータサイエンスチーム「YAMALEX」に所属する@shin0higuchiです😊 YAMALEXチームでは、コンペティションへの参加や自社製品開発、技術研究などに日々取り組んでいます。 さて、最近はLLMの発展に伴ってRAG(Retrieval-Augumented Generation)が盛んに活用されています。 その中で、キーワードベースの検索だけでなくベクトル検索を併用するケースが多く見られ、実際にElasticsearchが利用されているケースも多く目にします。そのため、Elasticsearchのベクトル検索に興味を持っている方も多いと思います。今回の記事では、Elasticsearchのベクトル検索の速度な

                          ElasticsearchのANNを利用して100万件のベクトル検索を高速化! - Taste of Tech Topics
                        • RLS + 大量データ下でクエリチューニングして100倍高速化した話 - Beatrust techBlog

                          Beatrust で SRE をやっている Yuta (中川 裕太) です.運用がラクにできるように色々と改善したり,セキュリティ向上したり,インフラ作ったり API 開発したりしています. 今回のブログでは,Row Level Security (RLS) 下で現実的なレイテンシで大量データを扱うためにクエリをチューニングした結果とそこから学んだプラクティスを紹介します. モチベーション Beatrust ではセキュリティ向上のために,顧客 (テナント) ごとにデータを論理的に分離する RLS を用いています. tech.beatrust.com tech.beatrust.com おかげさまで Beatrust は BtoB サービスとして順調に成長しており,創業3年目のタイミングで 1 顧客あたり数万人規模のお客様の導入も現実味を帯びてきました.RLS はその性質上,データ量の増加に

                            RLS + 大量データ下でクエリチューニングして100倍高速化した話 - Beatrust techBlog
                          • largest contentful paint の画像のプリロードしてWebページの読込速度を高速化する方法

                            画像をギリギリまで圧縮してもpage speed insightsでLCP時間を改善する為にプリロードしてくださいと表示されますがどうすればいいの? Webサイトやブログを運営するなら画像を入れて読みやすいページを作りたいでも画像を入れすぎると読込速度が遅くなってしまい せっかく記事を読みに来てくれた方が最後まで読まずに途中で離脱してしまい結果アクセス数が激減してアドセンスやアフィリエイトの収益も減ってしまいます。 最近のGoogleはユーザーの利便性を重要視しているので表示速度も評価項目の対象になりSEO(検索エンジン最適化)にも影響が出るのでなるべく記事を軽くする事が大切です。

                            • Notion活用アイデア集|情報収集~タスク完了を一貫して高速化! | ライフハッカー・ジャパン

                              サンディスクのmicroSDカード 512GBが40%OFF。写真や動画のデータ置き場はこれで良くない?【Amazonセール】

                                Notion活用アイデア集|情報収集~タスク完了を一貫して高速化! | ライフハッカー・ジャパン
                              • CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo

                                このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。 はじめに こんにちは、エンジニアの高木です。 私は現在、adaskitという社内の自動運転関連のオープンソースプロジェクトに携わっており、プロジェクトの成果としてこれまでlibSGMやcuda-bundle-adjustmentなどを公開しています。 今回はVisual SLAMやSfM(Structure from Motion)で行われる局所特徴量計算について、CUDAによる高速化に取り組んだ話を紹介します。また、そのソースコードをcuda-efficient-featuresという名前でGitHubに公開しました。 fixstars/cuda-efficient-features 背景 局所特徴量計算 Visual SLAMやSfMでは、2つの視点間の相対的なカメラ姿勢を推定する

                                  CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo
                                • 「達人が教える Webパフォーマンスチューニング ~ISUCONから学ぶ高速化の実践」レビュー - Qiita

                                  はじめに この記事は、技術評論社出版の「達人が教える Webパフォーマンスチューニング ~ISUCONから学ぶ高速化の実践」のレビューです。 著者の一人の方から献本を頂きまして、レビューを掲載しています。 それ以外の報酬などはありませんので、思ったことを書いています。 本書のターゲット パフォーマンスチューニングは私が考えるに大きく2つの視点があると思います。 一つ目はマクロな視点でのチューニング、もう一つがミクロな視点でのチューニングです。 本書が扱っているようなWebサービス (Webアプリケーション) は一つのソフトウェア (いわゆるアプリケーション本体) だけでは動作せず、データベース (多くはRDBMS) やその他のミドルウェアの組み合わせによって動いています。 組み合わせで動いているシステムを高速化するには、マクロな視点で観測しチューニングする必要があります。競技で言うとISU

                                    「達人が教える Webパフォーマンスチューニング ~ISUCONから学ぶ高速化の実践」レビュー - Qiita
                                  • 「Windows 10」のプレビュー版で新しいフォルダーアイコンがお披露目 ~ディスクドライブやごみ箱も新しく/「Windows サンドボックス」の起動も高速化されたDev版Build 21343が公開

                                      「Windows 10」のプレビュー版で新しいフォルダーアイコンがお披露目 ~ディスクドライブやごみ箱も新しく/「Windows サンドボックス」の起動も高速化されたDev版Build 21343が公開
                                    • 【処理速度53倍】コンテナ脆弱性スキャンツールTrivyの初回実行速度が高速化されました! | DevelopersIO

                                      「これは、まじで圧倒的…」 OSSの脆弱性スキャンツールとして界隈では有名な「Trivy」。以前からもお世話になっていたのですが、初回起動処理が長いためキャッシュが効かないCI/CDツールとは相性が悪いという弱点がありました。 それが、バージョン0.2.0からその弱点の初回起動処理の遅さが一気に解消され、既存のCI/CDツールへの取り込みが現実的になりました。 インストールも簡単で、かつワンライナーで実行できる手軽なツールなので、コンテナを運用している人はこれを機に一度試してみることをおすすめします。 初回起動爆速化きたか…!! ( ゚д゚) ガタッ /   ヾ __L| / ̄ ̄ ̄/_ \/   / Trivyとは GitHubはこちら。 aquasecurity/trivy: A Simple and Comprehensive Vulnerability Scanner for Co

                                        【処理速度53倍】コンテナ脆弱性スキャンツールTrivyの初回実行速度が高速化されました! | DevelopersIO
                                      • 北海道新幹線 貨物撤退で“16分短縮”見込む 高速化を検討 国交省 | 北海道放送

                                        新幹線の高速化にともなって青函トンネル区間で貨物列車の縮小・撤退が検討されている問題で、国交省は、貨物の全面撤退による新幹線の時間短縮効果を16分と見込んでいることがわかりました。 新幹線の札幌延伸にともない国交省は、青函区間でレールを共用する貨物列車を縮小・撤退させ、新幹線を高速化する検討を進めています。 関係者によりますと、国交省は現在、青函トンネル内で160キロ、トンネル前後で140キロに制限されている速度を260キロに引き上げることで、この区間で16分の短縮を見込んでいます。 ただ、すべての列車を16分短縮するには貨物列車の全面撤退が必要で、物流業界からは反対の声が相次いでいます。 国交省は年度内に方向性を示す方針です。

                                          北海道新幹線 貨物撤退で“16分短縮”見込む 高速化を検討 国交省 | 北海道放送
                                        • Visual Studio 2022正式リリース。初の64ビット化による高速化、実行中のアプリにコード変更が反映される「ホットリロード」、.NET 6対応など新機能

                                          Visual Studio 2022正式リリース。初の64ビット化による高速化、実行中のアプリにコード変更が反映される「ホットリロード」、.NET 6対応など新機能 下記は正式リリースを発表した製品担当のAmanda Silver氏のツイートです。 Visual Studio 2022 is out! The 1st 64-bit release is the fastest yet. Goodies like Hot Reload for C# & C++, AI code completion and refactoring via IntelliCode, & better support for cross-plat apps with .NET MAUI and C++! #HappyCoding #VisualStudio2022 https://t.co/OBlaaTHzGw

                                            Visual Studio 2022正式リリース。初の64ビット化による高速化、実行中のアプリにコード変更が反映される「ホットリロード」、.NET 6対応など新機能
                                          • 近似最近傍探索ライブラリFaissの4bit PQアルゴリズムについて、ARM CPU上での動作を60倍程度高速化しました - Fixstars Tech Blog /proc/cpuinfo

                                            このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。 TL;DR: Issue, PR ソリューション第二事業部の今泉です。 先日東京大学の松井先生と共同でFacebook AI Research(以下FAIR)が公開している近似最近傍探索ライブラリFaissの4bit PQアルゴリズムのARM CPU(aarch64)上での動作を60倍程度高速化しました。 本稿ではまず近似最近傍探索やFaissについて軽く紹介した後、その高速化内容について解説を行います。 近似最近傍探索について まず最近傍探索とは、「複数のベクトルからなる集合 \( \mathit{Vs} \) が存在し、あるベクトル \( \boldsymbol{x} \) に対して最も近い要素 \( \boldsymbol{v} \in \mathit{Vs} \) を求める」と

                                              近似最近傍探索ライブラリFaissの4bit PQアルゴリズムについて、ARM CPU上での動作を60倍程度高速化しました - Fixstars Tech Blog /proc/cpuinfo
                                            • DenoがNode.js互換レイヤを本体に統合し高速化、package.jsonサポートでNode.jsからの移行がさらに容易に。Deno 1.31リリース

                                              DenoがNode.js互換レイヤを本体に統合し高速化、package.jsonサポートでNode.jsからの移行がさらに容易に。Deno 1.31リリース JavaScriptランタイムのDenoの最新版「Deno 1.31」が2月24日にリリースされました。 Deno 1.31ではNode.js互換機能が本体に統合され、package.jsonのサポートでNode.jsからの移行がさらに容易になるなどの改善が行われています。 Deno v1.31 has been released! package.json support! stable Node-API npm specifiers supported in remote modules Deno.Command subprocess API is stable V8 11.0 Read all about it in the r

                                                DenoがNode.js互換レイヤを本体に統合し高速化、package.jsonサポートでNode.jsからの移行がさらに容易に。Deno 1.31リリース
                                              • 喋り出しを高速化したり現実の情報とリンクしてAIエージェントを進化させる|ねぎぽよし

                                                ChatGPT APIが公開されてからいろんな人が自分のキャラクターとおしゃべりしたりAITuberが一歩先に進化したりと面白いものがたくさん見れてとても嬉しいです! AI界隈の情報密度が高すぎて↓の記事を書いたのが2日前というのが信じられませんね。 さてChatGPT APIでみんなのキャラクターが知能を持って喋れるようになったわけですが、自分が作ったものを振り返ってみたらまだまだ改善の余地がいっぱいありそう+もうちょっとできることが増えてほしいなと思い、自分のAIエージェントに追加で実装をしてみました。 そこで実装した内容について概要をお話します。 AIの喋り出しを高速化するまず気になったのは自分とAIエージェントのコミュニケーションにおいて待たされる時間が非常に長いことです。 この間を整理すると、以下のような時間がかかります。 1.自分の発話をテキストに起こす時間 2.そのテキストを

                                                  喋り出しを高速化したり現実の情報とリンクしてAIエージェントを進化させる|ねぎぽよし
                                                • RailsのCIのテスト実行時間を 10分から5分に高速化した話 - Findy Tech Blog

                                                  FindyでEMをしている栁沢(@nipe0324a)です。 今回は、FindyのとあるRailsのCIのテスト実行時間を10分から5分に高速化した話をご紹介します。 「CIのテスト実行時間が遅い...」 「CIの実行時間を短くしたい!!」 と感じている方はぜひご覧くださいませ。 Findyでは2024年2月現在、1人あたり1日4プルリクを平均で作っています。静的解析や自動テストなどを即時に行うCI環境がないとスピード感のある開発ができなくなるため、CIを高速で回しタスクを完了させる必要があります。機能も増え、テストケースも拡充したことでCIの高速化が求められるようになりました。 また、個人的には、CIは遅くても10分、理想は5分以内で終わるのを1つの目安にしています。これぐらいのスピード感でCIが完了すると、「プルリク作ってレビュー依頼する」、「レビューコメントもらって対応する」といった

                                                    RailsのCIのテスト実行時間を 10分から5分に高速化した話 - Findy Tech Blog
                                                  • Rust製パターンマッチングマシンDaachorseを使ってPythonパイプラインを高速化する話 - エムスリーテックブログ

                                                    エムスリーエンジニアリンググループ AI・機械学習チームでソフトウェアエンジニアをしている中村(po3rin) です。検索とGoが好きです。 今回は文字列界隈を賑わせている高速なRust製パターンマッチングマシンDaachorseをPythonで呼び出して既存の文字列パターンマッチロジックを高速化したお話をします。 Daachorseとは なぜPythonから呼び出したいのか パターンマッチングのみのベンチマーク python-daachorseだけオートマトン構築込みのベンチマーク まとめ We are Hiring! その他 Daachorseとは DaachorseはLegalForceさんで開発運用されている文字列パターンマッチを行うRust製ライブラリです。 github.com 技術的なトピックに関してはLegalForceさんの記事が全て解説しているののでそちらを参照してくだ

                                                      Rust製パターンマッチングマシンDaachorseを使ってPythonパイプラインを高速化する話 - エムスリーテックブログ
                                                    • IBMが合計20年かけて開発した「NorthPole」チップの存在が明らかに、脳にインスパイアされた設計でAIの高速化が可能

                                                      カリフォルニア州アルデマンにあるIBM研究所が、前身のチップと合わせると20年かけて研究してきたという新タイプのデジタルチップ「NorthPole」の存在が明らかになりました。開発陣のダルメンドラ・モーダ氏によると、脳の計算方法からインスピレーションを得ることで、コンピューターチップの基本構造を改めたとのことです。 Neural inference at the frontier of energy, space, and time | Science https://www.science.org/doi/10.1126/science.adh1174 IBM Research's new NorthPole AI chip | IBM Research Blog https://research.ibm.com/blog/northpole-ibm-ai-chip ‘Mind-blow

                                                        IBMが合計20年かけて開発した「NorthPole」チップの存在が明らかに、脳にインスパイアされた設計でAIの高速化が可能
                                                      • 「リングフィット アドベンチャー」に多数のフィットネスが実装された舞台裏 バラバラの3チームはいかにして高速化を果たしたか?

                                                          「リングフィット アドベンチャー」に多数のフィットネスが実装された舞台裏 バラバラの3チームはいかにして高速化を果たしたか?
                                                        • 『ウィッチャー3 ワイルドハント』の新世代機版が12月配信へ。レイトレーシング対応やロード高速化などアップグレードを多数導入 - AUTOMATON

                                                          CD PROJEKT REDは11月15日、『ウィッチャー3 ワイルドハント』の“新世代機版”を、12月14日に配信すると発表した。 『ウィッチャー3 ワイルドハント』は、PC/PS4/Xbox One向けに2015年に発売されたオープンワールドRPG。2019年にはNintendo Switch版もリリースされ、今年4月時点で4000万本を売り上げている。そして今回発表された新世代機版は、PS5/Xbox Series X|S向けに最適化を施したバージョンであり、そのアップグレード内容はPC版にも提供される。 The next-gen update for The Witcher 3: Wild Hunt is coming on December 14th, free for everyone who already owns the game. For more details an

                                                            『ウィッチャー3 ワイルドハント』の新世代機版が12月配信へ。レイトレーシング対応やロード高速化などアップグレードを多数導入 - AUTOMATON
                                                          • End-to-End 音声認識のレスポンスを高速化する最小遅延学習

                                                            ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。音声認識技術の研究開発を担当している篠原です。 皆さんはスマートフォンで音声による検索を使ったことがあるでしょうか? 音声認識は入力された音声をテキストに変換する技術で音声検索などさまざまなアプリで使われています。最近「End-to-End 音声認識」というニューラルネットに基づく革新的な方式が登場して驚くようなスピードで技術が発展しているところです。この記事ではヤフーにおける End-to-End 音声認識の研究成果の一例として「最小遅延学習」と呼ばれるレスポンス高速化の新技術を紹介します。 なお、本研究は米国カーネギーメロン大学の渡部晋治准教授との共同研究として実施したものです。また、この技術の詳細は先週開催された

                                                              End-to-End 音声認識のレスポンスを高速化する最小遅延学習
                                                            • Meta が公開したデータ処理の効率化・高速化を狙うエンジン Velox が面白そう

                                                              2022-09-01 日課の RSS フィードを眺めていると、クエリエンジンやデータ処理の最適化のための高速化ライブラリが Meta が OSS として公開した1 のを知った。 Velox のリポジトリはこちら facebookincubator/velox: A C++ vectorized database acceleration library aimed to optimizing query engines and data processing systems. 実際にリポジトリを観てみると C++で書かれており、たしかにパフォーマンスが高いのが納得。 ドキュメントやチュートリアルなどはこちらのサイトで用意されています。 Hello from Velox | Velox Meta 社内では、Presto や Spark に適用して処理の高速化、PyTorch に活用して前処理

                                                                Meta が公開したデータ処理の効率化・高速化を狙うエンジン Velox が面白そう
                                                              • Next.jsのISRを独自に実装する ~ レンダリングミドルウェアによるCSR/SPAサイトの高速化編 ~

                                                                この記事は何? これは「Next.jsのISRを独自に実装する」という記事の続編になります。 この記事では、上で紹介しきれなかった、CSRなページ・SPAなコンテンツをスタティックなページに変換して配信するということについて紹介していきます。 前提となる情報は上の記事で述べられているため、まずはそちらをご覧ください。 全体像 上の記事にでも説明されていた概要図をそのまま引用しています。 本記事で説明するのは、Cloudflare Workers以外の部分です。 ここではオリジンをNext.jsにしていますが、Create React Appで作ったようなプレーンなSPAサイトでも構いません。 Next.jsのISRを独自に構築する ~ Cloudflare Workers編(Cache APIの注意点) ~ Workerとオリジンとの間にレンダリングミドルウェアを挟むことで、事前に代理レン

                                                                  Next.jsのISRを独自に実装する ~ レンダリングミドルウェアによるCSR/SPAサイトの高速化編 ~
                                                                • 1400 行の一枚岩な .gitlab-ci.yml を分割して CI を高速化した - 弁護士ドットコム株式会社 Creators’ blog

                                                                  こんにちは。弁護士ドットコム クラウドサイン事業本部で SRE をしています、大内と申します。 クラウドサイン事業本部の SRE ではサービスの可用性、信頼性の向上や開発の高速化、省力化を目指した開発を日々行っています。 クラウドサイン事業本部では本体アプリケーション(以下本体)のソースコード管理を GitLab で行っています。 そして、本体とその関連サービス、バッチなどを 1 つのリポジトリで管理するモノレポ構成を取っています。 今回は、そんなモノレポ構成のリポジトリの GitLab CI パイプラインを分割し、開発速度を大きく改善した話をご紹介します。 CI 分割以前の CI 構成 モノレポ構成プロダクトの CI が抱えていた課題 他のテストの待ち時間の影響を受けて待ち時間が伸びる テストが失敗するとすべてのデプロイがブロックされる .gitlab-ci.yml の肥大化による、コー

                                                                    1400 行の一枚岩な .gitlab-ci.yml を分割して CI を高速化した - 弁護士ドットコム株式会社 Creators’ blog
                                                                  • NVIDIAのドライバアップデートでStable Diffusionが2倍高速化

                                                                    2023年10月17日に配信された「Game Ready ドライバー」のアップデートによりいくつかのゲームの起動時パフォーマンスが向上し、さらに画像生成AIのStable Diffusionが最大2倍速くなることが発表されました。 New Game Ready Driver Released: DLSS 3 For NARAKA: BLADEPOINT and Warhammer: Vermintide 2, Plus RTX Video Super Resolution Enhancements & Stable Diffusion Is Now Up To 2X Faster | GeForce News | NVIDIA https://www.nvidia.com/en-us/geforce/news/game-ready-driver-dlss-3-naraka-verminti

                                                                      NVIDIAのドライバアップデートでStable Diffusionが2倍高速化
                                                                    • TwitterがGoogle主導で開発されたウェブサイトを高速化する形式「AMP」のサポートを打ち切ることが判明

                                                                      Twitterが、Accelerated Mobile Pages(AMP)への対応を廃止し、モバイルアプリからウェブサイトにアクセスするユーザーをAMPページにリダイレクトしなくなることがわかりました。 Twitter rolls back AMP support, no longer sends users to AMP pages https://searchengineland.com/twitter-rolls-back-amp-support-no-longer-sends-users-to-amp-pages-376168 Twitter for Android, iOS no longer opens AMP articles - 9to5Google https://9to5google.com/2021/11/18/twitter-amp/ AMPとは、GoogleとT

                                                                        TwitterがGoogle主導で開発されたウェブサイトを高速化する形式「AMP」のサポートを打ち切ることが判明
                                                                      • Netflix がReact をやめて、SSRにしたらランディングページを 50% 高速化できたということらしいのですが、一方slackはReactで高速にしたとのことですが、この違いは何でしょうか?

                                                                        回答: リンク先の記事: * A Netflix Web Performance Case Study で重要なのは > Netflix uses React on the client and server, but they identified that the client-side portion wasn't needed for the first interaction, so they leaned on what the browser can already do, and deferred client-side React. です。詳しくいうと * ...

                                                                          Netflix がReact をやめて、SSRにしたらランディングページを 50% 高速化できたということらしいのですが、一方slackはReactで高速にしたとのことですが、この違いは何でしょうか?
                                                                        • 約67万倍の高速化と約10倍の高精度化を達成したAI技術を大阪大学が開発

                                                                          大阪大学産業科学研究所・産業科学AIセンターの教授で副センター長を務める櫻井保志氏と同准教授の松原靖子氏らの研究グループは2019年11月20日、世界最高水準の革新的なAI(人工知能)技術を開発したと発表した。時系列ビッグデータの解析技術を発展させたもので、これまでの「深層学習に基づく技術」を超える高い精度での予測や最適化、リアルタイム学習と情報出力、要因分析や結果説明を可能にするとしている。 開発した技術を応用することで、例えば、自動車走行時の急なブレーキやハンドル操作、工場での装置故障といった兆候の検知などに向けた要因分析を、ビッグデータから自動的にリアルタイムで実施できる。 多次元の時系列データストリームから動的ネットワークモデルを構築 櫻井氏らのグループは、多次元の時系列データストリームから重要なパターンや動的な因果関係を自動的に抽出し、動的ネットワークモデルを構築し続けるようにし

                                                                            約67万倍の高速化と約10倍の高精度化を達成したAI技術を大阪大学が開発
                                                                          • Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録

                                                                            概要 先日までKaggleのAIMOコンペ(数学の問題をLLMに解かせて正答率を競う)に参戦していました。結果は初のチーム参加でメンバーに助けられつつ運もあり、なんとか銀メダルを取れました!これでMasterにリーチがかかりましたが、金メダルは未だ取れる気がしないので遠い道のりです……。 www.kaggle.com このコンペについて、近い内に同様のコンペが開催予定なこともあり上位解法があまり出ていない状態なので、どのような手法が良かったのかまだわかっていないのですが、とりあえず公開されている情報を元にすると、 LLMとしてはほぼほぼ全員が数学問題に特化したLLMであるDeepseek-Math-7Bを利用している LLMが出力したPythonコードを実行するインタープリターを実装することで、LLMのハルシネーションによる計算ミスを防ぐパイプラインが有力であった LLMの出力を比較的高い

                                                                              Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録
                                                                            • 【Mac Info】 「Macの起動が遅い」を解消する“正しい”高速化テクニック

                                                                                【Mac Info】 「Macの起動が遅い」を解消する“正しい”高速化テクニック
                                                                              • 第3世代Amazon「Echo Show 5」登場。新プロセッサで高速化

                                                                                  第3世代Amazon「Echo Show 5」登場。新プロセッサで高速化
                                                                                • AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                                                  Image credit: HuggingFace 「ChatGPT」「LLaMA 2」「Claude 2」「Bard」「Falcon 180B」など、現在エンタープライズソフトウェア市場で話題になっているような AI の大規模言語モデル(LLM)のトレーニングには、大規模で専門的な計算能力が必要だ。そのため、OpenAI、Meta、Cohere、Google、Abu Dhabi の Technology Innovation Institute など、資金力のある大規模な組織がその役割を担っているのは不思議ではない。 しかし、Microsoft Research 機械学習基盤(Machine Learning Foundation)チームのリーダー Sebastien Bubeck 氏は、彼らの新しい非商用の「phi-1.5」のようなオープンソースでリソース効率の良いモデルの研究のおかげ

                                                                                    AIのトレーニングを大幅に安く高速化できるLLM「phi-1.5」が登場 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報