並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 141件

新着順 人気順

高速化の検索結果1 - 40 件 / 141件

  • 生成AIで会社の要件定義プロセスを100倍高速化した話 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 要約 要件定義で生成AIを活用するポイントを整理 要件定義に特化したAIシステムのアーキテクチャを紹介 一般的なソフトウェア開発プロセスに適用できるので範囲が広い 最終的な成果物 ↓パワーポイントで作った資料をgifでエクスポートしたもの このパワーポイントの資料、 まったく人の手で修正をしていません 。完全自動の生成AIで作成された資料です。もちろん完璧なものにはならないので修正が必要なところも出てくるのですが、修正可能なpptx形式で出力されるのでパワーポイントでサクッと修正ができます。そして 1からこの資料を作るのに15分もかかっ

      生成AIで会社の要件定義プロセスを100倍高速化した話 - Qiita
    • GAS高速化のススメ - Nealle Developer's Blog

      GAS高速化のススメ はじめに こんにちは。サクセスエンジニアリングチームの増田です。 今年の8月に入社して早4か月が経ちました。 入社エントリも公開していますので良ければ見ていってください note.nealle.com 最近週4でカレーばっか食ってます。 美味しいカレーの後がけスパイスやソースなどあればぜひ教えていただきたい...! GASについて みなさん普段から業務でGAS(Google Apps Script)利用されてますでしょうか。 GASは知っての通りセットアップ不要で使え、Googleサービス(Google Sheets、Gmail、Driveなど)への認証が標準で組み込まれている非常に便利なツールです。非エンジニアでも扱いやすく、業務効率化の手段として広く活用されています。 GASのデメリットと課題 そんな便利なGASですが多くの制限が存在します。 その中でも代表的なも

        GAS高速化のススメ - Nealle Developer's Blog
      • 話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)

        画像生成AI「Stable Diffusion」共同開発者たちによって設立されたベンチャー企業「Black Forest Labs(BFL)」が、8月1日(現地時間)に発表した話題の画像生成AIモデル「FLUX.1」。 前回の「画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した」では、「ComfyUI」による画像生成を試した。 今回は、この連載ではおなじみ「Fooocus」の作者lllyasviel氏によるStable Diffusion用の高性能なWebインターフェース「Stable Diffusion WebUI Forge」が8月11日頃にFLUX.1に対応したということで、さっそく動作確認してみる。 なお、筆者の環境は以下のとおりだ。 CPU

          話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)
        • 【マジか】0円でニンテンドースイッチのネット速度を高速化する方法がスゴイ?→ 実際に試した結果|ガジェット通信 GetNews

          いまインターネット上で「0円でニンテンドースイッチのネット速度を高速化する方法」が話題となっている。実は数年前からYouTubeをメインに知られていた方法だが、いま現在も定期的に話題となっており、ニンテンドースイッチのネット高速化を試す人は多いようである。 オンラインゲームの遅延軽減も期待できる ニンテンドースイッチのネット速度を高速化できれば、ニンテンドーeショップのモッサリ感が軽減され、ゲームのダウンロードが短時間で可能となるのはもちろんのこと、オンラインゲームの遅延軽減も期待できる。 スペック以上の性能は引き出せないが もちろん、ハードのスペックに限界はあるので、どんなにネット速度がアップしたとしても、スペック以上の性能は引き出せない。とはいえ、ネットは遅いより速いほうが快適なのは事実。 ニンテンドースイッチのポテンシャルを最大限に! ニンテンドースイッチが持つポテンシャルを引き出そ

            【マジか】0円でニンテンドースイッチのネット速度を高速化する方法がスゴイ?→ 実際に試した結果|ガジェット通信 GetNews
          • JavaScript エンジンの高速化

            これらの JavaScript エンジンのうち、以下では特に JavaScriptCore を扱います。 最適化の基本戦略 JavaScript をはじめとする動的言語は、主にインタープリタにおいて実行されます。しかし、インタープリタはコンパイルされたコードと比較して実行に時間を要するという欠点があります。そこで、インタープリタの最適化では、バイトコードの JIT コンパイルが最初に行われます。 しかし、コンパイルには当然時間がかかります。少しでも高速化されたコードを生成するには、より多くの時間をコンパイルにかけなければなりません。コンパイルによる速度向上とコンパイルのレイテンシはトレードオフの関係にあります。 そこで、多くの JavaScript エンジンは、インタープリタと多階層の JIT コンパイラの組み合わせで構成されています。次の図は、主要な JavaScript エンジンの設計

              JavaScript エンジンの高速化
            • プログラムを約3200倍高速化して、社内業務のボトルネックを解消したお話 - Tabelog Tech Blog

              はじめに この記事は 食べログアドベントカレンダー2024 の16日目の記事です🎄 こんにちは。食べログ開発本部ウェブ開発1部 システム運用改善チーム所属の @4palaceです。 今回は、私の所属するシステム運用改善チームで、とある社内業務の処理パフォーマンスを改善した事例を紹介します。 この事例では、10日間かかっていた処理を、少しの改修で10分未満に短縮しました。 改修量としては小さくとも、大きなパフォーマンス改善を実現でき、運用業務の効率化につながりました。 個人的に興味深い例でしたので、ここで共有させていただきます。 問題の発見 月次処理が月内に終わらない! きっかけはカスタマーサポートチームからの相談でした。 「月次の新店舗の登録チェック業務で行われているマッチング処理が遅すぎて、後続の業務も含めて月内に終わらなくなってきている。どうにかできませんか?」 そもそもこの業務とは

                プログラムを約3200倍高速化して、社内業務のボトルネックを解消したお話 - Tabelog Tech Blog
              • 今日からできる!簡単 .NET 高速化 Tips -2024 edition-

                C# / .NET における、パフォーマンス改善の Tips をお届けします。 これを見れば、効率良く 80 点を取ることができるようになるはずです!

                  今日からできる!簡単 .NET 高速化 Tips -2024 edition-
                • 高速化のエンジニアリング。注文してから0.722秒。100倍速いぞ!Python : 75.884 C++ : 3.392   JIT Python : 0.722 JITコンパイラで高速化されたコードを自動生成するツール。 - Qiita

                  アリスは驚きと興奮を抑えきれませんでした。彼女はすぐに新しいコードを試し、その速さに目を見張りました。今まで数時間かかっていた計算が、ほんの数分で終わったのです。 翌日、アリスはこの発見を友人たちに話しました。友人たちも同じように魔法の本を使い、彼らのコードを高速化しました。こうして、プログラミング王国全体で「JITの魔法の本」が広まりました。 やがて、アリスは王国のプログラミング大会で優勝し、JITの魔法の本の力をさらに広めることになりました。彼女は「JITの守護者」として称えられ、プログラミング王国はかつてない繁栄を迎えました。 アリスはいつも心に誓いました。どんなに強力なツールも、それを使う人々の努力と情熱があってこそ、本当の力を発揮するのだと。彼女の言葉は次世代のプログラマーたちに伝わり、JITの魔法の本は永遠に受け継がれていくのでした。 前回のあらすじ。 Python count

                    高速化のエンジニアリング。注文してから0.722秒。100倍速いぞ!Python : 75.884 C++ : 3.392   JIT Python : 0.722 JITコンパイラで高速化されたコードを自動生成するツール。 - Qiita
                  • Playwrightを参考にブラウザ内テキスト検索を高速化する (事例紹介:サードパーティスクリプト提供会社)

                    ブラウザ内テキスト探索の高速化というテーマで改善を行いました。公開許可は頂いていますが、先方の希望で社名は伏せさせていただきます。 技術的には「再現性がある木構造のノード探索の条件の生成、その実行の高速化」という少しR&Dっぽいタスクでした。Playwright のコードを参考にしつつ、個別により速いパーツで置き換えていく、というもので非常に興味深いものでした。こういう仕事は楽しいので、いくらでも歓迎です。 今回は最初はドメイン理解に時間をあてて、その後十分にドメイン理解が進んだら計測しつつ改善する、という流れです。 以下、敬称略。 相談内容 ブラウザを自動操作する技術を開発している。技術的には一種のE2Eテストの応用技術で、サーバーに要素の探索条件と、その操作を登録する。 今回の相談では、その要素探索が重くなってしまうケースがあり、これを改善してほしい、という依頼。とくにテキストを条件に

                      Playwrightを参考にブラウザ内テキスト検索を高速化する (事例紹介:サードパーティスクリプト提供会社)
                    • E2Eテストワークフローを高速化・安定化させる取り組み | ドクセル

                      スライド概要 GitHub Actions Meetup Tokyo #3 https://gaugt.connpass.com/event/317178/ このプレゼンテーションでは、サイボウズ社のGaroonのE2Eテストについて、GitHub Actions self-hosted runner 上で実行していたE2Eテストを高速化・安定化させるために取り組んだこと、E2Eテストワークフローの視点の改善アイディアについて話されます。GaroonのE2Eテストにおける実行時間とFlakyが問題となっており、その改善に取り組んだ内容が紹介されています。 おすすめタグ:GitHub Actions,E2Eテスト,self-hosted runner,Garoon,テストワークフロー

                        E2Eテストワークフローを高速化・安定化させる取り組み | ドクセル
                      • MySQL8.0で低速になったSELECT COUNTを高速化する - CyberAgent SRG #ca_srg

                        #SRG(Service Reliability Group)は、主に弊社メディアサービスのインフラ周りを横断的にサポートしており、既存サービスの改善や新規立ち上げ、OSS貢献などを行っているグループです。

                          MySQL8.0で低速になったSELECT COUNTを高速化する - CyberAgent SRG #ca_srg
                        • GitHub Actions 上での Go の Docker ビルドを高速化する

                          どうも GitHub Actions 上で Docker ビルドを行うと時間がかかるなぁと感じていました。 かなり軽量の Go の Web アプリケーションを Docker イメージにしてプッシュするプロセスなのですが、全体で 3 分ほどかかっています。 今回はその速度改善を行ったので、得た知見を記事にしたいと思います。 最終的に、ケース次第では以下のような結果を出すことができました。 ※ケース = go のソースコードのほんの一部を変更してワークフローを実行する。 go.mod など依存関係に変化はない。 go build: 60秒 → 1秒 docker/build-push-action ステップ: 2分30秒 → 30秒 ワークフロー: 3分 → 1分 前提 go build は Dockerfile のステップで行っており、イメージとして以下のような内容になっています。 FROM

                            GitHub Actions 上での Go の Docker ビルドを高速化する
                          • ファインディでのGitHub Actions高速化の事例 - Findy Tech Blog

                            ファインディ株式会社でフロントエンドのリードをしております 新福(@puku0x)です。 弊社では、数年前に社内のCI環境をすべてGitHub Actionsに移行しました。 この記事では、弊社のGitHub Actions活用事例の内、CI高速化についてご紹介します。 なぜCI高速化に力を入れるのか CI高速化 キャッシュの活用 ジョブの並列化 Larger Runners まとめ なぜCI高速化に力を入れるのか 当ブログをはじめ弊社では、たびたびCI高速化の大切さについて言及しています。 Findyの爆速開発を支えるテクニック - Findy Tech Blog RailsのCIのテスト実行時間を 10分から5分に高速化した話 - Findy Tech Blog Findy転職フロントエンドの開発生産性を向上させるためにやったこと - Findy Tech Blog これはなぜでしょう

                              ファインディでのGitHub Actions高速化の事例 - Findy Tech Blog
                            • 【毎日書評】今日やることに悩まない。「A4ノート」タスク管理術で仕事を高速化せよ | ライフハッカー・ジャパン

                              仕事のスケジュール管理がうまくいかず、タスクが積み重なってしまったというような経験は、誰にでもあるのではないでしょうか。 『A4・1枚ですべての仕事を可視化する 爆速ノート術』(THEオトウサンノヒミツキチ・Kei 著、日本実業出版社)の著者によれば、その原因は「スケジュール管理やタスク管理の適切な方法を理解していないことにあるのだそうです。 スケジュール管理やタスク管理は、たいてい実務を通じて学ぶことになるので、誰もが言葉にできない感覚でタイムマネジメント力を自然と身につけていることが多いのです。 たとえば、社会人経験が浅いうちは、タイムマネジメント力の向上を目指してセミナーに参加したり、関連書籍を読んだりしても、なかなか実践できないのが現実です。 その理由は、「管理の方法(ノウハウ)」に注目しすぎて、その背後にある本質を見逃しているからです。(「はじめに」より) こう語る著者は現役の会

                                【毎日書評】今日やることに悩まない。「A4ノート」タスク管理術で仕事を高速化せよ | ライフハッカー・ジャパン
                              • NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み

                                NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み(1/3 ページ) スタートアップ企業の米Etchedが発表した「Sohu」が、AI業界に新たな波紋を投げかけている。トランスフォーマーモデルに特化したこのAI専用チップは、米NVIDIAのH100 GPUと比較して20倍高速かつ低コストで動作すると主張しているからだ。 SohuのようなAI専用チップの登場は、AI業界にどのような変革をもたらすのか。汎用性の高いGPUから特化型チップへの移行は、AI開発のアプローチをどう変えるのか。そして、こうした専用ハードウェアの普及は、ソフトウェア開発の方向性にどのような影響を与えるのか。 オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AI(東京都中央区)の椎橋徹夫CEOに、AI専用チップがもたらす可能性と課題

                                  NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み
                                • Go 1.24 で map が30%以上高速化!Swiss Tableとは? - カンム テックブログ

                                  Go1.24 がついに公開されましたね。その中でとても興味深い改善内容がありました。 1/14 Go's new map implementation in 1.24 is powered by Swiss Tables, a cutting-edge hash table design that significantly boosts performance. Let's break down why this matters and how @CockroachDB's implementation played a key role. 🧐🚀— Peter Mattis (@petermattis) 2025年2月10日 9/14 Performance gains? Benchmarks show Go's new maps are 30%+ faster in many wo

                                    Go 1.24 で map が30%以上高速化!Swiss Tableとは? - カンム テックブログ
                                  • Terraform Monorepo の CI の実行時間を可視化し 2 分以上高速化 - freee Developers Hub

                                    SRE team の suzuki-shunsuke です。 今年の 8 月(約3か月前)から freee の SRE team に join しました。 本記事では Terraform Monorepo の CI の実行時間を CIAnalyzer で可視化し 2 分 (70 percentile で約 160 %) 以上高速化した話を紹介します。 背景 freee には AWS などを管理する Terraform の Monorepo があり、 SRE を中心に多くの開発者がそのリポジトリで開発を行っています。 CI には GitHub Actions の Self-hosted Runner を使っています。 フローとしては GitHub Flow を採用しており、 Pull Request を作成すると CI で terraform plan が実行されます。 terraform

                                      Terraform Monorepo の CI の実行時間を可視化し 2 分以上高速化 - freee Developers Hub
                                    • 自作インタープリターをJITコンパイルで高速化する

                                      かねてよりJITコンパイラに興味があったので、実装してみました。 今回はフィボナッチ数を計算する関数に絞って、これを高速化することを考えます。 リポジトリ 対象のコード 独自言語ですが、まあ説明は不要でしょう。 再帰関数になっているfib関数を高速化します。 fun fib(n) do if (n == 0) do return 1; end if (n == 1) do return 1; end return fib(n - 1) + fib(n - 2); end インタープリターを作る まずは普通にインタープリターを作ります。今回はZig言語を使ってみることにしました。 (Zig歴がまだ3日くらいの頃に書いているので、コードは拙いです) 中身はただの、LexerとParserとEvaluatorを組み合わせただけのものです。 そして書いたインタープリターのパフォーマンスを計測してみ

                                        自作インタープリターをJITコンパイルで高速化する
                                      • Rustプロジェクトのビルド高速化に関するベストプラクティス(ローカル環境編)

                                        Windows環境については試していませんが、同様の効果が期待できそうです。特にWindows Subsystem for Linux 2(WSL2)やDocker Desktopを使っている場合は、この記事のLinux向けの内容をそのまま適用できます。 まずは計測 ビルド時間の削減に入る前に、現在のビルドにかかっている時間を計測し、何に時間がかかっているのかを把握しましょう。そうすることで後の改善効果がはっきりしますし、もし、本記事の例とは状況が異なる場合でも適切な対応を取れるかもしれません。 cargo buildやcargo testに--timingsオプションを追加することで、個々のクレートのビルドにかかった時間を計測し、視覚化できます。 フルビルドにかかる時間を計測する ここで言うフルビルドとは、cargo cleanを実行したあとの何もない状態からビルドし直すことです。これに

                                          Rustプロジェクトのビルド高速化に関するベストプラクティス(ローカル環境編)
                                        • DeepSeek-R1の開発企業が独自技術を次々にオープンソース化、AIの学習や推論を高速化可能

                                          中国に拠点を置くAI開発企業のDeepSeekは、2025年1月に低コストかつ高性能なAIモデル「DeepSeek-R1」を発表して大きな注目を浴びました。そんなDeepSeekがAI開発に関連する複数の技術を連日オープンソース化しています。 🚀 Day 0: Warming up for #OpenSourceWeek! We're a tiny team @deepseek_ai exploring AGI. Starting next week, we'll be open-sourcing 5 repos, sharing our small but sincere progress with full transparency. These humble building blocks in our online service have been documented,…—

                                            DeepSeek-R1の開発企業が独自技術を次々にオープンソース化、AIの学習や推論を高速化可能
                                          • 4ヶ月かかる作業を1ヶ月で完遂。大規模システム開発を高速化させる“タスクフォース型組織” —イオンネクストの事例から学ぶ |AEON TECH HUB

                                            人的リソース不足が課題だったイオンネクストでは、「タスクフォース型組織」によって、大規模システム開発の高速化のみならず、エンジニアの成長を促進し、組織の壁を越えた協力体制の構築することに成功しました。イオンネクストの事例から、タスクフォース型組織を成功させるポイントとエンジニアにとっての魅力を探ります。

                                              4ヶ月かかる作業を1ヶ月で完遂。大規模システム開発を高速化させる“タスクフォース型組織” —イオンネクストの事例から学ぶ |AEON TECH HUB
                                            • GitHub Actions ステップアップ Tips 〜高速化・セキュリティ・設計〜 #GitHubActions_findy | ドクセル

                                              スライド概要 2024/08/22 開催 「GitHub Actionsの最適化どうしてる? 開発者体験を向上させる運用術」で発表する資料 イベントconnpassページ: https://findy.connpass.com/event/326645/

                                                GitHub Actions ステップアップ Tips 〜高速化・セキュリティ・設計〜 #GitHubActions_findy | ドクセル
                                              • Dockerコンテナとして本番実行しているRailsをjemallocで高速化&省メモリ化した話 - BOOK☆WALKER inside

                                                こんにちは。 メディアサービス開発部 Webアプリケーション開発課のフサギコ(髙﨑)です。 Ruby on Railsによるバックエンドの実装運用とAWSによるサービスインフラの設計構築を中心とした、いわゆるバックエンド方面のテックリードとしてニコニコ漫画を開発しています。 本記事では、私たちが開発・運用しているRails製のjson APIバックエンドにおいて、mallocの実装としてjemallocを使うように変更したことについてお話します。 背景 私たちが2020年4月から開発しているニコニコ漫画のRails製json APIバックエンド(以降「新バックエンド」と呼びます)は、2010年8月のサービス開始以来サービスを支え続けているPHP製アプリケーションのビジネスロジックに関する式年遷宮的移行先であり、当初よりAWS ECS Fargate上で実行しています。*1 今年8月にリリー

                                                  Dockerコンテナとして本番実行しているRailsをjemallocで高速化&省メモリ化した話 - BOOK☆WALKER inside
                                                • vLLMを利用したLLM推論高速化テクニック - Taste of Tech Topics

                                                  皆さんこんにちは Acroquestのデータサイエンスチーム「YAMALEX」のチームリーダ、@tereka114です。 YAMALEXチームでは、コンペティションへの参加や自社製品開発、技術研究などに日々取り組んでいます。 大規模言語モデル(通称:LLM)は近年、非常に注目される技術となりました。 ただ、7Bや13Bといった巨大モデルのパラメータは推論時間も長時間で計算時間の面からも運用が非常に難しいです。 しかし、vLLMを使えば、高速化できます。本記事では、推論をどこまで高速化できるのかを検討したいと思います。 ※本記事はLLM・LLM活用のAdvent Calendar 24日目の記事です。 qiita.com vLLMとは? vLLMによる高速化実践 vLLMを利用しない場合 vLLMを利用する vLLMに加えてAWQを利用して量子化する Auto Prefix Caching

                                                    vLLMを利用したLLM推論高速化テクニック - Taste of Tech Topics
                                                  • やっと自宅を「Wi-Fi 6E」化! 「法人向け」の、ルーターではなく「アクセスポイント」を導入してみた Wi-Fi 6Eで高速化するのか、他にメリットはあるのかを検証!

                                                      やっと自宅を「Wi-Fi 6E」化! 「法人向け」の、ルーターではなく「アクセスポイント」を導入してみた Wi-Fi 6Eで高速化するのか、他にメリットはあるのかを検証!
                                                    • bun testが速いのでvitestから置き換えたらめちゃ高速化された

                                                      きっかけ ユニットテストはvitestを使ってます まあ十分速い でもCIで全testを回すとけっこう時間がかかる bunのtestが速いらしい。置き換えよう 置き換えた結果 before (vitest) 1000弱のtestを回すのに2分44秒かかってた after (bun + vitest) 9割方のtestをbunで実行して2秒。速すぎる bunに移行が難しかった一部だけvitestで実行して7秒 bunってどうなの? どうなんですかね? State of JavaScript 2024: Testing によればother testing toolsの中では3位でした Develop, test, run, and bundle ができるオールインワンツールですが、今回はこのtestの部分だけ使うことにしました bun run testとbun testの違い とりあえず bu

                                                        bun testが速いのでvitestから置き換えたらめちゃ高速化された
                                                      • DeepSeekがAIを高速化するファイルシステム「3FS」のオープンソース化を発表

                                                        DeepSeekが、AIのトレーニングと推論パフォーマンスを効率化させる並列ファイルシステムである「Fire-Flyer File System(3FS)」を、オープンソースプロジェクトとしてリリースしました。 DeepSeek brings disruption to AI-optimized parallel file systems, releases powerful new open-source Fire-Flyer File System | Tom's Hardware https://www.tomshardware.com/pc-components/storage/deepseek-releases-powerful-new-parallel-file-system-fire-flyer-fire-system-made-open-source DeepSeek AI

                                                          DeepSeekがAIを高速化するファイルシステム「3FS」のオープンソース化を発表
                                                        • Fastlyが「AI Accelerator」正式リリース、生成AIからのレスポンスをキャッシュし高速化とコスト削減を実現

                                                          Fastlyは、生成AIへのAPIコールに対するレスポンスをセマンティックに基づいてインテリジェントにキャッシュすることで、高速なレスポンスとAPIコール回数の低減によるコスト削減などを実現する「Fastly AI Accelerator」の正式リリースを発表しました。 生成AIをAPI経由で呼び出す場合、通常のサービスの呼び出しと比較するとレスポンスまでに時間がかかることが多く、呼び出しごとにかかる料金も高額になりがちです。 Fastly AI Acceleratorは、こうした生成AIからのレスポンスをキャッシュし、似たような質問に対するレスポンスであればキャッシュの内容を高速に返すことで、生成AIのレスポンスを高速にし、また呼び出しにかかるコストを削減できると説明されています。 キャッシュは「セマンティックキャッシュ」として、呼び出しの内容をベクトルとして保持するため、似たような意味

                                                            Fastlyが「AI Accelerator」正式リリース、生成AIからのレスポンスをキャッシュし高速化とコスト削減を実現
                                                          • 遷移の高速化 ヤフートップの試行錯誤

                                                            LY社では、Webパフォーマンスの改善による高速化の取り組みを続けてきました。中でもbfcacheの有効化は、ユーザー影響が大きく重要視していた技術の一つです。 bfcache(バックフォワードキャッシュ)とは、ブラウザでページを遷移した時にページの完全なスナップショットとして保存されるメモリキャッシ…

                                                              遷移の高速化 ヤフートップの試行錯誤
                                                            • Nx Agentsを導入してフロントエンドのCIを約40%高速化しました - Findy Tech Blog

                                                              ファインディ株式会社でフロントエンドのリードをしている新福(@puku0x)です。 弊社では Nx を活用してCIを高速化しています。この記事では、最近導入した Nx Agents でフロントエンドのCIをさらに高速化した事例を紹介します。 Nxについては以前の記事で紹介しておりますので、気になる方は是非ご覧ください。 tech.findy.co.jp フロントエンドのCIの課題 Nx Agents Nx Agents導入の結果 Nx Agents利用上の工夫 プロジェクトを細かく分割する Node.jsのバージョンを揃える キャッシュの活用 特定のステップの省略 高度なエージェント割り当て まとめ フロントエンドのCIの課題 これまで「キャッシュの活用」や「並列化」「マシンスペックの向上」といった工夫により、フロントエンドのCIを高速化してきました。 しかし、コードベースの増大により時間

                                                                Nx Agentsを導入してフロントエンドのCIを約40%高速化しました - Findy Tech Blog
                                                              • Svelte × Tailwind CSSでWeb開発を高速化!UIコンポーネント集「Rabee UI」2025年春リリース

                                                                受託開発事業・自社サービス事業を展開する株式会社Rabee(本社:東京都渋谷区、代表取締役社長:上松 勇喜、以下「Rabee」)は、SvelteとTailwind CSSを利用したUIコンポーネント集「Rabee UI(読み:ラビーユーアイ)」を2025年春にリリース予定です。 ■ Rabee UIとは Rabee UIとは、Svelteプロジェクト用に設計されたUIコンポーネント集です。公式ドキュメントページ(2025年春公開予定)から、必要なUIパーツのコードを自分のプロジェクトにコピーするだけで、素早く、簡単にUIを構築できます。 Rabee UIに関する最新情報はLPで公開中です。また、Figma Communityでは先行してデザインデータの一部を公開しています。 「Rabee UI」LP https://rabeeui.com/ 「Rabee UI」Figma Communit

                                                                  Svelte × Tailwind CSSでWeb開発を高速化!UIコンポーネント集「Rabee UI」2025年春リリース
                                                                • ChatGPTを10倍以上高速化、秒速1,000兆回の演算ができるAIチップを開発 シリコンバレーで注目されるAIスタートアップGroqとは | AMP[アンプ] - ビジネスインスピレーションメディア

                                                                  NVIDIAに対抗するAIスタートアップGroqとは? NVIDIAが驚異的な決算を記録する中、シリコンバレーで密かに注目を集めているスタートアップがある。大規模言語モデル(LLM)の推論に特化したAIチップ「言語処理ユニット(LPU)」を開発するGroqだ。 VentureBeat(2024年2月23日)の報道によると、Groqは「年末までに、(同社のAIチップが)LLMスタートアップの主要インフラとして広く使用されることになるだろう」と予測されており、NVIDIAが圧倒的なシェアを占める市場で一石を投じる構えを見せている。 Groqの創業者でCEOを務めるジョナサン・ロス氏は、CNNのインタビューで同社のオーディオチャットインターフェースを披露し、「スピード記録を打ち破る」と自信を見せた。実際、Groqのチャットアプリのデモ版では、ユーザーが選択した「Llama」や「Mistral」モ

                                                                    ChatGPTを10倍以上高速化、秒速1,000兆回の演算ができるAIチップを開発 シリコンバレーで注目されるAIスタートアップGroqとは | AMP[アンプ] - ビジネスインスピレーションメディア
                                                                  • 「7-Zip 24」が安定版に ~オープンソースの解凍・圧縮ソフト/.zst形式や「WinRAR 7」で作成した4GB超辞書の圧縮ファイルも解凍可能、ARM64高速化

                                                                      「7-Zip 24」が安定版に ~オープンソースの解凍・圧縮ソフト/.zst形式や「WinRAR 7」で作成した4GB超辞書の圧縮ファイルも解凍可能、ARM64高速化
                                                                    • EdgeのUI表示が大幅高速化。メモリ8GB未満の環境などで特に有効

                                                                        EdgeのUI表示が大幅高速化。メモリ8GB未満の環境などで特に有効
                                                                      • Sakana AIの「100倍高速化できる」という発表がネット上で検証され逆に「3倍遅くなる」と指摘される

                                                                        日本のAI企業・Sakana AIは、PyTorchで記述された処理をより高速に実行するためのCUDAカーネルに自動最適化する「AI CUDA Engineer」を2025年2月20日に発表しました。しかし、実際にAI CUDA Engineerを検証したところ、高速化どころか速度が3分の1に低下したという報告がX(旧Twitter)に挙がっています。 Sakana walks back claims that its AI can dramatically speed up model training | TechCrunch https://techcrunch.com/2025/02/21/sakana-walks-back-claims-that-its-ai-can-dramatically-speed-up-model-training/ 検証したユーザーは「Sakana A

                                                                          Sakana AIの「100倍高速化できる」という発表がネット上で検証され逆に「3倍遅くなる」と指摘される
                                                                        • Googleスプレッドシートの計算速度が2倍に高速化

                                                                          Googleが表計算アプリ「Googleスプレッドシート」の計算速度を、Google ChromeとMicrosoft Edgeで2倍に高速化したことを発表しました。このほかにも多数の改善が加えられています。 Double Calculation Speed in Google Sheets Plus New AI Features | Google Workspace Blog https://workspace.google.com/blog/sheets/new-innovations-in-google-sheets Googleスプレッドシートのグループプロダクトマネージャーであるエリック・バーンバウム氏によると、より高速なコード実行を実現する「WasmGC」によって、スプレッドシートの計算速度を2倍に向上させたとのこと。また、スムーズなスクロールやセル制限の拡張といった改善が行

                                                                            Googleスプレッドシートの計算速度が2倍に高速化
                                                                          • 『深層ニューラルネットワークの高速化』を上梓しました。 - ジョイジョイジョイ

                                                                            深層ニューラルネットワークの高速化 ML Systems 作者:佐藤 竜馬技術評論社Amazon 技術評論社より『深層ニューラルネットワークの高速化(ML Systems)』を上梓しました。 (※ ML Systems というのは本書が一作目となる技術評論社の新しいシリーズで、今後も機械学習 × エンジニアリングの本が刊行予定のようです。乞うご期待!) 深層ニューラルネットワークは画像、言語、音声などさまざまな領域で活躍を見せていますが、標準的なモデルサイズは年々増加の一途をたどっており、使用するのが難しくなっています。本書は深層ニューラルネットワークを高速化することでこの問題に対処する方法を紹介します。高速化により、同じハードウェアでもより大きなモデルを利用できるようになる(= 精度が高くなる)ほか、同じモデルで比較するとより安価なハードウェアに配備できるようになり、コストを削減できます

                                                                              『深層ニューラルネットワークの高速化』を上梓しました。 - ジョイジョイジョイ
                                                                            • 株式会社ディー・エヌ・エーが Amazon Redshift Serverless と dbt を活用して匿名化データの品質テストを最大100倍高速化を実現 | Amazon Web Services

                                                                              Amazon Web Services ブログ 株式会社ディー・エヌ・エーが Amazon Redshift Serverless と dbt を活用して匿名化データの品質テストを最大100倍高速化を実現 本ブログは 2024 年 12 月 17 日に公開された「How DeNA Co., Ltd. accelerated anonymized data quality tests up to 100 times faster using Amazon Redshift Serverless and dbt」を翻訳したものです。 本ブログは株式会社ディー・エヌ・エー(以下 DeNA)と Amazon Web Services Japan が共同で執筆しました。 DeNA は「一人ひとりに想像を超える Delight を」というミッションのもと、ゲーム、ライブコミュニティ、ヘルスケア・メディ

                                                                                株式会社ディー・エヌ・エーが Amazon Redshift Serverless と dbt を活用して匿名化データの品質テストを最大100倍高速化を実現 | Amazon Web Services
                                                                              • 音声認識モデルWhisperを投機的デコーディングで高速化する - NTT Communications Engineers' Blog

                                                                                こんにちは、イノベーションセンターの加藤です。この記事では、Transformerベースの言語モデルで利用可能な高速化技術である投機的デコーディング(speculative decoding)を用いて、音声認識モデルのWhisperの高速化を検証したのでその結果を紹介します。 投機的デコーディングとは Whisperとは 実験 英語音声 (LibriSpeech) の結果 日本語音声 (Common Voice 17.0 日本語サブセット) の結果 まとめ 投機的デコーディングとは 大規模言語モデル(LLM)をはじめとするTransformerベースの言語モデルは、これまでの単語列から次に現れそうな単語を予測することを繰り返して文章生成を行なっています。 これに対し、元のモデルよりも軽量な言語モデルの出力を下書きとして利用することで、元のモデルの出力を完全に再現しながら文章生成を高速化する

                                                                                  音声認識モデルWhisperを投機的デコーディングで高速化する - NTT Communications Engineers' Blog
                                                                                • Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録

                                                                                  概要 先日までKaggleのAIMOコンペ(数学の問題をLLMに解かせて正答率を競う)に参戦していました。結果は初のチーム参加でメンバーに助けられつつ運もあり、なんとか銀メダルを取れました!これでMasterにリーチがかかりましたが、金メダルは未だ取れる気がしないので遠い道のりです……。 www.kaggle.com このコンペについて、近い内に同様のコンペが開催予定なこともあり上位解法があまり出ていない状態なので、どのような手法が良かったのかまだわかっていないのですが、とりあえず公開されている情報を元にすると、 LLMとしてはほぼほぼ全員が数学問題に特化したLLMであるDeepseek-Math-7Bを利用している LLMが出力したPythonコードを実行するインタープリターを実装することで、LLMのハルシネーションによる計算ミスを防ぐパイプラインが有力であった LLMの出力を比較的高い

                                                                                    Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録