並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 140件

新着順 人気順

高速化の検索結果1 - 40 件 / 140件

  • 社内ChatGPTを使ったGASアプリ開発の完全解説!業務改善の高速化を実現 - MonotaRO Tech Blog

    こんにちは。エンタープライズソリューショングループの石川です。大企業連携システムの基盤の開発や運用を担当していて、日々発生するエラーの監視や調査も行っています。今回は手間と時間がかかりがちだったエラー調査を、ChatGPTを使って改善した話をします。 エラー調査の背景 カタログサイトの概要とエラー発生時の影響 注文受付が影響を受ける理由とエラーの具体例 エラー発生時の調査手順 1. 注文受付へのリクエストがないか確認 2. 購買システムに注文情報を再送信する仕組みがあるか確認 3. 再送信の仕組みがない購買システムの場合は、社内の担当グループに対応依頼 MonoChatに聞きながらGASアプリケーションを作成 実現したかったこと 改善のためのアプリケーションを作成 改善の費用対効果 振り返り エラー調査の背景 カタログサイトの概要とエラー発生時の影響 大企業連携は、各企業様が持つ購買システ

      社内ChatGPTを使ったGASアプリ開発の完全解説!業務改善の高速化を実現 - MonotaRO Tech Blog
    • 【西川和久の不定期コラム】 Stable Diffusion高速化の決定版登場!?品質落とさず制限もほぼなしで2~3倍速に

        【西川和久の不定期コラム】 Stable Diffusion高速化の決定版登場!?品質落とさず制限もほぼなしで2~3倍速に
      • 話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)

        画像生成AI「Stable Diffusion」共同開発者たちによって設立されたベンチャー企業「Black Forest Labs(BFL)」が、8月1日(現地時間)に発表した話題の画像生成AIモデル「FLUX.1」。 前回の「画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した」では、「ComfyUI」による画像生成を試した。 今回は、この連載ではおなじみ「Fooocus」の作者lllyasviel氏によるStable Diffusion用の高性能なWebインターフェース「Stable Diffusion WebUI Forge」が8月11日頃にFLUX.1に対応したということで、さっそく動作確認してみる。 なお、筆者の環境は以下のとおりだ。 CPU

          話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)
        • 【マジか】0円でニンテンドースイッチのネット速度を高速化する方法がスゴイ?→ 実際に試した結果|ガジェット通信 GetNews

          いまインターネット上で「0円でニンテンドースイッチのネット速度を高速化する方法」が話題となっている。実は数年前からYouTubeをメインに知られていた方法だが、いま現在も定期的に話題となっており、ニンテンドースイッチのネット高速化を試す人は多いようである。 オンラインゲームの遅延軽減も期待できる ニンテンドースイッチのネット速度を高速化できれば、ニンテンドーeショップのモッサリ感が軽減され、ゲームのダウンロードが短時間で可能となるのはもちろんのこと、オンラインゲームの遅延軽減も期待できる。 スペック以上の性能は引き出せないが もちろん、ハードのスペックに限界はあるので、どんなにネット速度がアップしたとしても、スペック以上の性能は引き出せない。とはいえ、ネットは遅いより速いほうが快適なのは事実。 ニンテンドースイッチのポテンシャルを最大限に! ニンテンドースイッチが持つポテンシャルを引き出そ

            【マジか】0円でニンテンドースイッチのネット速度を高速化する方法がスゴイ?→ 実際に試した結果|ガジェット通信 GetNews
          • JavaScript エンジンの高速化

            これらの JavaScript エンジンのうち、以下では特に JavaScriptCore を扱います。 最適化の基本戦略 JavaScript をはじめとする動的言語は、主にインタープリタにおいて実行されます。しかし、インタープリタはコンパイルされたコードと比較して実行に時間を要するという欠点があります。そこで、インタープリタの最適化では、バイトコードの JIT コンパイルが最初に行われます。 しかし、コンパイルには当然時間がかかります。少しでも高速化されたコードを生成するには、より多くの時間をコンパイルにかけなければなりません。コンパイルによる速度向上とコンパイルのレイテンシはトレードオフの関係にあります。 そこで、多くの JavaScript エンジンは、インタープリタと多階層の JIT コンパイラの組み合わせで構成されています。次の図は、主要な JavaScript エンジンの設計

              JavaScript エンジンの高速化
            • CIを高速化する技術⚡️ - 10X Product Blog

              この記事は 10X アドベントカレンダー2023 という企画の1日目(12/1)の記事です。 こんにちは、10Xでソフトウェアエンジニアをしている 岡野(@operandoOS)です。 今回 10Xで3回目となるアドベントカレンダー企画の1日目をありがたく担当させていただきます💪 目次 目次 10X アドベントカレンダー2023ってなに? さてさて、本題へ CIは絶対に速い方がいい CIを高速化するテクニックの紹介 キャッシュの利用 マシン性能の調整 ジョブの並列実行とテスト分割 最適なテスト分割 ジョブの実行順序・依存関係の最適化 不要なジョブ・ステップを削除する テストコードの実行速度を上げる 紹介したテクニックを活用した10XでのCI高速化事例 アプリのビルド時間の大幅短縮に成功!! APIのテスト実行時間の大幅短縮に成功!! CIを高速化するために日々取り組んでいること CI/C

                CIを高速化する技術⚡️ - 10X Product Blog
              • 今日からできる!簡単 .NET 高速化 Tips -2024 edition-

                C# / .NET における、パフォーマンス改善の Tips をお届けします。 これを見れば、効率良く 80 点を取ることができるようになるはずです!

                  今日からできる!簡単 .NET 高速化 Tips -2024 edition-
                • 高速化のエンジニアリング。注文してから0.722秒。100倍速いぞ!Python : 75.884 C++ : 3.392   JIT Python : 0.722 JITコンパイラで高速化されたコードを自動生成するツール。 - Qiita

                  アリスは驚きと興奮を抑えきれませんでした。彼女はすぐに新しいコードを試し、その速さに目を見張りました。今まで数時間かかっていた計算が、ほんの数分で終わったのです。 翌日、アリスはこの発見を友人たちに話しました。友人たちも同じように魔法の本を使い、彼らのコードを高速化しました。こうして、プログラミング王国全体で「JITの魔法の本」が広まりました。 やがて、アリスは王国のプログラミング大会で優勝し、JITの魔法の本の力をさらに広めることになりました。彼女は「JITの守護者」として称えられ、プログラミング王国はかつてない繁栄を迎えました。 アリスはいつも心に誓いました。どんなに強力なツールも、それを使う人々の努力と情熱があってこそ、本当の力を発揮するのだと。彼女の言葉は次世代のプログラマーたちに伝わり、JITの魔法の本は永遠に受け継がれていくのでした。 前回のあらすじ。 Python count

                    高速化のエンジニアリング。注文してから0.722秒。100倍速いぞ!Python : 75.884 C++ : 3.392   JIT Python : 0.722 JITコンパイラで高速化されたコードを自動生成するツール。 - Qiita
                  • 知っていますか?Pandasをノーコーディングで高速化(CPU環境でも)できるらしい… FireDucks🔥🐦 - Qiita

                    知っていますか?Pandasをノーコーディングで高速化(CPU環境でも)できるらしい… FireDucks🔥🐦Pythonpandasデータサイエンス統計検定 はじめに Pandasで大量データを扱って処理時間にイライラしたことはないでしょうか? なんと、Pandasを従来のコードを変えずに高速化するライブラリィが出たみたいです。 NEC研究所が出したFireDucks 🔥🐦 というライブラリィで、ベータ版が無償公開されています。 しかも CPU環境でも高速化されるみたいです。詳細は下記のサイトを参照してください。 ベーター版ですが無償とは素晴らしいですね! 早速検証してみましょう。 環境 FireDucksの利用方法には、「インポートフック」、「明示的なインポート」の2種類があります。 「インポートフック」の場合は、pythonの起動時にオプションを指定することでコードの書き換え

                      知っていますか?Pandasをノーコーディングで高速化(CPU環境でも)できるらしい… FireDucks🔥🐦 - Qiita
                    • DB呼び出し回数を減らしてコア機能を高速化した話。そして起こった悲劇と教訓 - Money Forward Developers Blog

                      初めに こんにちは、マネーフォワードクラウド連結会計(以降、クラウド連結会計)のバックエンド開発に従事しているTaskと申します。 今回は、クラウド連結会計のコア機能を高速化した話と、それが原因で起こった金額の不整合障害から得られた教訓を紹介しようと思います。 本記事内では、前提として簿記2級相当の知識や用語が頻出します。 連結会計とは まず、クラウド連結会計が扱っている連結会計について説明させてください。 連結会計とは、親会社・子会社など、支配もしくは従属関係にある複数の会社を1つのグループと捉えて、そのグループの決算を行うための会計手続きを指します1。 下の図の「連結グループA」の決算を行うイメージです。 この業務を「連結決算業務」と呼びます。 連結決算を行うことによって、会社の利害関係者(債権者や株主など)は各社単体だけではなく、グループとしての財政状態・経営成績・キャッシュフローの

                        DB呼び出し回数を減らしてコア機能を高速化した話。そして起こった悲劇と教訓 - Money Forward Developers Blog
                      • Playwrightを参考にブラウザ内テキスト検索を高速化する (事例紹介:サードパーティスクリプト提供会社)

                        ブラウザ内テキスト探索の高速化というテーマで改善を行いました。公開許可は頂いていますが、先方の希望で社名は伏せさせていただきます。 技術的には「再現性がある木構造のノード探索の条件の生成、その実行の高速化」という少しR&Dっぽいタスクでした。Playwright のコードを参考にしつつ、個別により速いパーツで置き換えていく、というもので非常に興味深いものでした。こういう仕事は楽しいので、いくらでも歓迎です。 今回は最初はドメイン理解に時間をあてて、その後十分にドメイン理解が進んだら計測しつつ改善する、という流れです。 以下、敬称略。 相談内容 ブラウザを自動操作する技術を開発している。技術的には一種のE2Eテストの応用技術で、サーバーに要素の探索条件と、その操作を登録する。 今回の相談では、その要素探索が重くなってしまうケースがあり、これを改善してほしい、という依頼。とくにテキストを条件に

                          Playwrightを参考にブラウザ内テキスト検索を高速化する (事例紹介:サードパーティスクリプト提供会社)
                        • 【特集】 SSDを束ねて高速化させるRAID 0は、ゲームの起動やロード時間短縮に効果があるのか?AMDとIntel環境で試してみた

                            【特集】 SSDを束ねて高速化させるRAID 0は、ゲームの起動やロード時間短縮に効果があるのか?AMDとIntel環境で試してみた
                          • E2Eテストワークフローを高速化・安定化させる取り組み | ドクセル

                            スライド概要 GitHub Actions Meetup Tokyo #3 https://gaugt.connpass.com/event/317178/ このプレゼンテーションでは、サイボウズ社のGaroonのE2Eテストについて、GitHub Actions self-hosted runner 上で実行していたE2Eテストを高速化・安定化させるために取り組んだこと、E2Eテストワークフローの視点の改善アイディアについて話されます。GaroonのE2Eテストにおける実行時間とFlakyが問題となっており、その改善に取り組んだ内容が紹介されています。 おすすめタグ:GitHub Actions,E2Eテスト,self-hosted runner,Garoon,テストワークフロー

                              E2Eテストワークフローを高速化・安定化させる取り組み | ドクセル
                            • WSLからWindowsへのクリップボードコピーを高速化する - ぶていのログでぶログ

                              私は普段VSCodeを使っていて、拡張機能としてvscode-nvimを使っていて、そしてこの拡張の設定でnvimはWSL上で実行するようにしている。 この設定にしてほとんど困ることはないのだが、唯一困るのがクリップボードが使えないことである。 理由は簡単でnvimがWSL上で実行されるために、クリップボード操作をしてもWindowsへ反映されないからである。 この問題をGoogle検索するとpowershell.exeを使ってクリップボードをコピーする方法が見つかる。 見つかった方法で解決はするのだが、WSLからexeを実行する関係でものすごく遅い。 これは厳しい…っとなってたが解決する方法を見つけたので備忘として残しておく。 解決策: WSLgを使う 解決方法は至ってシンプルでWSLgを使うことである。 どういうことかというのを簡単に説明すると、WSLgはWaylandというプロトコル

                                WSLからWindowsへのクリップボードコピーを高速化する - ぶていのログでぶログ
                              • マイクロソフト、「.NET 8」正式リリース、2年ぶりのLTS版。Dynamic PGOによる最適化コンパイル、事前コンパイルのバイナリサイズが半分など、さらなる高速化が前進

                                マイクロソフト、「.NET 8」正式リリース、2年ぶりのLTS版。Dynamic PGOによる最適化コンパイル、事前コンパイルのバイナリサイズが半分など、さらなる高速化が前進 Announcing the availability of .NET 8, the latest LTS version of one of the world’s leading development platforms. With this release, .NET reshapes the way we build intelligent, cloud-native, applications and high-traffic services that scale on demand. https://t.co/WqZkUpJOhN pic.twitter.com/NmARKBd78q — .NET (

                                  マイクロソフト、「.NET 8」正式リリース、2年ぶりのLTS版。Dynamic PGOによる最適化コンパイル、事前コンパイルのバイナリサイズが半分など、さらなる高速化が前進
                                • 【個人開発】爆速な賃貸検索サービスをさらに高速化した【Rust】 - Qiita

                                  個人で運営している賃貸物件の検索サービス Comfy のバックエンドを Rust でリプレースしました。この記事では、そのリプレースの背景と詳細をご紹介します。 まずは結果から 技術構成: Rust + Cloud Run1 へ移行 (Python + GCE2 から) 性能向上: 約 1.5 倍 開発期間: 1 ヶ月間 コード行数: 約 40 % インフラ費用: かなり減少 (多分3) 短い期間・少ないコードでかなり高速化できちゃった上に、開発体験もとてもよい Rust は本当に素晴らしいです…!! サービス概要 Comfy は 日本全国の賃貸物件を超高速に検索できる Web サービス です。 技術構成等の概要は、以前書いた記事 「【個人開発】爆速な賃貸物件の検索サービスを作った」 をご覧頂ければと思います。 もしよかったらこちらからぜひ試して頂き、さらによくなった性能を体感してみて下さ

                                    【個人開発】爆速な賃貸検索サービスをさらに高速化した【Rust】 - Qiita
                                  • MySQL8.0で低速になったSELECT COUNTを高速化する - CyberAgent SRG #ca_srg

                                    メディア統括本部 サービスリライアビリティグループ(SRG)の鬼海雄太(@fat47)です。 #SRG(Service Reliability Group)は、主に弊社メディアサービスのインフラ周りを横断的にサポートしており、既存サービスの改善や新規立ち上げ、OSS貢献などを行っているグループです。 本記事では、MyS

                                      MySQL8.0で低速になったSELECT COUNTを高速化する - CyberAgent SRG #ca_srg
                                    • インターネットを劇的に高速化できる新技術「L4S」をApple・Google・NVIDIA・Valveなどが推進中、一体どういう技術なのか?

                                      インターネット通信における「遅延」をほぼ完全に解消し、インターネット通信の考え方を根本から覆す可能性を秘めた新しいインターネット標準が「L4S」です。L4Sの賛同者にはAppleやGoogle、NVIDIA、Valveなど名だたる大手テクノロジー企業が名を連ねています。 Apple, Google, and Comcast’s plans for L4S could fix internet lag - The Verge https://www.theverge.com/23655762/l4s-internet-apple-comcast-latency-speed-bandwidth インターネットの通信速度は日に日に高速化していますが、ウェブサイトの読み込み速度に時間がかかったり、高解像度の動画を再生した際にバッファリングが必要になったり、動画の再生が途切れたりすることは昔から変わ

                                        インターネットを劇的に高速化できる新技術「L4S」をApple・Google・NVIDIA・Valveなどが推進中、一体どういう技術なのか?
                                      • GitHub Actions 上での Go の Docker ビルドを高速化する

                                        どうも GitHub Actions 上で Docker ビルドを行うと時間がかかるなぁと感じていました。 かなり軽量の Go の Web アプリケーションを Docker イメージにしてプッシュするプロセスなのですが、全体で 3 分ほどかかっています。 今回はその速度改善を行ったので、得た知見を記事にしたいと思います。 最終的に、ケース次第では以下のような結果を出すことができました。 ※ケース = go のソースコードのほんの一部を変更してワークフローを実行する。 go.mod など依存関係に変化はない。 go build: 60秒 → 1秒 docker/build-push-action ステップ: 2分30秒 → 30秒 ワークフロー: 3分 → 1分 前提 go build は Dockerfile のステップで行っており、イメージとして以下のような内容になっています。 FROM

                                          GitHub Actions 上での Go の Docker ビルドを高速化する
                                        • JavaScript/TypeScript向け静的解析ツール「Oxlint」が正式に公開、Rustの採用で大幅に高速化

                                          Oxlintは、JavaScriptやTypeScriptのコードを調べ、エラーにつながりやすい書き方となっている部分や、必要のない部分を指摘する機能を持っている。この用途では「ESLint」が事実上の標準となっているが、100%JavaScriptで記述してあるため、実行速度が問題となっている。 Oxlintでは、プログラムを記述する言語にRustを選ぶことで処理速度を大きく引き上げた。さらに、並列処理に対応し、コンピュータのプロセッサが搭載するコアの数が増えるに従って性能が上がっていく設計になっている。さらに、テスト結果のメッセージをシンプルかつ分かりやすいものにした点も特徴として挙げられる。 正式版になる前からOxlintを試験的に使っていた米Shopifyの担当者は、ESLintを使っていた頃は自社開発のコードをテストするのに75分かかっていたが、Oxlintを使ったところ、10秒

                                            JavaScript/TypeScript向け静的解析ツール「Oxlint」が正式に公開、Rustの採用で大幅に高速化
                                          • ファインディでのGitHub Actions高速化の事例 - Findy Tech Blog

                                            ファインディ株式会社でフロントエンドのリードをしております 新福(@puku0x)です。 弊社では、数年前に社内のCI環境をすべてGitHub Actionsに移行しました。 この記事では、弊社のGitHub Actions活用事例の内、CI高速化についてご紹介します。 なぜCI高速化に力を入れるのか CI高速化 キャッシュの活用 ジョブの並列化 Larger Runners まとめ なぜCI高速化に力を入れるのか 当ブログをはじめ弊社では、たびたびCI高速化の大切さについて言及しています。 Findyの爆速開発を支えるテクニック - Findy Tech Blog RailsのCIのテスト実行時間を 10分から5分に高速化した話 - Findy Tech Blog Findy転職フロントエンドの開発生産性を向上させるためにやったこと - Findy Tech Blog これはなぜでしょう

                                              ファインディでのGitHub Actions高速化の事例 - Findy Tech Blog
                                            • 【毎日書評】今日やることに悩まない。「A4ノート」タスク管理術で仕事を高速化せよ | ライフハッカー・ジャパン

                                              仕事のスケジュール管理がうまくいかず、タスクが積み重なってしまったというような経験は、誰にでもあるのではないでしょうか。 『A4・1枚ですべての仕事を可視化する 爆速ノート術』(THEオトウサンノヒミツキチ・Kei 著、日本実業出版社)の著者によれば、その原因は「スケジュール管理やタスク管理の適切な方法を理解していないことにあるのだそうです。 スケジュール管理やタスク管理は、たいてい実務を通じて学ぶことになるので、誰もが言葉にできない感覚でタイムマネジメント力を自然と身につけていることが多いのです。 たとえば、社会人経験が浅いうちは、タイムマネジメント力の向上を目指してセミナーに参加したり、関連書籍を読んだりしても、なかなか実践できないのが現実です。 その理由は、「管理の方法(ノウハウ)」に注目しすぎて、その背後にある本質を見逃しているからです。(「はじめに」より) こう語る著者は現役の会

                                                【毎日書評】今日やることに悩まない。「A4ノート」タスク管理術で仕事を高速化せよ | ライフハッカー・ジャパン
                                              • 入社4ヶ月目で73時間かかるバッチ処理を7倍以上高速化した話 - エムスリーテックブログ

                                                こんにちは。エンジニアリンググループの武井です。 私は現在、デジカルチームに所属し、クラウド電子カルテ、エムスリーデジカルの開発に携わっています。 昨年夏にエムスリーに入社し、早くも半年が経過しました。 digikar.co.jp この記事では、私が入社してから4ヶ月目に取り組んだ、バッチ処理の運用改善について振り返ります。 特に、新しくチームに加わったメンバーとして意識した点に焦点を当ててみたいと思います。 これから新しいチームに参加する方の参考になれば幸いです。 改善したバッチ 現状の正確な理解 現状に馴染む技術選定 自分なりの+αを加える 改善の結果 We're hiring 改善したバッチ 今回の改善対象は、特定の医療機関に紐づく全患者の全カルテをPDFファイルとして出力する、というバッチです。 デジカルのデータを医療機関側にエクスポートする用途で使われています。 移行前のアーキテ

                                                  入社4ヶ月目で73時間かかるバッチ処理を7倍以上高速化した話 - エムスリーテックブログ
                                                • NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み

                                                  NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み(1/3 ページ) スタートアップ企業の米Etchedが発表した「Sohu」が、AI業界に新たな波紋を投げかけている。トランスフォーマーモデルに特化したこのAI専用チップは、米NVIDIAのH100 GPUと比較して20倍高速かつ低コストで動作すると主張しているからだ。 SohuのようなAI専用チップの登場は、AI業界にどのような変革をもたらすのか。汎用性の高いGPUから特化型チップへの移行は、AI開発のアプローチをどう変えるのか。そして、こうした専用ハードウェアの普及は、ソフトウェア開発の方向性にどのような影響を与えるのか。 オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AI(東京都中央区)の椎橋徹夫CEOに、AI専用チップがもたらす可能性と課題

                                                    NVIDIA製GPUの数十倍速い? 次々に出てくる「AI専用チップ」とは何者か 識者に聞く高速化の仕組み
                                                  • Dockerコンテナとして本番実行しているRailsをjemallocで高速化&省メモリ化した話 - BOOK☆WALKER inside

                                                    こんにちは。 メディアサービス開発部 Webアプリケーション開発課のフサギコ(髙﨑)です。 Ruby on Railsによるバックエンドの実装運用とAWSによるサービスインフラの設計構築を中心とした、いわゆるバックエンド方面のテックリードとしてニコニコ漫画を開発しています。 本記事では、私たちが開発・運用しているRails製のjson APIバックエンドにおいて、mallocの実装としてjemallocを使うように変更したことについてお話します。 背景 私たちが2020年4月から開発しているニコニコ漫画のRails製json APIバックエンド(以降「新バックエンド」と呼びます)は、2010年8月のサービス開始以来サービスを支え続けているPHP製アプリケーションのビジネスロジックに関する式年遷宮的移行先であり、当初よりAWS ECS Fargate上で実行しています。*1 今年8月にリリー

                                                      Dockerコンテナとして本番実行しているRailsをjemallocで高速化&省メモリ化した話 - BOOK☆WALKER inside
                                                    • グラボを買い替えずとも画像生成AIの実行速度を高速化できる「Stable Diffusion WebUI Forge」を実際にインストールして生成速度を比較してみた

                                                      画像生成AI「Stable Diffusion」には、有志が作成したユーザーインターフェースが複数用意されています。「Stable Diffusion WebUI Forge」はControlNetの開発者であるLvmin Zhang氏が開発したユーザーインターフェースで、広く使われている「Stable Diffusion web UI(AUTOMATIC1111版)」と比べて画像を高速に生成できるとのこと。そこで、Stable Diffusion WebUI Forgeを実際にインストールする手順やStable Diffusion web UI(AUTOMATIC1111版)との生成速度の差を確かめてみました。 GitHub - lllyasviel/stable-diffusion-webui-forge https://github.com/lllyasviel/stable-dif

                                                        グラボを買い替えずとも画像生成AIの実行速度を高速化できる「Stable Diffusion WebUI Forge」を実際にインストールして生成速度を比較してみた
                                                      • GitHub Actions ステップアップ Tips 〜高速化・セキュリティ・設計〜 #GitHubActions_findy | ドクセル

                                                        スライド概要 2024/08/22 開催 「GitHub Actionsの最適化どうしてる? 開発者体験を向上させる運用術」で発表する資料 イベントconnpassページ: https://findy.connpass.com/event/326645/

                                                          GitHub Actions ステップアップ Tips 〜高速化・セキュリティ・設計〜 #GitHubActions_findy | ドクセル
                                                        • 4ヶ月かかる作業を1ヶ月で完遂。大規模システム開発を高速化させる“タスクフォース型組織” —イオンネクストの事例から学ぶ |AEON TECH HUB

                                                          人的リソース不足が課題だったイオンネクストでは、「タスクフォース型組織」によって、大規模システム開発の高速化のみならず、エンジニアの成長を促進し、組織の壁を越えた協力体制の構築することに成功しました。イオンネクストの事例から、タスクフォース型組織を成功させるポイントとエンジニアにとっての魅力を探ります。

                                                            4ヶ月かかる作業を1ヶ月で完遂。大規模システム開発を高速化させる“タスクフォース型組織” —イオンネクストの事例から学ぶ |AEON TECH HUB
                                                          • Rustによる並列処理でDynamoDBへのデータ投入を20倍高速化してみた

                                                            はじめに 言語として高速だと謳われているRust。そのRustを使用してDynamoDBへのデータ登録処理を直列処理と複数の並列アルゴリズム処理で速度比較してみました。 DynamoDB DynamoDBは公式で以下のように謳われています。 Amazon DynamoDB の応答時間は 1 桁ミリ秒で、最も要求の厳しいアプリケーションでも一貫してこのパフォーマンスを発揮できます。例を挙げると、2022 年の Amazon プライムデーに Amazon DynamoDB は、1 桁ミリ秒のパフォーマンスで、数兆回の API コールに対して 1 秒あたり 1 億 520 万件のリクエストを確実に処理しました。 上記だけみると爆速のようにも思われますが、読み込みと書き込み双方に以下の制限があります。 BatchWriteItemのデータ投入は1回で25リクエストまで、Queryのデータ取得は1回

                                                              Rustによる並列処理でDynamoDBへのデータ投入を20倍高速化してみた
                                                            • やっと自宅を「Wi-Fi 6E」化! 「法人向け」の、ルーターではなく「アクセスポイント」を導入してみた Wi-Fi 6Eで高速化するのか、他にメリットはあるのかを検証!

                                                                やっと自宅を「Wi-Fi 6E」化! 「法人向け」の、ルーターではなく「アクセスポイント」を導入してみた Wi-Fi 6Eで高速化するのか、他にメリットはあるのかを検証!
                                                              • Cloudflare、世界中からのデータベースアクセスを高速化する「Hyperdrive」正式サービスに。CDNを用いてDBのコネクションプーリングやキャッシュを提供

                                                                Cloudflare、世界中からのデータベースアクセスを高速化する「Hyperdrive」正式サービスに。CDNを用いてDBのコネクションプーリングやキャッシュを提供 Cloudflareは、グローバルなCDNレイヤでデータベースのコネクションプーリングとクエリのキャッシュを提供することによりデータベースへのアクセスを高速化する新サービス「Hyperdrive」の正式サービス化を発表しました。 We kick off the week with announcements that help developers build stateful applications on top of Cloudflare, including making D1, our SQL database and Hyperdrive, our database accelerating service, g

                                                                  Cloudflare、世界中からのデータベースアクセスを高速化する「Hyperdrive」正式サービスに。CDNを用いてDBのコネクションプーリングやキャッシュを提供
                                                                • AIによる画像生成を30倍高速化する手法をマサチューセッツ工科大学が開発

                                                                  DALL-E 3やStable Diffusionといった人気の画像生成AIの拡散モデルを簡素化し、生成される画像の品質を維持しつつ生成スピードを最大で30倍加速させる技術を、アメリカ・マサチューセッツ工科大学(MIT)の研究チームが公開しました。 [2311.18828] One-step Diffusion with Distribution Matching Distillation https://arxiv.org/abs/2311.18828 AI generates high-quality images 30 times faster in a single step | MIT News | Massachusetts Institute of Technology https://news.mit.edu/2024/ai-generates-high-quality-i

                                                                    AIによる画像生成を30倍高速化する手法をマサチューセッツ工科大学が開発
                                                                  • GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ

                                                                    GPUはCPUよりもはるかに多くのコアを備えており、多数の並列処理を行う事が可能です。そうしたGPUの性能を活用するために必要な知識を、ITエンジニアのリジュル・ラジェシュさんがブログにまとめています。 GPU Survival Toolkit for the AI age: The bare minimum every developer must know https://journal.hexmos.com/gpu-survival-toolkit/ 現代のAIモデルで使用されているTransformerアーキテクチャは並列処理を活用して大きく性能を向上させており、そうしたAIの開発に関わる場合は並列処理についての理解が必須になってきます。CPUは通常シングルスレッドの逐次処理性能が高まるように設計されており、複雑なAIモデルで必要となる、多数の並列計算を効率的に分散して実行するのに

                                                                      GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ
                                                                    • Nx Agentsを導入してフロントエンドのCIを約40%高速化しました - Findy Tech Blog

                                                                      ファインディ株式会社でフロントエンドのリードをしている新福(@puku0x)です。 弊社では Nx を活用してCIを高速化しています。この記事では、最近導入した Nx Agents でフロントエンドのCIをさらに高速化した事例を紹介します。 Nxについては以前の記事で紹介しておりますので、気になる方は是非ご覧ください。 tech.findy.co.jp フロントエンドのCIの課題 Nx Agents Nx Agents導入の結果 Nx Agents利用上の工夫 プロジェクトを細かく分割する Node.jsのバージョンを揃える キャッシュの活用 特定のステップの省略 高度なエージェント割り当て まとめ フロントエンドのCIの課題 これまで「キャッシュの活用」や「並列化」「マシンスペックの向上」といった工夫により、フロントエンドのCIを高速化してきました。 しかし、コードベースの増大により時間

                                                                        Nx Agentsを導入してフロントエンドのCIを約40%高速化しました - Findy Tech Blog
                                                                      • NTTの秘密計算技術がISO国際標準に採択。暗号化された情報を用いた統計分析やAIモデル作成などを高速化

                                                                          NTTの秘密計算技術がISO国際標準に採択。暗号化された情報を用いた統計分析やAIモデル作成などを高速化 
                                                                        • ChatGPTを10倍以上高速化、秒速1,000兆回の演算ができるAIチップを開発 シリコンバレーで注目されるAIスタートアップGroqとは | AMP[アンプ] - ビジネスインスピレーションメディア

                                                                          NVIDIAに対抗するAIスタートアップGroqとは? NVIDIAが驚異的な決算を記録する中、シリコンバレーで密かに注目を集めているスタートアップがある。大規模言語モデル(LLM)の推論に特化したAIチップ「言語処理ユニット(LPU)」を開発するGroqだ。 VentureBeat(2024年2月23日)の報道によると、Groqは「年末までに、(同社のAIチップが)LLMスタートアップの主要インフラとして広く使用されることになるだろう」と予測されており、NVIDIAが圧倒的なシェアを占める市場で一石を投じる構えを見せている。 Groqの創業者でCEOを務めるジョナサン・ロス氏は、CNNのインタビューで同社のオーディオチャットインターフェースを披露し、「スピード記録を打ち破る」と自信を見せた。実際、Groqのチャットアプリのデモ版では、ユーザーが選択した「Llama」や「Mistral」モ

                                                                            ChatGPTを10倍以上高速化、秒速1,000兆回の演算ができるAIチップを開発 シリコンバレーで注目されるAIスタートアップGroqとは | AMP[アンプ] - ビジネスインスピレーションメディア
                                                                          • PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載

                                                                            Modular社がAI処理を高速化するプラットフォーム「MAX」をプレビュー公開。PyTorchやTensorFlow、ONNXなどのAIモデルと入れ替えるだけで処理が最大5倍高速になる。 Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました。 MAX Developer Edition Preview has officially launched! It's a drop-in replacement for running and serving @PyTorch, @tensorflow and @onnxai models much faster and leverages the

                                                                              PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載
                                                                            • 「7-Zip 24」が安定版に ~オープンソースの解凍・圧縮ソフト/.zst形式や「WinRAR 7」で作成した4GB超辞書の圧縮ファイルも解凍可能、ARM64高速化

                                                                                「7-Zip 24」が安定版に ~オープンソースの解凍・圧縮ソフト/.zst形式や「WinRAR 7」で作成した4GB超辞書の圧縮ファイルも解凍可能、ARM64高速化
                                                                              • EdgeのUI表示が大幅高速化。メモリ8GB未満の環境などで特に有効

                                                                                  EdgeのUI表示が大幅高速化。メモリ8GB未満の環境などで特に有効
                                                                                • Googleスプレッドシートの計算速度が2倍に高速化

                                                                                  Googleが表計算アプリ「Googleスプレッドシート」の計算速度を、Google ChromeとMicrosoft Edgeで2倍に高速化したことを発表しました。このほかにも多数の改善が加えられています。 Double Calculation Speed in Google Sheets Plus New AI Features | Google Workspace Blog https://workspace.google.com/blog/sheets/new-innovations-in-google-sheets Googleスプレッドシートのグループプロダクトマネージャーであるエリック・バーンバウム氏によると、より高速なコード実行を実現する「WasmGC」によって、スプレッドシートの計算速度を2倍に向上させたとのこと。また、スムーズなスクロールやセル制限の拡張といった改善が行

                                                                                    Googleスプレッドシートの計算速度が2倍に高速化