並び順

ブックマーク数

期間指定

  • から
  • まで

441 - 480 件 / 772件

新着順 人気順

高速化の検索結果441 - 480 件 / 772件

  • Optimize React Apps PageSpeed Insights Score - thetuteur

    What we will be working onWe will be working on optimizing the website of the company I work for coatconnect.com. PageSpeed Insights is a very powerful tool by Google. It allows us to analyze our website’s performance and figure out ways we can improve it. The problem with SPAs (Single-Page Applications) is that they show content after loading JavaScript chunks first, so it takes a little while on

      Optimize React Apps PageSpeed Insights Score - thetuteur
    • 新卒研修でISUCONやってみたと思っていたらAnsible勉強会を開いていた話 - ぐるなびをちょっと良くするエンジニアブログ

      自己紹介 はじめまして。新卒2年目のみのちです。 1年目はBtoCサービスであるぐるなびの店舗ページと、BtoBサービスである店舗ページ管理ツール「ぐるなび PRO for 飲食店」の開発・運用の担当の店舗チーム、 2年目はレストラン検索の開発・運用の担当の検索チームに所属しています。 私は8月に店舗チームの部署に配属になり、10月からOJT研修を始めました。 11月に課題をやってみて、1月に勉強会を開きました。 この記事の3行まとめ 部署配属のあとにOJT研修課題としてISUCONの過去問に挑戦した 環境構築が思うようにいかなくて、まず環境構築で使われていたAnsibleの技術に興味を持った 社外のAnsibleもくもく会に参加し、社内ではチームで勉強会をした 研修内容を決める(10月) 毎年新卒で配属された人はOJT研修課題を行っており、前回うちの部署では自動販売機の機能実装などを行っ

        新卒研修でISUCONやってみたと思っていたらAnsible勉強会を開いていた話 - ぐるなびをちょっと良くするエンジニアブログ
      • 作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント

        オープンLLMの開発をリードする現場の視点から、開発の実情や直面する課題について発表したのは、Stability AI Japan株式会社の秋葉拓哉氏。Weights & Biasesのユーザーカンファレンス「W&Bカンファレンス」で、LLM開発のポイントを紹介しました。全2記事。前半は、より優れたLLMを作るために必要なこと。前回はこちら。 より優れたLLMを作るために必要なこと 秋葉拓哉氏:めでたくFine-Tuningもできた。これけっこう、びっくりするかもしれません。コードはさすがにゼロとはいかないと思いますが、ほとんど書かずに実はLLMは作れます。 「さすがにこんなんじゃゴミみたいなモデルしかできないだろう」と思われるかもしれませんが、おそらく余計なことをしなければこれだけでも、まあまあそれっぽいLLMにはなるかなと思います。 なので、ちょっと、先ほどの鈴木先生(鈴木潤氏)の話と

          作るだけなら簡単なLLMを“より優れたもの”にするには 「Pretraining」「Fine-Tuning」「Evaluation & Analysis」構築のポイント
        • Chrome Developer Toolsでパフォーマンスを最適化 | PerfData

          パフォーマンスチューニングの基礎:プロファイリング 2023年4月3日 著者: 竹洞 陽一郎 はじめに Webパフォーマンスチューニングは、WebアプリケーションやWebサイトのパフォーマンスを向上させるために実施される最適化手法の一連です。 効果的なパフォーマンスチューニングを実現するには、正確なプロファイリング情報が欠かせません。 フロントエンドの品質管理では、プロファイリングを利用して時間消費別のパレート図を作成し、最も時間を消費している部分から改善を開始します。 パフォーマンスチューニングに詳しくない方向けに、Lighthouseが利用できます。 ただし、実務におけるパフォーマンスチューニングでは、Lighthouseだけではボトルネックの特定が難しいことがあります。 これからWebパフォーマンスチューニングを始める方や、現在Webパフォーマンスチューニングに取り組んでいる方には、

            Chrome Developer Toolsでパフォーマンスを最適化 | PerfData
          • Kafkaに接続するJavaアプリケーションをGravitonインスタンスへ移行してパフォーマンスを改善する - joker1007’s diary

            社内向けのドキュメントと兼用したので、前提とかメンバー向けの解説が含まれているので、前後のパフォーマンスの変化だけを見たい人は、下の方のグラフ画像までスクロールしてください。 gravitonインスタンスを活用するモチベーション ワークロードによる相性はあるが、特にマルチスレッド性能で既存のインスタンスより性能向上が見られる上にコストが安いため、うまくフィットすれば性能改善とコスト削減の双方でメリットがある。 また、周辺ハードウェアもアップデートされているため、エフェメラルストレージ付きのインスタンスのストレージサイズが増えているなどのメリットもある。 特に現時点ではr6gdインスタンスが利用したかった。 gravitonインスタンスを利用するためarm64アーキテクチャへの対応 gravitonインスタンスはarm64 (aarch64) アーキテクチャのCPUのため、既存のx86_64

              Kafkaに接続するJavaアプリケーションをGravitonインスタンスへ移行してパフォーマンスを改善する - joker1007’s diary
            • Firebase Realtime Databaseの利用料増加問題をFirestore移行で解決した話 (年間数百万削減) - ABEJA Tech Blog

              はじめに ある日、このようなIssueが起票されました。 背景を話すと、Insight for Retail の顧客管理システムは5年ほど前にFirebaseで作成されております。 事業を切り開いていった先人たちには足を向けて寝られないのですが、サービスの成長に伴いマイクロサービス化していった結果、この顧客管理システムのRealtime Databaseが足を引っ張っていて、その利用料金が月額40万円、年間になおすと480万円ほどになってしまいいました、、、 初期フェーズは問題なかったものの、事業成長とともに無視できない金額になっていました。 Insight for Retailのエンジニアの高木です。 Firebase Realtime DatabaseからFirestoreに一部移行して、最終的にはコストを1/10まで圧縮して年間利用料を400万円削減した事例のご紹介になります。 利用

                Firebase Realtime Databaseの利用料増加問題をFirestore移行で解決した話 (年間数百万削減) - ABEJA Tech Blog
              • マスクの選び方は? ウレタンは性能劣る【素材別の比較結果】

                不織布マスクが、飛沫の飛散を抑える効果が高い傾向。スーパーコンピューター「富岳」を使ったシミュレーション結果で判明した

                  マスクの選び方は? ウレタンは性能劣る【素材別の比較結果】
                • Google Cloud FunctionsやCloud Runのコールドスタートを高速化する「startup CPU boost」登場

                  Google Cloudは、Cloud FunctionsやCloud Runにおけるコールドスタートで時間がかかる起動時間を短縮する「startup CPU boost」を発表しました。 Cloud RunやCloud Functionsなどの、いわゆるサーバレス基盤により提供されるサービスでは、まったくインスタンスが存在しない状態から、リクエストの発生によりインスタンスを起動する、「コールドスタート」が発生する場面がしばしばあります。 サーバレスであってもあらかじめ最小のインスタンス数を指定しておき、リクエストがない状態でも最小インスタンスでリクエストを待ち構えていれば、リクエストがあったときに瞬時にインスタンスの処理を開始させることは可能です。 この状態をウォームスタートと一般に呼びますが、ウォームスタートは迅速なレスポンスの一方で待ち時間にもインスタンスを起動しておくため、そのコン

                    Google Cloud FunctionsやCloud Runのコールドスタートを高速化する「startup CPU boost」登場
                  • Performance as a Product Feature

                    Kaigi on Rails 2021の発表 https://kaigionrails.org/2021/talks/lchin/ "Performance is a feature"と言われています。 スピードは機能だとしたら、それはプロダクトの様々な機能の一つに数えるということになる。その機能のオーナーとして、どのように事業にとって価値のある投資にできるのか? このトークでは、パフォーマンスをプロダクト開発として捉えて改善に取り組むアプローチについて紹介します。

                      Performance as a Product Feature
                    • Kotlinハイパフォーマンスプログラミング

                      健康第一!MetricKitで始めるアプリの健康診断 / App Health Checkups Starting with MetricKit

                        Kotlinハイパフォーマンスプログラミング
                      • 光の速さと戦えるのは味染み大根の美味さだけ

                        光の速さ→めちゃくちゃ速い 煮汁の味がしっかり染みた大根→美味さが爆速で全身を駆け巡る(体感では口に入れる前から煮汁の味が広がってもう美味い) 光の速さと戦わざるを得なくなったらこの美味すぎ大根のエネルギーを利用する以外勝ち目は無い 終わりだ全部

                          光の速さと戦えるのは味染み大根の美味さだけ
                        • 猫でもわかるTabNet

                          Python と Snowflake はズッ友だょ!~ Snowflake の Python 関連機能をふりかえる ~

                            猫でもわかるTabNet
                          • AMDの新世代CPU「Ryzen 9 5900X」&「Ryzen 7 5800X」レビュー。Zen 3アーキテクチャ採用でゲームにおける性能が大きく向上

                            Zen 3アーキテクチャ採用の新世代CPUはゲームにおける性能が大きく向上した Ryzen 9 5900X Ryzen 7 5800X Text by 米田 聡 Zen 3アーキテクチャを採用するAMDのデスクトップ向けCPU「Ryzen Desktop 5000」(以下,Ryzen 5000)シリーズが11月6日に発売となる。価格や製品構成はすでに発表されたとおりで,まずは4製品が発売される予定だ。 発売に先立ち,4Gamerでは,12コア24スレッド対応の「Ryzen 9 5900X」と8コア16スレッド対応の「Ryzen 7 5800X」をテストする機会を得たので,定番のテストで気になるゲーム性能などをチェックしていきたい。 Ryzen 9 5900X(左)とRyzen 7 5800X(右) Ryzen 9 5900Xの製品ボックス(左)と中身(右)。これらのリテール向け製品ボックス

                              AMDの新世代CPU「Ryzen 9 5900X」&「Ryzen 7 5800X」レビュー。Zen 3アーキテクチャ採用でゲームにおける性能が大きく向上
                            • AWS、Graviton 2ベースのAmazon Aurora正式サービス開始。最大で35%の価格性能比が向上と

                              AWS、Graviton 2ベースのAmazon Aurora正式サービス開始。最大で35%の価格性能比が向上と Amazon Web Services(AWS)は、同社が開発したARMベースのプロセッサ「Graviton 2」を採用したマネージドなデータベースサービス「Amazon Aurora MySQL」と「Amazon Aurora PostgreSQL」が、正式サービスとして提供開始されたことを発表しました。 x86サーバより40%価格性能比が高いと主張 「Graviton2」はAWSがクラウドで利用するために独自開発したARMベースのプロセッサです。 初代の「Graviton」はre:Invent 2018で発表され、翌年のre:Invent 2019では早くも二代目の「Graviton2」が登場しました。 Graviton 2では、7nmルールで製造された64ビットのArm

                                AWS、Graviton 2ベースのAmazon Aurora正式サービス開始。最大で35%の価格性能比が向上と
                              • Mirrativ iOSアプリでのメモリ使用量削減への取り組み - Mirrativ Tech Blog

                                こんにちは、iOSエンジニアのふじのです。 Mirrativの機能開発を進める傍ら、iOSアプリのメモリ使用量の改善に取り組んでいます。 今回は、アプリ内でメモリ使用量を増やしている問題点を見つける方法と、それらをクライアント実装で解決する具体的なアプローチについて紹介します。 Mirrativアプリが抱える課題 着眼点とアプローチ 画像キャッシュの効率化 UIImageのリサイズ 画像のメモリキャッシュの上限サイズ設定 メモリリークへの対策 Allocationsやmemory graphを利用した手動検出 XCTestを利用したCI上での自動検出 改善の成果と今後の課題 We are hiring! 参考リンク Mirrativアプリが抱える課題 Mirrativアプリはライブ配信機能や視聴機能、Unityを利用したアバター機能やWebGLを利用したゲーム機能など、メモリを多く必要とす

                                  Mirrativ iOSアプリでのメモリ使用量削減への取り組み - Mirrativ Tech Blog
                                • decoding="async"とloading="lazy"の違い| PerfData

                                  画像の読込処理の違い ページ作成日 2019年12月19日 ページ更新日 2021年3月2日 著者: 竹洞 陽一郎 Webページにおいて、画像は重要な役割を果たしており、高解像度化と利用される枚数は増えていく傾向にあります。 その一方で、画像は、従来どおりの実装をしていると、HTMLのパース処理を遅延させる要因となります。 画像をいかに遅延要因としないようにするかの処理として、decoding="async"とloading="lazy"の違いを解説します。 decoding属性は、画像のデコード処理に関しての指示をユーザエージェントに明示する属性です。 decoding="async"と指定することで、画像のデコード処理を非同期にバッググラウンド処理し、他のコンテンツの表示処理が終わった時に更新処理で画像を一緒に出します。 記述の仕方としては、以下のようになります。 <img class

                                    decoding="async"とloading="lazy"の違い| PerfData
                                  • Operating Lambda: パフォーマンスの最適化 – Part 1 | Amazon Web Services

                                    Amazon Web Services ブログ Operating Lambda: パフォーマンスの最適化 – Part 1 Operating Lambda シリーズでは、AWS Lambda ベースのアプリケーションを管理している開発者、アーキテクト、およびシステム管理者向けの重要なトピックを取り上げます。この 3 部構成のシリーズでは、Lambda ベースのアプリケーションのパフォーマンスの最適化について説明します。 サーバーレスアプリケーションは、並列化と同時実行が容易であることから、非常に高いパフォーマンスを実現することができます。Lambda サービスはスケーリングを自動的に管理しますが、アプリケーションで使用する個々の Lambda 関数を最適化することで、レイテンシーを削減し、スループットを向上させることもできます。 本稿では、Lambda 実行環境のライフサイクルやコール

                                      Operating Lambda: パフォーマンスの最適化 – Part 1 | Amazon Web Services
                                    • ネイティブツールと外部ツールに基づいた Amazon RDS PostgreSQL のクエリの最適化とチューニング | Amazon Web Services

                                      Amazon Web Services ブログ ネイティブツールと外部ツールに基づいた Amazon RDS PostgreSQL のクエリの最適化とチューニング PostgreSQL は最も人気のあるオープンソースのリレーショナルデータベースシステムの 1 つです。30年以上の開発作業の成果である PostgreSQL は、多数の複雑なデータワークロードを処理できる、信頼性が高く堅牢なデータベースであることが証明されています。Oracle などの商用データベースから移行する場合、PostgreSQL はオープンソースデータベースの主要な選択肢と見なされています。 AWS は、PostgreSQL データベースのデプロイを、コスト効率の良い方法でクラウドに簡単にセットアップ、管理、およびスケールできるサービスを提供しています。これらのサービスは、Amazon RDS for Postgre

                                        ネイティブツールと外部ツールに基づいた Amazon RDS PostgreSQL のクエリの最適化とチューニング | Amazon Web Services
                                      • SUZURI のセールとテレビ CM を乗り越えるために負荷試験を実施しました - Pepabo Tech Portal

                                        こんにちは。 takutaka と申します。最近は暑くて大変ですね。熱中症には気をつけて過ごしましょう。 最近、SUZURI で負荷試験をやったので、そのことについて書いていきます。 概要 Tシャツセールを開催し、その期間に合わせてテレビCMを放映することが決まりました。 アプリケーションやビジネスなど、各領域で達成すべき課題が発生する中、インフラ領域では「最大限の努力をしてセール期間中のダウンを防ぐ」というミッションが与えられました。 パフォーマンスチューニングをやろう、インフラリソースを増強しよう、様々な対応がなされる中、そのひとつとして、負荷試験を実施して各対策の効果を検証することになりました。 僕が主担当として取り組むことになったのですが、問題が一つありました。それは、僕がまともに負荷試験に取り組んだ経験がまったくなかったということでした。 今まで負荷試験をやったことがないエンジニ

                                          SUZURI のセールとテレビ CM を乗り越えるために負荷試験を実施しました - Pepabo Tech Portal
                                        • How We Saved 70K Cores Across 30 Mission-Critical Services (Large-Scale, Semi-Automated Go GC Tuning @Uber)

                                          How We Saved 70K Cores Across 30 Mission-Critical Services (Large-Scale, Semi-Automated Go GC Tuning @Uber) Introduction As part of Uber engineering’s wide efforts to reach profitability, recently our team was focused on reducing cost of compute capacity by improving efficiency. Some of the most impactful work was around GOGC optimization. In this blog we want to share our experience with a highly

                                            How We Saved 70K Cores Across 30 Mission-Critical Services (Large-Scale, Semi-Automated Go GC Tuning @Uber)
                                          • 1年半、チューニングの嵐を越えて──「Tポイント」データ分析基盤を開発した男たち、汗と涙の記録

                                            「クラウドは必須だ。あえて、反逆者となる道を選んだ」とCCCマーケティングの松井太郎氏(ITシニアマネージャー)は笑う。2015年当時、クラウドに対する理解は社内でも現在ほど進んでいなかったという。品質面とセキュリティの観点からクラウド移行が難航を極めたのは想像に容易い。社内で奔走したプロジェクトメンバーに話を聞いた。 分析業務の完全移行 Modelerとの闘い クラウド導入の検討は、2015年にスタート。セキュリティ要件の確認など社内調整を済ませ、2017年6月にプロジェクトが正式に発足した。この段階では、Microsoft Azureの他、他社のパブリッククラウドも同時にPoC(概念実証)を実施し、性能を比較検討していた。最終的にMicrosoft Azureを選んだ理由は(1)Azure Synapse Analytics(当時の名称はAzure SQL Data Warehouse

                                              1年半、チューニングの嵐を越えて──「Tポイント」データ分析基盤を開発した男たち、汗と涙の記録
                                            • 読みやすいテストコードへの一歩、適切なAssertionを使う

                                              PHPerKaigi 2024 https://fortee.jp/phperkaigi-2024/proposal/1be00d06-afa8-4ba9-a49b-9118c782f8e3

                                                読みやすいテストコードへの一歩、適切なAssertionを使う
                                              • 超便利!PostmanのAPIパフォーマンステストで簡単かつ素早く性能フィードバックを手に入れよう - Qiita

                                                はじめに 先日(2023年6月15日)、PostmanのAPIパフォーマンステストが正式にリリースされました。この機能により、Postmanのコレクションに登録されているAPI群に対して、手軽にクライアントから負荷をかけ、APIのパフォーマンスや性能問題などの確認ができるようになりました。PostmanでAPI開発しながら素早くサクッとAPIの性能フィードバックが得られることがこの機能の魅力です。 本記事ではその使い方、注意点・制限などについて簡単にご紹介します。 Postman APIパフォーマンステストを使ってみる 事前準備 APIパフォーマンステストは、2023年6月時点でPostmanデスクトップアプリからのみ利用可能です。まだインストールしていない方はこちらよりダウンロードしてください。 次に、機能紹介で利用するサンプルAPIを用意します。ここではPublished Postma

                                                  超便利!PostmanのAPIパフォーマンステストで簡単かつ素早く性能フィードバックを手に入れよう - Qiita
                                                • #ABEMA で試合のデータをアクセシブルに!デザインと色調整技術 | CyberAgent Developers Blog

                                                  本記事は、CyberAgent Advent Calendar 2022 2日目の記事です。 この記事のまとめ ABEMA では、試合のデータにアクセスしやすいデザインに取り組みました 既存サービスと比較して、1画面に収まる情報量を増やしました 国やチームの色を見やすく自動調整する仕組みをいれました ABEMA で配信する FIFA ワールドカップ カタール 2022 の全試合で体験できます 「いつでも、どこでも、ワールドカップをすべてのひとに。」 FIFA ワールドカップ カタール 2022 は、ABEMA で全試合を無料で提供しています。当初のキャッチコピーは、「いつでも、どこでも、ワールドカップをすべてのひとに。」でした。 「いつでも、どこでも、ワールドカップをすべてのひとに。」 映像を届けることはもちろんですが、すべてのひとに FIFA ワールドカップ カタール 2022 を楽しん

                                                    #ABEMA で試合のデータをアクセシブルに!デザインと色調整技術 | CyberAgent Developers Blog
                                                  • Chrome Devtools使いこなしたい/I want to master devtool

                                                    みんなの技教えて

                                                      Chrome Devtools使いこなしたい/I want to master devtool
                                                    • Unityのパフォーマンスチューニングを体系的に学べる書籍『Unity Performance Tuning Bible』刊行による社内技術力強化施策の紹介 | CyberAgent Developers Blog

                                                      Unityのパフォーマンスチューニングを体系的に学べる書籍『Unity Performance Tuning Bible』刊行による社内技術力強化施策の紹介 ゲーム・エンターテイメント事業部では、Unityにおけるパフォーマンスチューニングに必要な知識を体系的にまとめた書籍『Unity パフォーマンスチューニングバイブル』を社内向けに刊行しました。 本記事ではこの取り組みの概要と、300ページに及ぶ書籍の一部を紹介します。 パフォーマンスチューニングバイブルの概要 モバイルゲーム開発においては、常にパフォーマンスを意識した開発を行う必要があります。 これが不十分だと、メモリ圧迫によるクラッシュやFPSの低下、ロード時間やダウンロード時間の増大といった深刻な問題がもたらされます。 このようにパフォーマンスチューニングに関する知識は重要ですが、その一方で体系的な学習が難しいという問題があります

                                                        Unityのパフォーマンスチューニングを体系的に学べる書籍『Unity Performance Tuning Bible』刊行による社内技術力強化施策の紹介 | CyberAgent Developers Blog
                                                      • Ruby 3.1.2 with YJIT vs Ruby 3.2.0-dev with YJIT - くりにっき

                                                        tl;dr; モチベーション Ruby 3.2.0-devの何がすごいか Ruby 3.2.0-devでRust版のYJITを使う方法 計測対象のアプリケーション 使ったバージョン 比較 CPU ホスト全体 Ruby 3.1.2 + YJIT Ruby 3.2.0-dev + YJIT pumaのmasterプロセスとworkerプロセスをピックアップ Ruby 3.1.2 + YJIT Ruby 3.2.0-dev + YJIT Memory ホスト全体 Ruby 3.1.2 + YJIT Ruby 3.2.0-dev + YJIT pumaのmasterプロセスとworkerプロセスをピックアップ Ruby 3.1.2 + YJIT Ruby 3.2.0-dev + YJIT Ruby 3.2.0-devをデプロイした瞬間のグラフ スコア Ruby 3.1.2 + YJIT Ruby

                                                          Ruby 3.1.2 with YJIT vs Ruby 3.2.0-dev with YJIT - くりにっき
                                                        • Kafka Brokerのcompaction動作の詳細とチューニング方法について - Repro Tech Blog

                                                          Reproでチーフアーキテクトとして働いているid:joker1007です。 今回、Kafka Brokerのcompaction動作について調査しチューニングすることでパフォーマンス改善の成果が得られたため、そのノウハウをブログにまとめておきました。 かなりマニアックな内容なので、需要は多くないと思いますが、私が調査した限りでは日本語で同じ様な内容のブログ記事はほとんど存在しなかったため、Kafkaを自前で運用している人にとっては役に立つ内容かもしれません。 compactionとは (参考: https://kafka.apache.org/documentation/#compaction) Kafkaの基本的なデータ削除ポリシーは一定時間が経過したら過去のデータをそのまま削除するdeleteというポリシーを使う。 これは、log.retention.hoursという設定でコントロー

                                                            Kafka Brokerのcompaction動作の詳細とチューニング方法について - Repro Tech Blog
                                                          • 【Windows 11】タスクマネージャーの「パフォーマンス」タブの見方

                                                            タスクマネージャーでシステムの動作状態を知りたい! Windows OSにおいて、システムの動作状態をチェックしたり、必要なメモリサイズを見積もったりするには、タスクマネージャーによるシステム状態の把握が必要である。これを使えば、簡単にシステムの動作状況を調査できるし、必要ならアプリケーション(プロセス)ごとの細かな動作状況やCPU/メモリの利用量などをモニターすることも可能だ。 また、システムの動作が重くなったといった場合のトラブルの原因追及にも役立ってくれる。 タスクマネージャーは非常に多くの機能を持つ。本Tech TIPSでは、最もよく使われるであろう[パフォーマンス]画面の内容について解説する。対象はWindows 11とする。 Windows 10やWindows Server 2016以降の場合は、Tech TIPS「Windows 10対応:タスクマネージャーの『パフォーマン

                                                              【Windows 11】タスクマネージャーの「パフォーマンス」タブの見方
                                                            • 社内ISUCON『N-ISUCON』を開催しました | NTT Communications Developer Portal

                                                              はじめまして! クラウドサービス部の花川です. 9月10日に,社内ISUCONであるN-ISUCONを開催しました.その様子をレポートします. ※ 2020/03/31追記: ソースコードを公開しました! nttcom/n-isucon-2019: Codes used for N-ISUCON 2019 ISUCONとは Iikanjini Speed Up Contest(いい感じにスピードアップコンテスト)の略で,与えられたWebサービスを限界まで高速化していく,チーム対抗のチューニングバトルです. 2011年にライブドア社(現LINE社)が主催となって初めて開催され,その後,年1回開催されているエンジニアには名の知られたイベントです. 今年は第9回として,09月07日と08日に予選,10月05日に本戦が開催されています. 社内ISUCON "N-ISUCON" もともと,弊社には

                                                              • パフォーマンスチューニング9つの技 ~はじめに~|PostgreSQLインサイド

                                                                PostgreSQLを利用する上で、CPU、メモリー、ディスクなどのリソースを有効に使うためには、パフォーマンスチューニングが必要になります。実際に、PostgreSQLのパフォーマンスを引き出すための手法は数多くありますが、その手法を整理するといくつかの観点が見えてきます。これから、「パフォーマンスチューニング9つの技」と題して、実際の業務において押さえておくべきパフォーマンスチューニングの手法について、「書き」「探し」「基盤」の3つの観点に分けて解説していきます。以下に、「パフォーマンスチューニング9つの技」の全体概要を示します。

                                                                  パフォーマンスチューニング9つの技 ~はじめに~|PostgreSQLインサイド
                                                                • JavaScript performance beyond bundle size

                                                                  23 Feb JavaScript performance beyond bundle size Posted February 23, 2021 by Nolan Lawson in performance, Web. 8 Comments There’s an old story about a drunk trying to find his keys in the streetlight. Why? Well, because that’s where it’s the brightest. It’s a funny story, but also relatable, because as humans we all tend to take the path of least resistance. I think we have the same problem in the

                                                                    JavaScript performance beyond bundle size
                                                                  • THEO+docomoの23か月の累積パフォーマンスは7.00%のプラスに! - シングルプレーヤーへの道は遠い?

                                                                    みなさん、こんにちは。 ロボアドバイザー全自動で資産運用を行うWealthNaviの運用パフォーマンスが良いので、別のロボアドバイザーTHEO+docomoを追加しました。 2021年3月に運用を開始し、23か月ぐらい経過しました。 累積パフォーマンスは7.00%のプラスとなりました。 前回報告時よりも、ドル資産のパフォーマンスが改善したうえ、円安も寄与し、累積パフォーマンスが改善しました。 長期積立分散投資が目的ですので、基本的にはパフォーマンスの変動はそこまで気にしていません。 23か月の運用状況は? 資産毎の運用パフォーマンスは? 長期積立分散投資の効果は大きい! 23か月の運用状況は? 口座開設時に10万円を入金し、2021年3月から運用をスタートしました。 毎月1万円の積立を継続してきましたが、2021年6月からは2万円に増額。 2月7日時点で427,682円になりました。 累積

                                                                      THEO+docomoの23か月の累積パフォーマンスは7.00%のプラスに! - シングルプレーヤーへの道は遠い?
                                                                    • SQLite performance tuning - Scaling SQLite databases to many concurrent readers and multiple gigabytes while maintaining 100k SELECTs per second - phiresky's blog

                                                                      SQLite performance tuningScaling SQLite databases to many concurrent readers and multiple gigabytes while maintaining 100k SELECTs per second Jun 26, 2020 • Last Update Jul 31, 2022SQLite is an embedded SQL database. It’s extremely easy to setup, buildable as a single C file with libraries existing for basically all common programming languages. It doesn’t need any server setup or configuration si

                                                                      • Firebase Authentication のパフォーマンスを計測してみた - odan blog

                                                                        概要 Firebase Authentication はユーザー認証に関するサービスです。様々な認証方式をサポートしており、活用することで認証に関する実装を大きくサボることが可能になるものです。 一方で、パフォーマンスには難点があることが知られており、firebase auth 遅い - Twitter 検索 / Twitter を見ると、いくつかの人が遅さについて言及しています。 そこで、パフォーマンスについて測定したので、その結果をまとめます。 環境 実験を行った環境は以下の通りです。ネットワークによる影響を調べるために、2 つのリージョンで実験を行いました。 NodeJS v14.12.0 firebase 7.21.1 firebase-admin 9.2.0 EC2 インスタンス t2.micro リージョン ap-northeast-1/us-east-1 コード odan-s

                                                                        • [Go言語] gin と singleflight を組み合わせた試行錯誤と実装例 - Techtouch Developers Blog

                                                                          singleflight とは gin とは Middleware Context 2つの実装例 1. 同期待ち方式 2. 非同期待ち方式 まとめ こんにちは。SRE 兼 テックブログ編集長の izzii です。毎年お盆休みに連泊で登山するのですが今年は台風の影響で行けませんでした。悲しい! さて、本記事ではパフォーマンス最適化の文脈で登場することの多い singleflight と、ウェブフレームワーク gin を組み合わせた実装例を紹介します。要素技術の概要とモチベーションに触れつつ、試行錯誤についてもお話しします。実装に関しては結局妥協が必要であり正解の形がないので GitHub で公開という形ではなく、ブログを通して自分の考えた2つの実装を紹介することにしました。この記事は Go に関する基礎知識を必要とします。 singleflight とは 複数のスレッド(go routine

                                                                            [Go言語] gin と singleflight を組み合わせた試行錯誤と実装例 - Techtouch Developers Blog
                                                                          • Reactに有利なベンチマークを作ってみた 【ハードモード】 - Qiita

                                                                            前回のおさらい 前回の記事では、同じアプリケーションを6つのUIライブラリで実装し、Reactに有利な状況設定で作られたベンチマークを走らせると当然Reactが勝つという結果をお伝えしました。 そのベンチマークでは、「レンダリングのために高い負荷がかかっている状況でもユーザーが快適に入力を行えるかどうか」を測りました。 Reactでは、レンダリングのジョブを中断してユーザーの入力を処理するスケジューリングの機構が備わっているため、高負荷の状況でもユーザーの入力に高速に応答することができました。 また、今回書くベンチマークアプリは「最大限自然かつ簡潔」という条件で実装したため、スケジューリングがライブラリ本体に組み込まれているReactのみが有利な結果となりました。実はReact以外のライブラリは1文字入力されるたびに律儀にDOMに反映していましたが、Reactは本体からスケジューリング機構

                                                                              Reactに有利なベンチマークを作ってみた 【ハードモード】 - Qiita
                                                                            • ARMアーキテクチャがメモリアクセスを省略することで意図したベンチマークになっていなかった話

                                                                              概要 あるサンプルコードのベンチマークを測定したところ、期待していたよりも18倍速い結果が出力されました。バイナリを調査してみると、メモリ読み出しの命令が1つ増えるだけでこの性能差が生じていました。さらに調査を進めると、ARMアーキテクチャは連続したメモリへの書き込みを1つにマージし、実行を省略する可能性があることがわかりました。そのため、一般的なベンチマークのように複数回の測定結果を平均化するやり方では、正しい速度を測定できていませんでした。 「パフォーマンスを解釈するのにアーキテクチャの理解が不可欠だった事例」として面白かったのでこの記事を書いてみました。Go言語で説明しますが、言語に依存しない話だと思います。 得られた教訓 バイナリを見ても説明できない性能差は、アーキテクチャの理解によって説明できることがある マイクロベンチマークは、何を計測しているのかを理解した上で実施する必要があ

                                                                                ARMアーキテクチャがメモリアクセスを省略することで意図したベンチマークになっていなかった話
                                                                              • 言語モデル:朝日新聞社メディア研究開発センター 人工知能研究の取り組み

                                                                                概要 言語モデルとは、人間が話したり書いたりする「言葉」を、単語の出現確率でモデル化したものです。昨今ではニューラルネットワークによる言語モデル (ニューラル言語モデル) が広く使われています。言語モデルには、左から右に順々に単語を予測するCausal Language Model (CLM) と、文中の単語を一部隠して「穴埋めクイズ」を解くMasked Language Model (MLM) があります。大規模な言語データを用いて、CLMやMLMのような方式で学習することで、高品質な言語モデルの構築が可能になります。 最近では、MLMのBERTやCLMのGPT-3などがメディアに取り上げられることも多くなってきました。メディア研究開発センターでは、過去30年にわたって蓄積してきた記事データを用いて言語モデルの構築と、自動要約や文書分類などのタスクへの応用研究を行っています。 各言語モデ

                                                                                • OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita

                                                                                  import os os.environ["OPENAI_API_KEY"] = "<ここにAPI_KEYを書く>" # driveをマウント(Colabからファイルを読み込めるようにする。初回は認証が必要なので許可します。) from google.colab import drive drive.mount('/content/drive') # 階層を移動(仕組み詳細はこちら -> https://www.ushiji.online/colab-file-upload) %cd "/content/drive/<colabを作成したフォルダーのパス>" データの作成 学習させるデータは以下のようなフォーマットで作成する必要があります。最大50MBまで対応しています。これは、公式tutorialの例ですが、皮肉な回答を返すように学習させているものです。 {"messages": [{"

                                                                                    OpenAI(ChatGPT)のfine-tuning機能を早速試してみた~ひろゆきのスパチャを例に - Qiita