タグ

cacheに関するkasahiのブックマーク (11)

  • 月間500万PV&転送量80TBのサイトをたった4万円で維持する方法

    月間ページビュー(PV)が500万PVあり、データ転送量も80TBあるという人気ウェブサイトを400ドル(約4万6000円)以下で維持する方法を、3Dのアセットライブラリを一般公開しているPoly Havenがまとめています。 How we handle 80TB and 5M page views a month for under $400 – Poly Haven Blog https://blog.polyhaven.com/how-we-handle-80tb-and-5m-page-views-a-month-for-under-400/ ウェブサイト運営のポイントの1つは「資金リソースをどう管理するか」です。資金があればAmazon S3のようなクラウドプラットフォームを利用するのが簡単ですが、データ転送量が月間80TBもあるPoly HavenのようなウェブサイトでAmaz

    月間500万PV&転送量80TBのサイトをたった4万円で維持する方法
  • 秒間10万リクエスト・レスポンスタイム100ms以下を実現するシステム事例 〜 ヤフーのコンテンツ紹介プラットフォーム 〜

    ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは! クロスユースプラットフォーム(以下 クロスユースPF)開発の大島です。 Yahoo! JAPAN Tech Conference 2019 in Shibuyaで大量のトラフィックを高速に捌くヤフーのコンテンツを紹介するプラットフォーム、「クロスユースPF」のシステムについて話をしました。 記事では発表を行った内容の一部を紹介したいと思います。 YJTC クロスユースプラットフォーム ~ 秒間10万リクエスト・レスポンスタイム100ms以下を実現するシステムについて ~ クロスユースPFとは クロスユースPFとはユーザーにYahoo! JAPANのコンテンツを紹介するためのプラットフォームです。 Yahoo! JA

    秒間10万リクエスト・レスポンスタイム100ms以下を実現するシステム事例 〜 ヤフーのコンテンツ紹介プラットフォーム 〜
  • ホンネテレビの負荷対策-配信編 - Qiita

    この記事は、AbemaTV Advent Calendar 2017 の25日目の記事です。 今年、サイバーエージェントに新卒入社し、AbemaTVの配信チームに所属している @miyukki です。 このアドベントカレンダーも最終日になりました。11月末まで誰もやる気配がなかったのですが、社内で声を上げて広めた結果、多くの人が書いてくれてありがたいです。なんでも気軽に自由に発言できるのもこの職場の良いところです。 72時間ホンネテレビ さて題に戻り、AbemaTVでは11月2日-5日にかけて、稲垣・草彅・香取 3人でインターネットはじめます『72時間ホンネテレビ』(以下、ホンネテレビ)を放送しました。 言い出しづらいのですが、過去には「亀田興毅に勝ったら1000万円」AbemaTV史上最多アクセスでサーバダウンと記事になるなど、急激なアクセス増加でサービスを提供できなかった例がありまし

    ホンネテレビの負荷対策-配信編 - Qiita
  • Cache利用時にCache揮発直後のスパイクを避ける方法 - Qiita

    Cache利用ポリシーについての一般論 適切なCache利用はシステム全体の性能を上げることに非常に効果的です。また、うまくCacheを利用することによって、スケール対応しにくい部分の負荷を逃がすこともできるようになります。 CDNの利用も含めて、積極的にCacheを利用したいケースとして以下のような例が挙げられます。 [前提条件]Cacheのヒット率が高いケース マスタデータの参照など、実行時にほとんど結果が変わらないケース どのユーザーに対してもほぼ同じページを返答して良いケース [前提条件]Cacheが古くても大きな問題とならないケースまたは古い状態のCacheの更新が出来るケース Cache保持期間を短くすることである程度解消可能 DBを更新した時にCacheの内容も書き換える事ができるケース(Read Through Cacheとして利用している場合は、Cacheの削除だけで良い

    Cache利用時にCache揮発直後のスパイクを避ける方法 - Qiita
  • Togetterを支えるお手軽画像配信サーバ(1)Camoで実現するセキュアな画像プロキシサーバ - Qiita

    こんにちは。トゥギャッター株式会社でバックエンド中心にエンジニアをしている @MintoAoyama です。 Togetter はツイートを始めとした様々な情報を組み合わせてコンテンツを作り出すキュレーションサービスです。 2009年に誕生してから今年で8年目に突入し、現在も月間6000万PV・1200万UUを超える規模で成長を続けています。 海外版の Chirpstory も政治家・公共団体・ジャーナリストなど影響力のあるユーザに支えられ、成長を続けています。 そんなTogetter・Chirpstoryを支えるシステムの1つに 画像配信サーバ があります。もう少し詳しくすると リアルタイム変換機能付き 画像プロキシサーバ です。 この仕組み、特に当サービスにおいては地味に重要な役割を持っているのですが、社内に関心を持って貰える人が居なかった(※)ので、とりあえずここに整理することにしま

    Togetterを支えるお手軽画像配信サーバ(1)Camoで実現するセキュアな画像プロキシサーバ - Qiita
  • Twitter、進化するアーキテクチャ

    原文(投稿日:2009/6/26)へのリンク Twitterサービスチームの主任エンジニアであり、主に最適化とスケーラビリティを担当しているEvan Weaver氏が、QCon London 2009においてTwitterのアーキテクチャ、とりわけ過去一年にわたって行ってきたウェブサイトの最適化について語った。 Twitterで使われているツールの多くはオープンソースである。そのスタックは、フロントサイドにRails、中間のビジネス層にC、ScalaJava、データストアとしてMySQLを利用してつくられている。すべてがRAM上に保持されており、データベースは単なるバックアップである。Railsフロントエンドはレンダリング、複合キャッシュ、DBクエリ、同期的挿入を扱う。このフロントエンドは、MySQLクライアント、Memcachedクライアント、JSONクライアントなどの、多くはCで書

    Twitter、進化するアーキテクチャ
  • mixi Engineers’ Blog » libmemcachedで快速キャッシュ生活

    みんな大好きなmemcached。今日はBrian AkerのC言語用クライエントライブラリについて書きたいと思います。日語の情報がとても少なく、ドキュメンテーションも英語だけという事で興味はあるけど手をつけていないという方のお役に立てれたらなと思います。 題の前に why libmemcached? 既にlibmemcacheが存在するのに何故、libmemcached?かと言うと理由の一つは最近libmemcacheの開発が止まったからです。家ではそれが理由でlibmemcacheではなくlibmemcachedを推奨してますね。又、効率的なメモリ使用、Consistent Hashing、様々なハッシュアルゴリズム、新しいオペレータに対応している等という宣伝文句があります。apr_memcacheというライブラリも存在しますが自分は使った事がないためノーコメント。 ただ、推奨さ

    mixi Engineers’ Blog » libmemcachedで快速キャッシュ生活
  • サービス終了のお知らせ

    平素より「PHPプロ!」をご愛顧いただき、誠にありがとうございます。 2006年より運営してまいりました「PHPプロ!」ですが、サービスの利用状況を鑑みまして、2018年9月25日(火曜日)をもちましてサービスを終了させていただくことになりました。 サービス終了に伴いまして、2018年8月28日(火曜日)を持ちまして、新規会員登録ならびにQ&A掲示板への新たな質問、回答の投稿を停止させていただきます。 なお、ご登録いただいた皆様の個人情報につきましては、サービス終了後、弊社が責任をもって消去いたします。 これまで多くの皆様にご利用をいただきまして、誠にありがとうございました。 サービス終了に伴い、皆様にはご不便をおかけいたしますこと、心よりお詫び申し上げます。 件に関するお問い合わせはこちらよりお願いいたします。

  • ウノウラボ Unoh Labs: データキャッシュを利用したウェブサーバの高速化

    こんにちは satoです Aapcheでproxyサーバを利用している場合、頻繁にアクセスされて、なおかつ 更新の少ないデータ、(フォト蔵や mixiでいう マイピクチャーなど) は proxyサーバにキャッシュするとレスポンスが良くなります。 mod_proxy_balancerと mod_disk_cache を利用して、proxyサーバに データをキャッシュする手順を紹介します <VirtualHost * *:443> ServerName example.com ProxyPass /img ! # cssやイメージファイルは proxyしないでローカル参照 ProxyPass /css ! <Proxy balancer://web> AddOutputFilterByType DEFLATE text/html text/css application/x-j

  • javascriptを多用したページを早く表示するには « ku

    diggにのってた Vitamin Features » Serving JavaScript Fast っていう、Flickrの Cal Henderson というひとが書いてた記事に、最近なんとかなんないのかと思ってたことが書かれていて、すんげー!というわけですぐ試してみたら確かにその通りになって最高でした。 Serving JavaScript Fast ってなんのこと?というかんじだけど、要するにいまどきなWEBページはCSSとかjavascriptとかたくさん使っていて、ページのロードが完了するまで時間がかかるからなんとかしたいよね、という話。 CSSjavascriptも一度読み込めばキャッシュされるからいいんじゃないの? たしかに。しかしブラウザは毎回更新されたかどうかを確認しに行って、更新されてない、という答えをもらってから自分が持っているキャッシュを使っているのです

  • AjaxのレスポンスをキャッシュするJavaScriptライブラリ「JSOC」:phpspot開発日誌

    Webframeworks LLC - Open Souce Projects Dramatically improve your Ajax application performance with JSOC - the JavaScript Object Cache framework. AjaxのレスポンスをキャッシュするJavaScriptライブラリ「JSOC」。 次はJSOCを使ってXMLHTTPRequestの結果をキャッシュするサンプルスクリプト。 var xhttp = new xhttp(); // use your XMLHTTPRequest library of choice! function setCache(n,v){ var respCode = jsoc.set(n, v); alert('Data containing ' + n + ' was fetc

  • 1