[対象: 全員] 表示速度の遅いページがサイトに存在した場合、全体としてのスピードを上げるためにそれらのページをrobots.txtでブロックすべきか? この質問にGoogleのMatt Cutts(マット・カッツ)氏が回答しました。 一般的に言えば、僕だったらGooglebotにはユーザーと同じページを見せておく。 ページスピードのメカニズムによって影響を受けて順位が下がるのは100検索につき1つだ。だいたい1,000サイトに1サイトに相当する。 もしその1,000サイトのうちの1つに当てはまるくらいものすごく遅いなら何か対処しなければならないだろう。でもブラウザがタイムアウトしたりカクカクし始めたりしない限りは、ほとんどの場合は比較的いい状態だと言える。 だけどユーザーエクスペリエンスのことは考えたほうがいかもしれない。もしページが表示されるのに8、9、10、20秒待たないといけないと
![表示速度の遅いページをrobots.txtでブロックすべきか](https://cdn-ak-scissors.b.st-hatena.com/image/square/f00f4804fe59acd36d8e9d02e50d10db7dc9a119/height=288;version=1;width=512/https%3A%2F%2Fwww.suzukikenichi.com%2Fblog%2Fwp-content%2Fuploads%2Fsplash_1200_675.png)