米国版のGoogle Webmaster Central 公式ヘルプフォーラムで、重複コンテンツを防ぐためのrobots.txtの利用についてGoogleのヘルプに矛盾がありどちらが正しいのかという質問が投稿されました。 Google と相性の良いサイト(40349) メインのページが検索結果に含まれるようにするには、robots.txt ファイルを使用してこのような重複ページがスパイダーに検出されないようにする必要があります。 重複コンテンツ(66359) Google では現在、robots.txt ファイルなどの方法を使用してウェブサイトの重複コンテンツがクローラでアクセスされないようにすることはおすすめしていません。 上ではrobots.txtを使えと言ってますが、下では使うなと言っています。 ヘルプの更新日は、この記事を書いている時点でどちらも2011年3月20日です。 どちらか
![矛盾するGoogleのヘルプ:重複コンテンツをrobots.txtでブロックするのはOK?、NG?](https://cdn-ak-scissors.b.st-hatena.com/image/square/f00f4804fe59acd36d8e9d02e50d10db7dc9a119/height=288;version=1;width=512/https%3A%2F%2Fwww.suzukikenichi.com%2Fblog%2Fwp-content%2Fuploads%2Fsplash_1200_675.png)