エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「SEOの意外な裏技」その10:robots.txtでリンクジュースの受け渡しをうっかりブロックしないために | Moz - SEOとインバウンドマーケティングの実践情報
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「SEOの意外な裏技」その10:robots.txtでリンクジュースの受け渡しをうっかりブロックしないために | Moz - SEOとインバウンドマーケティングの実践情報
自分のドメイン名にあるページにロボットをアクセスさせないための手段として、robots.txtを採用してい... 自分のドメイン名にあるページにロボットをアクセスさせないための手段として、robots.txtを採用しているWebサイトが結構ある。確かにいいやり方だけど、僕らの元に寄せられる質問を見ていると、robots.txtを使ってグーグルやヤフー、MSNといった検索エンジンのロボットを排除するとは一体どういうことなのかってことに関して、少々誤解があるようだ。以下に、ロボットの排除方法をざっと分類してみよう。 robots.txt ―― URLへの訪問はさせないが、URL自体をインデックスに取り込んで検索結果ページ(SERP)に表示するのは許可する(よくわからない人は、下の例を見てほしい)。 メタタグ(meta要素)のnoindex ―― 訪問は許可するが、URLのインデックス化や、SERPへの表示はさせない。 nofollow属性の付いたリンク ―― 賢いやり方ではない。あるリンクにnofollo
2009/09/18 リンク