運用するサイトが検索結果から消えてしまった。原因は、noindex robots meta タグを多くのページに追加したためだった。そんな、笑うに笑えない話をまたまた公式ヘルプフォーラムで見つけた。 こうした例は、このコーナーで何回も取り上げたことがある。サイト管理者の不注意が原因でインデックスから消滅してしまう6つのパターンを、改めておさらいしてみよう。 noindex robots metaタグを全ページに付けてしまった(X-Robots-Tagでnoindexを返した) robots.txtでクロールを完全にブロックしてしまった rel="canonical"を全ページでトップページに向けてしまった(現在はグーグルが間違いに気付いて無視してくれることも多い) robots.txtへのアクセスで503エラーが返っていた(200または404以外のエラーを返すと良くない) URL削除ツール
主要なポイントをまとめる。 ツールバーPageRankは年に数回、定期的に更新しているだけだ(だから、すぐには変化しない) ブラウザがグーグルツールバーに対応しなくなってきて利用が減ってきている(だから更新頻度が下がっている?) PageRankの値は、リンクの数と質によってだけ決まる。だから、コンテンツの更新頻度やコンテンツ著者の良し悪しには関係しない PageRankがサイト内のページにまんべんなく行き渡るように、ツリー図のような階層型の内部リンクを各コンテンツ付けるようにするといい 特に重要なページには、トップページから1つか2つのリンクで到達できるようにすると、比較的多くのPageRankがそのページに渡る 質の高いコンテンツを作って人々に知ってもらうだけでなく、そのページに対するリンクを多く獲得すれば、PageRankが増える どれも基本的なことばかりだ。質問者はおそらくSEO初
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く