サイト公開からの期間、見出しのh1要素やh2要素、直帰率、共用ホスティングサービスを使っているかどうか――これらの要素にはどのような共通点があるだろうか。その答えは、グーグルの検索順位に直接影響を与えるものは1つもないということだ。 これはほっとする話かもしれない。今回のホワイトボード・フライデーでは、検索順位に影響を与えると一般に思われているにもかかわらず、実はグーグルがまったく気にかけていない10の事柄をランドが紹介する。 Mozファンのみんな、こんにちは。ホワイトボード・フライデーにようこそ。今回は、グーグルの検索順位に影響を及ぼさない事柄について話をしよう。 ウェブサイトやウェブに対して施したすべての作業が、検索順位に影響する可能性がある そんな風に考えている人は多い。もちろん、僕がこれから話すように、間接的な影響を与えるものもいくつかある。 だが、実に多くの事柄が、グーグルの検索
今日は、サイトにツイート一覧を貼り付けている人向けのお知らせです。というのも、Twitterが提供しているツイート一覧をサイトに掲載する仕組みが3月には使えなくなってしまうのです。 Twitterは、標準のサイト貼り付け用ツイート一覧ボックス(「Join the conversation」と表示されるやつ、ウィジェット)の提供を近いうちに終了することを発表しました(代替手段については後述)。 「 "Join the conversation” ウィジェット」提供終了のお知らせ(Twitterブログ) Twitterの新しいAPI(プログラムによるツイートデータ取得の仕組み)への移行によるものです。この「Join the conversation」ウィジェットは古いAPIを使っているため、新APIへの切り替えにともなって使えなくなるのです。 正式な提供終了時期は確定していませんが、完全に終了
今日は、Googleアナリティクスでのアクセス解析で外部リンクのクリックを追跡する手法について、情報を整理してみます。私は結論としては、setTimeoutとかhitCallbackとか小細工せずに「とれるデータだけとる」が良いと判断しました。 GoogleアナリティクスなどのJavaScriptを利用したアクセス解析では、トラッキングコードをカスタマイズすることで「自分が管理しているページから外部サイトへのリンクがクリックされたこと」のデータを取得して分析できます。 計測の方法は_trackPageviewと_trackEvent方法としては、次の2種類があります。 仮想ページビューを使う方法(_trackPageview命令を使う)イベントトラッキングを使う方法(_trackEvent命令を使う)いずれも、HTMLまたはJavaScriptをカスタマイズして、リンクがクリックされた際に
どれぐらいスゴいかというと、「サーバーにインストールするだけで、あとは設定ファイルをちょちょっといじれば、かなり高速化できちゃう」というぐらいスゴいのです。しかも、どんなサイトでも、どんなCMSを使っていても「インストールするだけ」。 Webサイトを高速化すると、ユーザーに優しいし、場合によっては検索結果での順位にも良い影響が出るかもしれない……それはわかっていても、なかなか本格的にサイトを高速化するのは難しいものです。 サーバー側の高速化に加えて、HTMLのつくりや画像のファイルサイズ最適化、さらにはCSSを調整しての画像スプライト化やCSS/JSファイルの結合・最適化によるブラウザとサーバーの通信本数削減などなど、実はやらなきゃいけないことがたくさん。 グーグルの提供するmod_pagespeedは、そうしたことの、かなりの部分を自動的に行うものです。 mod_pagespeedはこん
グーグルによる不自然なリンクへの検出力が向上しており、それに伴って警告対象が拡大していることを、このコーナーで何度も紹介してきた。 SEOgadgetブログが、不自然なリンクだとしてグーグルに見抜かれてしまうであろうタイプのリンク状態を5つ指摘した。 短期間で急激に増加するリンク同じペースで絶えず決まった数ずつ増加し続けるリンク同じアンカーテキストの使いすぎ他の多くのサイトと同じリンク元からのリンクnofollowでない通常のリンクだけ/高いPageRankのページからのリンクだけほぼすべてに共通してるのは、「パターン化」していることだろう。それに対して、自発的に張られた自然なリンクには、どのサイトにも共通する決まりきったパターンはないはずだ。 だから、もし自然なバックリンクにある種の傾向が見られたとしても、あなたの所有するサイトにもそれが当てはまるとは限らない。 自然さを装おうと努力して
Webサイトの品質維持には、リンク切れや不要なファイルを少なくすることが重要です。今回は、Webサイト品質の問題点発見とその解決へのスピードを格段に上げる自動チェックツールを8つ紹介します。日本アイ・ビー・エムが提供するIBM Rational Policy TesterやW3Cリンクチェッカー、W3Cマークアップ検証サービス、リンク切れカッター、Web Developerなどのフリーツールも紹介 数百ページ~数万ページというWebサイトでは、人的な検査だけですべての問題点をチェックするのは実質的に不可能に近い。また、ページ数が少なくても、チェック漏れがあっては意味がない。 自動チェックツールを利用することで、問題点発見とその解決へのスピードは格段に上がる。現代のWebサイトでは、理想的な品質管理を実現するには、何らかのツールの利用は必須だともいえる。 最も効率良く診断できる専門ツール手前
この記事の内容はすべて筆者自身の見解であり(ありそうもないことだが、筆者が催眠状態にある場合を除く)、SEOmozの見解を反映しているとは限らない。 もしかしたら、僕らはパンダ・アップデートに関して少しばかり感傷的になり始めているのかもしれない。確かにパンダ・アップデートでSEOのすべてが変わったわけではないけれど、あまりに長いこと皆が無視してきたSEOの諸問題に注意を喚起するきっかけになったのではないだろうか。 そういった問題の1つが「重複コンテンツ」だ。重複コンテンツはもう何年もSEOにおける問題になっているが、グーグルの対処方法は劇的に進化してきて、アップデートのたびにどんどん複雑化しているようだ。そして、パンダ・アップデートでまた一段と飛躍した。 そんなわけで僕は、2011年の現状を踏まえて、重複コンテンツの話題を掘り下げるのにふさわしい時だと考えた。今回の記事で目指すのは包括的な
IV 重複問題の解決に役立つ方法説明の順番が適当でない感じがするかもしれないが、具体例の解説に進む前に、重複コンテンツに対処する方法をいくつか紹介しておきたい。そうしておけば、各事例を修正するための適切なお薦めツールを、混乱を招くことなく紹介できるだろうから。 ここで紹介するのは、次の12種類の方法だ。 重複ページを削除する 301リダイレクト robots.txt meta robotsタグ URL正規化タグ(rel="canonical") URLの削除(グーグル) パラメータによるブロック(グーグル) URLの削除(Bing) パラメータによるブロック(Bing) 「rel="next"」と「rel="prev"」 link rel="syndication-source" サイト内リンクの構造 何もしないそれぞれについて詳しく解説していこう。 IV-1 重複ページを削除する最も簡単
そう話すのは、ピクシブ株式会社のディレクター中村氏と鈴木氏。 多くのユーザーが自分でイラスト・漫画・小説を創作し投稿するpixivのサイトでは、検索エンジン最適化に関してどんな問題を抱えていて、どんなSEO施策を進めたのだろうか。 今回pixivのSEO施策を担当した株式会社アイレップの担当者とともに、話を伺った。 今回のSEO施策でpixivが行ったのは、次のようなものだ。 サイトコンテンツのインデックス促進 ―― 重複コンテンツなど不要なページへのクロールをなくし、意味のあるページをよりクロールしやすいようにサイト内リンクを最適化することで、検索エンジンが効率的にコンテンツをインデックスできるようにする最適化。検索ボリュームが多くなるキーワードに対応した重み付け ―― 関連するイラスト投稿の多いキーワードに対するサイト内リンクが自動的に増える仕組みの実装。検索エンジンが理解しやすいペー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く