タグ

ブックマーク / www.suzukikenichi.com (36)

  • JavaScript SEOの基本を解説するドキュメントをGoogleが公開

    [レベル: 上級] JavaScript を多用するウェブサイトの SEO のために必要な基知識を解説するドキュメントを Google はデベロッパーサイトで公開しました。 ドキュメントに書かれている内容をざっくり紹介します。 Googlebot が JavaScript を処理するプロセス Googlebot による JavaScript の処理は次の 3 つのプロセスに大きく分かれます。 Crawling(クローリング) Rendering(レンダリング) Indexing(インデックシング) 2 番目のレンダリングが、静的な HTML ドキュメントにはないプロセスになります。 レンダリングが完了して初めて最終的なコンテンツがインデックシング プロセスに渡されます。 クローリングもレンダリングも、すぐ実行されるとは限りません。 “キュー” に保存され順番に処理されます(なので、レンダ

    JavaScript SEOの基本を解説するドキュメントをGoogleが公開
  • 今月導入される Google Speed Uptate は速ければ速いほど評価が上がるアルゴリズムだった

    [レベル: 中級] 【UPDATE】 この記事は事実を正しく反映していないことが判明しました。 こちらの記事で説明しています。 ページの読み込み速度をモバイル検索のランキング要因として用いる “Speed Update”(スピード アップデート)を Google は今月導入する予定です。 Speed Update は、当に遅いページだけが影響を受けるアルゴリズムだと思われていました。 しかしながら実際には、速ければ速いほど評価が上がるアルゴリズムになっているようです。 Speed Update では、読み込み速度が速いと段階的に評価が上がる Speed Update の導入を事前アナウンスした公式ブログの記事は次のように説明していました。 The “Speed Update,” as we’re calling it, will only affect pages that delive

    今月導入される Google Speed Uptate は速ければ速いほど評価が上がるアルゴリズムだった
    itochan
    itochan 2018/07/02
    ↓広告ブロックすると最高な体感
  • AMPページの直帰率の高さやユニークユーザー数は全部ウソ!? AMPアクセス解析には潜在的な問題あり

    [レベル: 上級] amp-analytics を用いた AMP ページのアクセス解析には大きな問題があることを Christian Oliveira(クリスチャン・オリヴェイラ)氏が自身のブログで指摘しました。 具体的には、次のレポートが非常に信頼性に乏しいデータになっています。 ユニーク ユーザー セッション 直帰率 ページ/セッション 参照元 そもそもの原因はCookie どんな問題が出てくるかはこの後説明するとして、問題が発生するそもそもの理由は Cookie に起因します。 AMP コンテンツは、その AMP ページを実際にホストしてるドメイン(僕たちのサイト)ではなく、AMP CDN のキャッシュから返されます。 AMP CND サーバーのドメイン名は、cdn.ampproject.org です(現在は、各サイト固有のサブドメインが割り当てられている)。 キャッシュされたAMP

    AMPページの直帰率の高さやユニークユーザー数は全部ウソ!? AMPアクセス解析には潜在的な問題あり
    itochan
    itochan 2017/03/06
  • 「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか

    [対象: 中級] GoogleのMatt Cutts(マット・カッツ)氏が重複コンテンツの扱いについてあらためて説明しました。 ウェブ上のコンテンツを見ると、25〜30%くらいは重複コンテンツだと認識しておくことが重要だ。Linuxのmanコマンドについてのページなど、そういうのすべてだ。 つまり、重複コンテンツというのは確実に存在するものなんだ。ブログ記事の一部を引用してそのブログへリンクを張ることとかも当てはまる。 したがって重複コンテンツが起こるとどんな時でもスパムになるというのは事実じゃない。もし重複コンテンツがすべてスパムだと決めつけてしまったら、検索品質を上げるというよりも損なってしまう結果になってしまうだろう。 実際には次のようになる。 Googleは重複コンテンツを探す。重複コンテンツを見つけると、それら全部をまとめて1つであるかのように処理しようとすることが頻繁にある。

    「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか
    itochan
    itochan 2014/01/07
    閲覧者側の利便性を損なうことはない、なぜなら、オリジナルと「思われる」1つを残すから、 ということなら、それ以外はアクセスされにくいw
  • 「ccTLDを使うスパムサイトは極めて少ない」とGoogleのマット・カッツが発言

    [対象: 全員] ランキングを不正に操作しようとするスパマーが、複数のccTLDを取得してスパムサイトを作ることは稀だとGoogleのMatt Cutts(マット・カッツ)氏が語りました。 IPv4とIPv6で同一サイトを公開しても重複コンテンツにはならない 上の動画自体は、「IPv4とIPv6の両方で同一サイトを公開したら重複コンテンツになるか?」という質問に対する解説です。 IPv4とIPv6の両方のどちらでも利用可能であったとしても、重複コンテンツにはならない。 これがMatt Cutts氏の回答になります。 基的に、IPアドレス単位ではなくドメイン名単位でGoogleはサイトを見ているので、予測できる答えですね。 もしIPv4とIPv6が重複コンテンツ扱いされてしまったとしたら、特に、移行の過渡期である今は大きな混乱を起こしてしまうでしょう。 そんなことはGoogleは百も承知の

    「ccTLDを使うスパムサイトは極めて少ない」とGoogleのマット・カッツが発言
    itochan
    itochan 2013/09/18
    たぶん、???.info みたいな安いドメインがあればそこで大量購入する可能性はあっても、 (それ以上に)価格がまちまちなccTLDにまたがる x.com の x 固定なことはないって意味なんだろうな
  • スマートフォン向けサイトにはレスポンシブ・ウェブデザインを推奨、Googleが公開したスマホサイトの最適化 at #SMX Advanced Seattle 2012

    [対象: 中〜上級] SMX Advanced Seattle 2012 セッションレポート第2弾は、英GoogleのPierre Far(ピエール・ファー)氏による「スマートフォン向けサイトの最適化」です。 Far氏のプレゼンテーションは、直前にGoogle Webmaster Central Blogで公式アナウンスがあったスマートフォンサイト構築の推奨に関する記事とその詳細を説明しているドキュメントとほぼ同じ内容です。 Far氏のプレゼンと公開されたばかりのドキュメントを合わせて、Googleが推奨するスマートフォンサイトを構築する際の最適化についてレポートします。 スマートフォン向けサイトの最適化 3タイプの構成のスマートフォン向けサイトをGoogleはサポート レスポンシブ・ウェブデザイン (Responsive web design) — デスクトップとモバイルで同じURL・同

    スマートフォン向けサイトにはレスポンシブ・ウェブデザインを推奨、Googleが公開したスマホサイトの最適化 at #SMX Advanced Seattle 2012
    itochan
    itochan 2013/04/18
    Google的には1HTMLなRWDでなくてもよいけど、サイト側での複数HTMLの統合を希望。 「ユーザーを最優先に考えてほしいとのことでした」は、Google等、クローラーは最優先ではないのよ、という念押し。
  • コピペしたスクレイピングサイトをGoogleはやはり見抜けないのか

    [対象: 中〜上級] 無断でコンテンツをコピーして転載する、いわゆるスクレイピングがオリジナルのページよりも検索順位が上になってしまう事件がまたもや発生しました。 BuzzFeedが詳細を報じています。 今回問題となったのは、The Vergeというテクノロジーやサイエンス、アート、カルチャーなどのニュースをカバーするメディアサイトです。 The Vergeは、“For Amusement Only: the life and death of the American arcade”という記事を1月16日に公開しました。 すると、The Huffington Postというこれまたニュース系のサイト(有名サイト)が、自分たちのサイトで1月21日にその記事を掲載しました。 記事のタイトルは“The Life And Death Of The American Arcade”です。 先頭の“

    コピペしたスクレイピングサイトをGoogleはやはり見抜けないのか
    itochan
    itochan 2013/02/08
  • 突然、順位が下がったらどうする? | 海外SEO情報ブログ

    検索結果1位だったサイトのランキングが、突然下がったらどうするのが、もっとも賢明な対処方法でしょうか? 答は、「何もしない」です。 冗談のような話ですが、これがおすすめです。 High Rankingsのフォーラムで、あるメンバーが急に順位が下落したらどうするべきなのか質問しました。 ほぼすべての回答が、「何もせずに、しばらく様子をみる」でした。 モデレータのRandy氏のコメントです。 The first thing I’d do is nothing. For at least several days, perhaps a few of weeks. Only then will you have a better idea whether you actually need to make changes or it was a momentary glitch. “最初にすべきこ

    突然、順位が下がったらどうする? | 海外SEO情報ブログ
    itochan
    itochan 2011/06/05
    Google Honeymoon
  • Googleが対策に乗り出した“コンテンツファーム”とは

    コンテンツスパム対策を強化するためにGoogleがアルゴリズムを改良したことを昨日のエントリで伝えました。 公式アナウンスのなかでMatt Cutts氏は次のように言っています。 As “pure webspam” has decreased over time, attention has shifted instead to “content farms,” which are sites with shallow or low-quality content. 「純粋なウェブスパム」は長い期間をかけて減少してきた。代わりに、「コンテンツファーム」に注意が移ってきた。コンテンツファームというのは、内容が浅かったり質が低くかったりするコンテンツのことだ。 ここで出てきた“Content Farm”(コンテンツファーム)とはいったいどんなものなのでしょう? ※日語で発音すると「コンテント

    Googleが対策に乗り出した“コンテンツファーム”とは
    itochan
    itochan 2011/01/25
    まず純粋なスパム(pure spam)とは、ページ内での"repeated spammy words"等を指しているらしい。 リストの項目の多くはsplogの範疇。 / 結局 リスト全体= splog+PPP+Wiki+Q&A(BBS) → Web1.0なサイト以外全て?(blogないけど)
  • ウェブの作業を効率化するGoogle Chromeエクステンション×14

    Google純正ブラウザ、Google Chromeは2008年の9月に登場して以来順調にシェアを伸ばしているようです。 米NetApplications社の最新の調査によれば、2010年11月のChromeの市場シェアは9.26%だったそうです。 僕のブログで言えば、11月のChromeのシェアは19.44%でした。 一般ユーザーの間ではまだまだInternet Explorerが優勢なようですが、ITリテラシーの高いユーザーの間では着実に浸透しているようです。 僕も例外ではなく、メインのブラウザはすっかりGoogle Chromeです。 軽さと安定性、インターフェイスのシンプルさが魅力です。 以前のメインブラウザだったFirefoxには豊富な拡張機能(アドオン)が揃っていました。 ですが時間がたってChormeにも便利な拡張機能(エクステンション)が出始めたのが切り替えに至った大きな理

    ウェブの作業を効率化するGoogle Chromeエクステンション×14
    itochan
    itochan 2010/12/09
  • 注意!、Twitterからのリンクはバックリンクにならない

    Twitterのツイートのなかにあるリンクを検索ランキングを決める要因としてGoogleは見ているという事実が明らかになったことを昨日お伝えしました。 Twitter関係の記事のせいなのか、はてブではそれほどブックマークされていませんが、Twitterでの言及はこのブログで過去いちばんの多さです(といっても、300ツイート未満ですけどね)。 多くの人に読まれることはブログを運営者としては喜びの1つです。 でもこの記事を読んで勘違いする人や悪知恵を働かせる人が出てきそうな気がしたので、今日は補足を兼ねたエントリを書くことにしました。 記事の中にも書いたように、Twitterのリンクを評価要因として取り入れてるといっても単に数を集めればいいということでは決してありません(評価に占めるウェイトも限定されている)。 リンク入りのツイートを発したユーザーの“Authority”(オーソリティ)が問わ

    注意!、Twitterからのリンクはバックリンクにならない
    itochan
    itochan 2010/12/06
    注意ってなんだwww
  • Googleマット・カッツ、「スパム対策を強化する(日本でも)」 at PubCon

    先週参加したPubCon Las Vegasのいちばんの目玉は、GoogleのMatt Cutts(マット・カッツ)氏のセッションでした。 4、500人は収容できるだろうホールが満席でした。 そんななか、前から2番目の列に陣取って(笑)、Googleのスパムハンター隊長のMatt Cutts氏のプレゼンテーションを目の前で聴いてきました。 1時間以上のセッションで話題は多岐に渡ったのですが、今日はそのなかからGoogleのスパムに対する取り組みをレポートします。 これまでの1年間、Googleが特に力を入れてきたテーマに「セキュリティと信頼性」が挙げられます。 このなかにはスパムサイトへの対抗も含まれます。 Googleは、Chromeブラウザにスパムレポート用のエクステンションをつい先日公開しました。 このエクステンションを使うと、必要なフィールドを自動で入力してGoogleにスパムレポ

    Googleマット・カッツ、「スパム対策を強化する(日本でも)」 at PubCon
    itochan
    itochan 2010/11/20
    リスクといっても所詮SEOに関してだけのリスク。
  • アメリカ発のSEO情報を連発:Q&A×7 + ツイート×17 at PubCon

    おととい、昨日とPubCon Las Vegasのレポートを公開しました。 まだ他にもたくさんのセッションに参加したのですが、レポートにまとめるのに時間がかかりそうなので、特に伝えたいことを簡潔に書きます。 まずは、Matt CuttsのセッションのQ&Aから Q: rel=”canonical”タグを無視するときはあるか? A: たいていの場合は従う。しかし404ページを指しているような、自らに被害を与えるようなケースでは無視することもある。 Q: Bingは1,000個のアルゴリズムを使っているそうだが、Googleは200個と言っている。いくつ使っているのか? A: 定義の仕方による。たとえばGoogleエンジニアは50個のシグナルで1つのクラシファイヤー(classifer:「分類」を表すプログラム用語?)を作っている。これを1個ととるか50個ととるかだ。200個のランキング要因

    アメリカ発のSEO情報を連発:Q&A×7 + ツイート×17 at PubCon
    itochan
    itochan 2010/11/19
  • Googleがスパムサイトを対処する方法

    Google Webmaster Centaral Blogが、SEOスパムとして報告を受けたサイトの取り扱いついての記事を公開しました。 ざっくりとした内容は次のようになります。 スパムサイトを見つけたらスパムレポートから通報してください 分かりやすく説明してください スパム行為が認められたら適切に対処します これはこれとしてそれなりに大切な事ですが、スパムサイト・スパム行為に対するGoogleの取り扱いについて知っておいたほうがいいだろう重要な情報をいくつか含んでいるので、抜き出して説明しておきます。 ● 1か月に数回のインプレッションしかないようなサイトよりも、検索結果の1ページ目、2ページ目に定期的に表示されるサイトを優先的に調査する。 ユーザーに対する影響が大きい検索を優先的にチェックするということですね。 検索数の多いビッグキーワードほど頻繁にチェックするという話も聞いたことが

    Googleがスパムサイトを対処する方法
  • ページ分割したときの1ページの長さは5スクロール分が最適 | 海外SEO情報ブログ

    1ページに載せるコンテンツの量が多くてページが長くなってしまったとき、複数のページに分割することがあります。 ページを分けることを「Pagination(ページネーション)」と呼ぶことがあります。 長いページは読みづらいし、ユーザーが抵抗感をもつこともあるでしょう(スクロールバーのスライダーがとっても小さいページは長さが想起できて嫌いです。商材のセールスページとか楽○とかねw) 反対にわざと短く区切ってページビュー数を稼ぐサイトもあったりするようです。 ページネーションでページを分割した場合、1ページあたりの長さはどのくらいが適切なのでしょうか? WebmasterWorldのスレッドでフォーラム管理者のtedsterは、数年前にテストした結果、最大に最後まで読んでもらえるのは約5スクロール(5画面)分だったことが判明したとコメントしています。 ※ちなみにたいていのブラウザではスペースキー

    ページ分割したときの1ページの長さは5スクロール分が最適 | 海外SEO情報ブログ
    itochan
    itochan 2010/06/29
    スペースキー1回で1スクロールするとすると、 (スペースキーを)5回叩くところまでは読んでくれる / ページ遷移(クリック数)と同じとまではいえないだろうけどそういう意味
  • アフィリエイトリンクは被リンクとしては評価されない

    おとといの「301リダイレクトでPageRankが失われる」と昨日の「Google のクロール頻度に影響する3つの要因」に続いて、Matt Cutts(マット・カッツ)氏がインタビューで発言したコメントを解説します(2、3週間はこのインタービュー解説でブログ更新できそうなくらい数多くの情報を提供している)。 今日はアフィリエイトリンクの取り扱いに対する次のやり取りをピックアップします。 Eric Enge: If Googlebot sees an affiliate link out there, does it treat that link as an endorsement or an ad? Matt Cutts: Typically, we want to handle those sorts of links appropriately. A lot of the time,

    アフィリエイトリンクは被リンクとしては評価されない
    itochan
    itochan 2010/03/19
    ペナルティを受けても文句言うな! という形で発表し、(理想へ)強行してくれると幸い
  • Googleが認めた、「301リダイレクトでPageRankが失われる」

    GoogleのMatt Cutts(マット・カッツ)氏は、Stone Temple ConsultingのErig Enge(エリック・エンゲ)氏とのインタビューのなかで、301リダイレクトによってPageRankがいくらか失われるということを認めました。 Eric Enge: Let’s say you move from one domain to another and you write yourself a nice little statement that basically instructs the search engine and, any user agent on how to remap from one domain to the other. In a scenario like this, is there some loss in PageRank th

    Googleが認めた、「301リダイレクトでPageRankが失われる」
    itochan
    itochan 2010/03/16
    グーグルのバグ / グーグル側で引越し報告窓口とか提供してくれればいいのに。
  • Bingが301リダイレクトを処理するのにかかる時間

    久しぶりのBingネタになります。 URLの変更に用いるのが、301リダイレクトです。 元のURLの情報を失うことなく新しいURLに引き継ぐには、301リダイレクトを設定するのが鉄則です。 旧URLから新URLに、情報が引き継がれるのにはどの位の時間がかかるのでしょう。 Bingのウェブマスター向けフォーラムで、管理者のBrett Yount(ブレット・ヤント)氏がコメントしました。 by design, our crawler usually takes 2-3 crawls before it registers the redirect. Bingでは、リダイレクトが登録されるまでには設計上2、3回のクローリングが必要とのことです。 「いったんはリダイレクト設定したけれど、すぐに元に戻した」というケースもありそうなので、確認のために複数回のチェックを要するのは、意味のある仕様のように

    Bingが301リダイレクトを処理するのにかかる時間
    itochan
    itochan 2009/12/15
    「アルゴリズム行進」  こういう誤字いいよね
  • Yahoo!がGoogle検索でハイジャックされた!?

    Googleの公式ヘルプフォーラムで、奇妙な現象の発見が投稿されました。 googleyahoo.co.jpを検索すると、twakuwakulandという怪しげなサイトがトップに来ます。 問題のサイトはyahooのトップページをリダイレクトして表示しています。 素性のわからないサイトですが、リンクのトラッキングやログインIDの抜き出しをしていたらまずいと思います。 問題の調査と対処をよろしくお願いします。 Googleで(google.co.jpでもgoogle.comでも)、”yahoo.co.jp”を検索すると1位に表示されるページのURLが、来あるべきはずの”www.yahoo.co.jp”ではなく、”www.twakuwakuland.info”という得体の知れないドメインのURLになっているのです。 twakuwakuland.infoは、以前はポイントサイトだったようで、衆

    Yahoo!がGoogle検索でハイジャックされた!?
  • Googleのインデックスから、ウェブページ・サイト全体を削除する手順

    コンテンツが古くなったりしてファイルを消した場合など、もう検索結果にウェブページを表示させたくないことがあります。 あるいは、サイトを閉鎖したのにいまだに検索に出続けていているのをどうにかしたい、ということもあるかもしれません。 GoolgleのMatt Cutts(マット・カッツ)氏が、Googleのインデックスからコンテンツを削除する方法を、ビデオで解説しています。 How can I remove old content from Google’s index? インデックスからのコンテンツ削除には、大きく分けて2つのパターンがあります。 1つは、単一のウェブページを削除するとき、もう1つはサイト全体を削除するときです。 1.単一のウェブページの削除 1) 消したいページのURLにアクセスしたときに、404のHTTPステータスコードを返すようにする。 404は、該当ページが存在しない

    Googleのインデックスから、ウェブページ・サイト全体を削除する手順
    itochan
    itochan 2009/11/25