並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 112件

新着順 人気順

重複コンテンツの検索結果1 - 40 件 / 112件

  • 2人のGoogle社員が何でも答えてくれた――フレッドアップデート、PWA、重複コンテンツペナルティ、機械学習などなど #SMX West 2017

    [レベル: 初・中・上級] この記事では、先週参加した SMX West 2017 の AMA with Google Search セッションをレポートします。 AMA は”Ask Me Anything”(なんでも質問してみよう)の略で、Gary Illyes(ゲイリー・イリェーシュ)氏と Mariya Moeva(マリヤ・モエヴァ)氏の2人の Google 社員に対して、主催者代表の Danny Sullivan(ダニー・サリヴァン)氏がさまざまな質問をぶつけるセッションです。 どんな質問が出てきて、2人の Google 社員はそれにどのように回答したのでしょうか? Google 検索に何でも聞いてみよう! Q. App Indexing と AMP、PWA の3つのモバイル検索の仕組みがあるが、それぞれについて説明してほしい 企業によって役割が変わってくる。適切な手段でユーザーにコ

      2人のGoogle社員が何でも答えてくれた――フレッドアップデート、PWA、重複コンテンツペナルティ、機械学習などなど #SMX West 2017
    • Google、重複コンテンツ(コピペサイト)の対処方法について解説 ::SEM R (#SEMR)

      Google、重複コンテンツ(コピペサイト)の対処方法について解説 グーグル、重複コンテンツの問題とその対処法について改めて解説。基本的にアルゴリズムでオリジナルサイトを自動判定するため、多くのウェブマスターは特別この問題に配慮する必要はない。 公開日時:2008年06月16日 13:10 米Googleは2008年6月9日、近年SEOの領域で話題として取り上げられる機会が多い、重複コンテンツ(duplicate content)問題についてのGoogleの取組みと解決方法について説明した。公式ブログ(Official Google Webmaster Central Blog)にて、検索品質担当チーム・Sven Naumann氏が解説した。 私は本ブログほかいくつかのコラムで何度も重複コンテンツの問題を取り上げているし、また、この問題と対処方法については米国で開催される各種コンファレンス

        Google、重複コンテンツ(コピペサイト)の対処方法について解説 ::SEM R (#SEMR)
      • Googleマット・カッツに突撃質問: 感情分析・重複コンテンツ・CSSポジショニング at #SMX Advanced 2013

        [対象: 全員] SMX Advanced 2013のレポートとして、米GoogleサーチクオリティチームのMatt Cutts(マット・カッツ)氏の重要な発言を2つの記事で紹介しました。 Googleのマット・カッツが明かした21個の最新SEO情報 from #SMX Advanced 2013 著者情報の正しい使い方、Googleの検索結果は広告ばかり? などマット・カッツからの重要発言×5+1 from #SMX Advanced 2013 この記事では、セッションではなく僕がMatt Cutts氏に直接ぶつけてきたGoogle検索に対しての疑問への回答をシェアします。 Matt Cutts氏に僕が聞いたのは次の3つのトピックに関する質問です。 感情分析 重複コンテンツ CSSポジショニング Googleマット・カッツに直接ぶつけた質問×3 Q1: 感情分析を使っているか 使っていな

          Googleマット・カッツに突撃質問: 感情分析・重複コンテンツ・CSSポジショニング at #SMX Advanced 2013
        • 「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか

          [対象: 中級] GoogleのMatt Cutts(マット・カッツ)氏が重複コンテンツの扱いについてあらためて説明しました。 ウェブ上のコンテンツを見ると、25〜30%くらいは重複コンテンツだと認識しておくことが重要だ。Linuxのmanコマンドについてのページなど、そういうのすべてだ。 つまり、重複コンテンツというのは確実に存在するものなんだ。ブログ記事の一部を引用してそのブログへリンクを張ることとかも当てはまる。 したがって重複コンテンツが起こるとどんな時でもスパムになるというのは事実じゃない。もし重複コンテンツがすべてスパムだと決めつけてしまったら、検索品質を上げるというよりも損なってしまう結果になってしまうだろう。 実際には次のようになる。 Googleは重複コンテンツを探す。重複コンテンツを見つけると、それら全部をまとめて1つであるかのように処理しようとすることが頻繁にある。

            「重複コンテンツはスパムでGoogleにペナルティを受ける」は、なぜ間違いなのか
          • rel=”canonical”の正規化で、重複コンテンツを撃退

            重複コンテンツ問題の解消に頭を抱えるサイト管理者に朗報です。 Google、Yahoo!、Microosftの大手検索エンジン企業がURLの正規化に対応する共通の取り組みとして、「rel=”canonical”属性」のサポートを開始することを発表しました。 Official Google Webmaster Central Blog – Specify your canonical Yahoo! Search Blog – Fighting Duplication Adding more arrows to your quiver Live Search Webmaster Center Blog – Partnering to help solve duplicate content issues rel=”canonical”は、複製コンテンツページのheadセクションに以下の記述を追

              rel=”canonical”の正規化で、重複コンテンツを撃退
            • WordPressのカテゴリーページで重複コンテンツ判定回避のためにnoindexを使うべきかどうか – 旧・中川勉社会保険労務士事務所FPウェブシュフ

              以前にワードプレスのアーカイブページを検索エンジンにインデックスさせるかどうかの論争に巻き込まれたことがありました。 その当時のエントリを一つにまとめました。 【再改訂】重複コンテンツ問題まとめ(2013年11月~12月) By: SEOPlanter 一部で少しだけ盛り上がった重複コンテンツ祭りに記事を2連投。気分は主催者、多少は燃料投下に貢献したつもりの@web_shufuです。2013年11月から12月にかけての動きなどをまとめてみました。 まとめの中立性に関するご指摘など受けましたが、この件で何度も記事を上げている私がまとめた以上、中立性など担保できません。ので「重複コンテンツ対策不要論派の記事」を末尾にまとめました。 @ENJILOGさんがカテゴリアーカイブをnoindexからindexに変更 [img-link url=”http://rentalhomepage.com/wo

                WordPressのカテゴリーページで重複コンテンツ判定回避のためにnoindexを使うべきかどうか – 旧・中川勉社会保険労務士事務所FPウェブシュフ
              • ECサイトで自社サイトと楽天ショップの重複コンテンツを防ぐ方法

                [対象: 全員] ECサイト(ネットショップ)を運営していて、自社サイトのほかに、楽天市場やYahoo!ショッピング、Amazonなどのショッピングモールに出店しているケースでの重複コンテンツ対策について、この記事では考察します。 同じ商品を販売するECサイト間で起こりうる重複コンテンツ 今年6月に参加したSMX Advancedで、GoogleのMatt Cutts(マット・カッツ)氏に次の質問を僕はぶつけました。 ECサイトを運営していて、自社サイトのほかに楽天やアマゾンでも出店し、同じコンテンツを公開したら重複コンテンツになるか? マットの答えはこうでした。 重複コンテンツになる。ペナルティではないが、どれかは検索結果に出なくなるだろう。 rel=”canonical”で優先するサイトを指定することができる。 また今週の月曜日に投稿した記事では、GoogleのJohn Mueller

                  ECサイトで自社サイトと楽天ショップの重複コンテンツを防ぐ方法
                • 重複コンテンツが発生してしまう19の具体的なパターン - 重複コンテンツ対策完全ガイド #3 | Moz - SEOとインバウンドマーケティングの実践情報

                    重複コンテンツが発生してしまう19の具体的なパターン - 重複コンテンツ対策完全ガイド #3 | Moz - SEOとインバウンドマーケティングの実践情報
                  • サイト内の重複コンテンツを防ぐ新たな手段、rel=”canonical”が登場 - F.Ko-Jiの「一秒後は未来」

                    「SEOmoz | Canonical URL Tag – The Most Important Advancement in SEO Practices Since Sitemaps」によると、Google、Yahoo!、Live(Microsoft)の3社から「ページの標準URLを定義」して「サイト内の重複コンテンツを防止する」ための新たな手法が発表されたようです。 その方法とは、ページの head タグ内に次のような link タグを記述するという簡単なもの。 <link rel="canonical" href="http://blog.fkoji.com/" /> この rel=”canonical” によって、めんどくさい RewriteRule などを定義することなく、検索エンジンに対して望ましいURLを伝えることができます。 Google、Yahoo!、Liveのアナウンス

                      サイト内の重複コンテンツを防ぐ新たな手段、rel=”canonical”が登場 - F.Ko-Jiの「一秒後は未来」
                    • グーグル検索で重複コンテンツを調べる隠しコマンドがあった などSEO記事まとめ10+2本 | 海外&国内SEO情報ウォッチ

                        グーグル検索で重複コンテンツを調べる隠しコマンドがあった などSEO記事まとめ10+2本 | 海外&国内SEO情報ウォッチ
                      • Googleはどのようにして重複コンテンツの排除を行っているのか? - SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ

                        無料で資料をダウンロード SEOサービスのご案内 専門のコンサルタントが貴社サイトのご要望・課題整理から施策の立案を行い、検索エンジンからの流入数向上を支援いたします。 無料ダウンロードする >> 私たちが検索を行って、Googleが検索結果を返すまでにはいくつかの過程があります。 クローラーがwebページを巡回して新しいページを発見する「クローリング」、 検索エンジンのデータベースに登録して呼び出せるようにする「インデキシング」、 検索ワードに基きインデックスされた情報を用いて結果を表示する「クエリプロセス」 の3つのプロセスです。 今回は、SEOに大きく影響を与える「重複コンテンツの排除」が、この3つの中のどの過程で行われているのかについての記事です。– SEO Japan Googleがどのように複製コンテンツを検索結果から排除したり、隠したりするかについては、たくさんの興味深い質問

                          Googleはどのようにして重複コンテンツの排除を行っているのか? - SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ
                        • パンダ・アップデート後の重複コンテンツを知る - 重複コンテンツ対策完全ガイド #1 | Moz - SEOとインバウンドマーケティングの実践情報

                          この記事の内容はすべて筆者自身の見解であり(ありそうもないことだが、筆者が催眠状態にある場合を除く)、SEOmozの見解を反映しているとは限らない。 もしかしたら、僕らはパンダ・アップデートに関して少しばかり感傷的になり始めているのかもしれない。確かにパンダ・アップデートでSEOのすべてが変わったわけではないけれど、あまりに長いこと皆が無視してきたSEOの諸問題に注意を喚起するきっかけになったのではないだろうか。 そういった問題の1つが「重複コンテンツ」だ。重複コンテンツはもう何年もSEOにおける問題になっているが、グーグルの対処方法は劇的に進化してきて、アップデートのたびにどんどん複雑化しているようだ。そして、パンダ・アップデートでまた一段と飛躍した。 そんなわけで僕は、2011年の現状を踏まえて、重複コンテンツの話題を掘り下げるのにふさわしい時だと考えた。今回の記事で目指すのは包括的な

                            パンダ・アップデート後の重複コンテンツを知る - 重複コンテンツ対策完全ガイド #1 | Moz - SEOとインバウンドマーケティングの実践情報
                          • link rel="canonical"(カノニカルタグ)の使い方。URLを正規化させて重複コンテンツの発生を防ぐ方法

                              link rel="canonical"(カノニカルタグ)の使い方。URLを正規化させて重複コンテンツの発生を防ぐ方法
                            • 「重複コンテンツ・重複URL」のおさらい

                              Google、Yahoo、Microsoftの大手検索エンジンが、重複コンテンツ問題解消のために「rel=”canonical”属性」を共通で導入することになりました。 『rel=”canonical”の正規化で、重複コンテンツを撃退』 いいタイミングなので、「重複コンテンツ」についておさらいしておきましょう。 「重複コンテンツ(英語では”duplicate content“)」とは、ページの内容(=コンテンツ)がまったく同じにもかかわらず、URLが異なるWebページのことです。 僕たち人間のユーザーにとっては、普通は問題になりません。 しかしコンテンツが同じでもURLが違ければ、サーチエンジンは、独立した別々のページとして認識します。 サーチエンジンは、ダブっているとみなしたページを、SERPに表示しないようにフィルタリングし(ペナルティではない!)、代表と判断したページだけを表示します

                                「重複コンテンツ・重複URL」のおさらい
                              • Google、ウェブマスターツールに「パラメータ処理」を発展させた「URLパラメータ」を重複コンテンツ解消のために追加

                                [レベル:上級] ※このブログの記事は難易度が比較的低いものから高いものまでさまざまです。 そこで今週から投稿日の下に(僕が判断した)難易度を記載しています。 この記事のように「上級者向け」については理解できなくても問題ないことが多いですが、ワンランク上のレベルを目指すならしっかり読むといいです。 Googleウェブマスターツールに「URLパラメータ」という機能が追加されました。 正確に言うと、追加というよりは以前からあった「パラメータ処理」機能を改良させたもので、併せて名称を変更しました。 しかし改良と呼べないくらいの大きな機能拡張になっています。 「URLパラメータ」を利用する目的は重複コンテンツの解消です。 検索結果の操作を狙った悪質なものでない限りは、重複コンテンツでペナルティを受けることは通常ありません。 しかし重複コンテンツが多数発生すると、リンクの分散(=PageRankの分

                                  Google、ウェブマスターツールに「パラメータ処理」を発展させた「URLパラメータ」を重複コンテンツ解消のために追加
                                • WordPress で重複コンテンツを防止する必要はない

                                  WordPressで重複コンテンツ防止する方法 カテゴリーページの場合 WordPressのカテゴリーページでは、子カテゴリーの記事も親カテゴリーの記事リストに表示されてしまいます。この仕様が重複コンテンツを作ってしまいやすいのです。 フィードを眺めていたら流れてきたこの記事。Fb でちょろっと感想を書いても良かったのですが、きちんとブログにしてアウトプットしておいたほうがいいかなと思ったので、重複コンテンツについて僕の考えを書いてみます。 さて、件のブログで何を気にされているかというと、 例えば、「東京」という親カテゴリーの下に「渋谷」という子カテゴリーがあるとします。 渋谷カテゴリーに多くの記事をポストしてしまうと、東京カテゴリーに、渋谷カテゴリーの記事のリストが同じように掲載されてしまい、重複コンテンツと認識される可能性があるのです。 ”掲載されてしまい”…まではその通りです。それが

                                    WordPress で重複コンテンツを防止する必要はない
                                  • FC2ブログがfc2blog.netで中国向け重複コンテンツ作成/Googleからペナルティーを受け、アクセス激減 - はるか彼方の星の光

                                    最近、新しい記事を書いても、Googleの検索結果に出てこなくなりました。数日待つと検索結果に出てきますが、昨日の記事はGoogleのウェブマスター・ツールを使って送信しても、拒否されたみたいです。おかげで新規記事へのアクセスは激減どころか、ゼロになり、いったい自分は何のために何をやっているのか、記事を書く意味が全くなくなってしまいました。 いったい何が原因でこうなったのか調べていましたが、昨夜遅く、大方検討がつきました。ある記事を表示したら、CSSが読み込まれていないような画面になったのです。つまりHTMLそのままの表示です。おかしいと思い、その記事をサイドバーにある検索窓から検索して、検索結果をクリックして表示してみました。すると、正常に表示されます。そのとき、ふとブラウザーのアドレスバーを見ると、アドレスが違います。このブログのアドレスは、「http://distantstarlig

                                    • バーバリーのUSサイトがインデックスから消滅、原因は重複コンテンツ

                                      [対象: 全員] ファッションブランドのバーバリー (Burberry)の米国向けサイトがGoogleのインデックス(検索結果表示)から消滅してしまいました。 同時に、ツールバーのPageRankが5から0になりウェブマスターツールには検索結果でのクリックが著しく減少したことを通知するメッセージが届いていました。 原因は重複コンテンツです。 サイト管理者が公式ヘルプフォーラムで助けを求めたところ、Google社員のJohn Mueller(ジョン・ミューラー)氏によって理由が判明しました。 バーバリーは、40以上の国に対して専用のサイトをサブドメインで分けて運用しているそうです。 米国向けには us.burberry.com.、英国向けには uk.burberry.com、カナダ向けには ca.burberry.com といった具合です。 いくつかのサイトでは使用している言語が英語で、通貨

                                        バーバリーのUSサイトがインデックスから消滅、原因は重複コンテンツ
                                      • 大規模サイトの更新をGoogleに伝える方法 & 重複コンテンツを減らす方法 at #SMX London 2012

                                        [対象: 中級] 昨日のLPOに続いて今日も SMX London 2012 のセッションレポートの記事です。 GoogleのMilie Ohye(マイリー・オーイェ)さんによる技術的なSEOの問題の解決策を解説するセッションになります。 大規模サイトでの更新をGoogleに速やかに伝える方法と重複コンテンツを減らす方法の2項目をマイリーさんは説明しました。 それぞれを順にまとめます。 − あり得る修正 ・新しいURL: ユニークでオリジナルなコンテンツの追加 ・既存のURL: 301リダイレクト/rel=”canonical”/noindexタグの記述 − Googleウェブマスターツールの「Fetch as Google」での「インデックスの送信」 ・1週間に500URLまで ・リンク先ページも含めるときは1か月に10URLまで − Googleウェブマスターツールの「アドレスの変更」

                                          大規模サイトの更新をGoogleに伝える方法 & 重複コンテンツを減らす方法 at #SMX London 2012
                                        • 引用をblockquoteタグで囲っても重複コンテンツ対策にはならない

                                          [レベル: 初〜中級] 🎍海外SEO情報ブログの読者のみなさま🎍 あけましておめでとうございます。 今日から更新を再開します。 2016年もよろしくお付き合いください。 では今年最初の記事に入ります。 ほかのサイトからの引用であることを示すために blockquote タグを使えます。 しかしGoogleに対しては blockquote タグは引用を示すシグナルにはなりません。 したがって重複コンテンツの防止に特に役立つこともありません。 「blockquoteタグは考慮していない」とジョン・ミューラー氏がコメント 年末に開催された英語版のオフィスアワーで次のような質問が出ます。 blockquote タグをシグナルとしてGoogleは使っていますか? 別のサイトからの情報をblockquoteで囲ってそのページにリンクすれば、それは別のサイトからの引用だとしてGoogleは認識します

                                            引用をblockquoteタグで囲っても重複コンテンツ対策にはならない
                                          • Google: 重複コンテンツはrobots.txtでブロックしてはいけない

                                            検索結果での非表示、被リンクの分散、クローリング効率の低下、最悪の場合ランキングの下落・インデックスからの消滅など、重複コンテンツはさまざまな悪影響を発生させます。 海外では重複コンテンツは、ブログ・フォーラム・カンファレンスなどで頻繁に取り上げられるトピックですが、日本のSEO界では、重複コンテンツはあまり話題に上がらないし、興味を持たれていない気がします。 たぶん理由の1つに、重複コンテンツそのものが理解されておらず、何かややこしいもの、自分には関係のないものとしてとらえられているからではないでしょうか。 それはそれで構わないのですが、重複コンテンツによってトラブルにあっていると判断できる問い合わせを何度も受けたのことがあるので、少なくとも重複コンテンツが抱える問題と、対処方法については、SEOに携わる人間なら概要だけでも押さえておくべきだと思います。 重複コンテンツについて、名前くら

                                              Google: 重複コンテンツはrobots.txtでブロックしてはいけない
                                            • 重複コンテンツ・ミラーサイト・類似ページ判定ツール

                                              重複コンテンツページがあると… 2011年2月より米国で導入されたパンダアップデートをご存知でしょうか? パンダアップデートは、Googleの検索品質を高めるために実施されているアルゴリズムアップデートです。 特徴として、ほかのサイトをコピー、類似しているだけの役に立たないサイト、ユーザにとって価値のないサイトなど品質の低いサイトの順位を低下させるアルゴリズムです。 そのため重複コンテンツ・類似ページがあると、パンダアップデートなどで順位が下落する可能性があります。 どの程度、重複コンテンツ・類似したページがあると良くないかは、Googleが公開しておりません。 各結果画面に表示される判定結果を参考にして、必要に応じて重複コンテンツ・類似ページにならないよう改善を行ってはいかがでしょうか。 なお、サイトの内容を変更すると順位下落する場合があるため、事前に検討のうえバックアップを取得すること

                                              • YouTube、「重複コンテンツ」をアップロードしているチャンネルを削除 - Engadget 日本版

                                                Research indicates that carbon dioxide removal plans will not be enough to meet Paris treaty goals

                                                  YouTube、「重複コンテンツ」をアップロードしているチャンネルを削除 - Engadget 日本版
                                                • WordPressで重複コンテンツ防止する方法 カテゴリーページの場合

                                                  WordPressのカテゴリーページでは、子カテゴリーの記事も親カテゴリーの記事リストに表示されてしまいます。この仕様が重複コンテンツを作ってしまいやすいのです。 子カテゴリーの記事が親カテゴリーのリストに表示されないようにするTipsなど、カテゴリーページの重複化を防ぐ方法を紹介します。 なぜ重複コンテンツになるのか 例えば、「東京」という親カテゴリーの下に「渋谷」という子カテゴリーがあるとします。 渋谷カテゴリーに多くの記事をポストしてしまうと、東京カテゴリーに、渋谷カテゴリーの記事のリストが同じように掲載されてしまい、重複コンテンツと認識される可能性があるのです。 自分では意識していなくても、勝手にそうなってしまうので。注意が必要です。 子カテゴリー記事を削除するコード テーマ内のカテゴリーページの表示をするファイル(index.php、category.phpなど)を編集します。

                                                    WordPressで重複コンテンツ防止する方法 カテゴリーページの場合
                                                  • 重複コンテンツが発生する理由、検索に与える悪影響、防ぐ方法などをGoogleが詳しく解説

                                                    [レベル: 初級] 重複コンテンツに関するヘルプ記事を Google は更新しました。 重複が発生する理由や、重複が検索に与える悪影響、重複を防ぐ方法などが詳細に説明されています。 重複コンテンツについて十分に理解していると確信が持てない人、特に重複コンテンツに無頓着な人や重複コンテンツはペナルティの原因になると誤解している人は必ず読むことを強く、強く推奨します。 重複コンテンツ ヘルプ記事の概要 更新されたヘルプ記事はたとえば、次のような項目について解説しています。 類似ページや重複ページが生じる原因 正規化の詳細 正規ページの指定が重要な理由 正規ページを指定する方法 通常は、重複コンテンツによって評価が下がったり、ましてペナルティ(手動対策)を受けることはありません。 しかしながら、重複コンテンツの発生は決して好ましい状態でないこともまた確かです。 ヘルプ記事は、重複コンテンツが検索

                                                      重複コンテンツが発生する理由、検索に与える悪影響、防ぐ方法などをGoogleが詳しく解説
                                                    • Googleが重複コンテンツを見破るアルゴリズムとは? |SEO Japan by アイオイクスSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ

                                                      1つのコンテンツが様々な形でネット上に流通する現在、検索エンジンが重複コンテンツをどう処理しているかという問題はSEOのプロでなくとも気になる話題です。今回はGoogleが取得した特許を元にGoogleの重複コンテンツの判別アルゴリズムをSEO by the Seaが探ります! — SEO Japan 検索エンジンの特許のなかには、検索エンジンがコアの機能を実行する仕組みを詳細に取り上げているものもある。「コアの機能」とは、ページのクロール、ページのインデックス、そして、検索者への結果の表示を意味する。 例えば、昨年の12月、私は「アンカーテキストと異なるクローリングの早さに関するGoogleの特許」と言うタイトルのエントリを投稿した。これは、2003年に申請された特許をクローズアップしており、検索エンジンがウェブページをクロールし、見つけたページのウェブアドレスやURLを集める仕組みを説

                                                      • A/Bスプリットテストはクローキングや重複コンテンツになるのか?

                                                        [対象: 中〜上級] A/Bスプリットテストや多変量テストの適切な実行方法について英語版のGoogleウェブマスター向け公式ブログが説明しました。 A/Bテストは、クローキングのようなガイドライン違反になったり重複コンテンツのようなインデックス・ランキングに悪い影響を与えたりすることがあるのでしょうか。 公式ブログの説明によれば以下に説明する点に注意してテストすれば問題は起こらないとのことです。 クローキングをやらない クローキングはユーザーエージェント (User-Agnet、UA) に基いてユーザーと検索エンジンに対して同じURLで異なるコンテンツを見せることでガイドライン違反に違反します。ユーザーにはテスト用のページを見ながら検索エンジンには常にオリジナルのページを見せるとクローキングに相当してしまうのでやってはいけません。ガイドライン違反としてみなされ順位を下げられたりインデックス

                                                          A/Bスプリットテストはクローキングや重複コンテンツになるのか?
                                                        • ECサイトで、他のサイトと同じ商品説明文を使うと重複コンテンツが発生する

                                                          ECサイトにおいて、メーカーが作った商品説明文をそのまま自分のサイトにも掲載した場合の重複したコンテンツの発生について、GoogleのJohn Mueller(ジョン・ミューラー)氏が、Google+のウェブマスター向けハングアウトで説明しました。 重複しているものをユーザーが検索したときは、一般的には、1つか2つのページだけを検索結果に表示して残りはフィルタアウト(除外)しようとする。 あなたの(店舗や会社がある)地域に関係するサイトを探しているなら、あなたのサイトを検索結果に表示するかもしれない。 しかし、地域や場所に関係なくユーザーが探しているのであれば、すべてのなかでいちばん強いサイトを表示するだろう。 したがって一般的に言えば、重複した説明は良いものではないとみなされる。 アルゴリズムがすぐに気付けるように、いくらかだけでも絶対に変えるべきものだ。 それでも重複したコンテンツのな

                                                            ECサイトで、他のサイトと同じ商品説明文を使うと重複コンテンツが発生する
                                                          • 別サイトに配信した記事をGoogleは重複コンテンツとみなす。究極の対策は配信しないこと

                                                            [レベル: 初級] ほかのサイトに記事を配信した場合、同一の記事が複数ウェブに公開されていることになります。 それらを通常 Google は重複コンテンツとみなし、どれか 1 つを検索結果に表示します。 検索結果に表示されるのは必ずしも配信元のオリジナル記事とは限りません。 これは受け入れなければならない事実です。 重複扱いされたくないなら記事配信しない 同一の記事をほかのサイトにも配信する、いわゆる「シンジケート (Syndicate) 」の Google の扱いに関する質問に John Mueller(ジョン・ミューラー)は次のように回答しました。 同じ記事なのだから、シンジケートした記事はもちろん重複コンテンツになる。 基本的には、どれか 1 つを選んで検索結果に表示する。それは、別のサイトに配信した記事かもしれないし、あなたのサイトのオリジナル記事かもしれない。 オリジナルの記事が

                                                              別サイトに配信した記事をGoogleは重複コンテンツとみなす。究極の対策は配信しないこと
                                                            • 重複コンテンツが招くSEOトラブルとその解決策 ::SEM R (#SEMR)

                                                              重複コンテンツが招くSEOトラブルとその解決策 完全同一、または大部分が同一のコンテンツで構成されるページが複数存在する場合、こと検索エンジン対策においては適切に対応する必要がある。重複コンテンツは、サイト運営者の意図どおりに検索結果に表示されないケースがあるからだ。 公開日時:2008年01月20日 17:07 ブログやSNSといった手軽な情報発信ツールや他サイトのコンテンツの取り込み、あるいは他サイトへの提供が簡単にできるRSSフィード技術や関連ツールの広がりが、SEOを行う上であらたな問題を引き起こしている。それが「重複コンテンツ」の問題だ。 重複コンテンツとは、同一コンテンツが複数のURLに存在する状態を指す。検索エンジンは通常、あるキーワードに対する検索結果に同一コンテンツを持つページを複数表示することはない。10件表示という検索結果は、ユーザーの検索ニーズに応えうる様々な選択肢

                                                                重複コンテンツが招くSEOトラブルとその解決策 ::SEM R (#SEMR)
                                                              • 重複コンテンツ問題を解決する12の手段 - 重複コンテンツ対策完全ガイド #2 | Moz - SEOとインバウンドマーケティングの実践情報

                                                                IV 重複問題の解決に役立つ方法説明の順番が適当でない感じがするかもしれないが、具体例の解説に進む前に、重複コンテンツに対処する方法をいくつか紹介しておきたい。そうしておけば、各事例を修正するための適切なお薦めツールを、混乱を招くことなく紹介できるだろうから。 ここで紹介するのは、次の12種類の方法だ。 重複ページを削除する 301リダイレクト robots.txt meta robotsタグ URL正規化タグ(rel="canonical") URLの削除(グーグル) パラメータによるブロック(グーグル) URLの削除(Bing) パラメータによるブロック(Bing) 「rel="next"」と「rel="prev"」 link rel="syndication-source" サイト内リンクの構造 何もしないそれぞれについて詳しく解説していこう。 IV-1 重複ページを削除する最も簡単

                                                                  重複コンテンツ問題を解決する12の手段 - 重複コンテンツ対策完全ガイド #2 | Moz - SEOとインバウンドマーケティングの実践情報
                                                                • クロスドメイン URL の選択 - 複数のドメイン間の重複コンテンツの正規化について

                                                                  +1 ボタン 2 AMP 11 API 3 App Indexing 8 CAPTCHA 1 Chrome 2 First Click Free 1 Google アシスタント 1 Google ニュース 1 Google プレイス 2 Javascript 1 Lighthouse 4 Merchant Center 8 NoHacked 4 PageSpeed Insights 1 reCAPTCHA v3 1 Search Console 101 speed 1 イベント 25 ウェブマスターガイドライン 57 ウェブマスタークイズ 2 ウェブマスターツール 83 ウェブマスターフォーラム 10 オートコンプリート 1 お知らせ 69 クロールとインデックス 75 サイトクリニック 4 サイトマップ 15 しごと検索 1 スマートフォン 11 セーフブラウジング 5 セキュリティ 1

                                                                    クロスドメイン URL の選択 - 複数のドメイン間の重複コンテンツの正規化について
                                                                  • 【重複コンテンツSEO問題】wordpressのアーカイブページをnoindex nofollowするかどうか、よりもっと建設的な話をしよう

                                                                    先週から、wordpressのアーカイブページ(記事一覧ページ)をnofollowやnoindexにするべきか、という議論が活発に行われていますね。 元をたどれば先月のENJILOGさんの記事から端を発していると思われるこの議論。 この議論、個人的には「しょうもないな」という印象です。 議論の方向性がおかしな方向に進んでしまっているような気がします。今回は、このアーカイブページをnofollowにするべきかどうかがどうして不毛なのか、という理由を詳しく説明します。 nofollow、noindexとはなにか? まずは、用語のことをきちんと理解しなければ話がすすみませんので、nofollowとnoindexとはなにか、を説明しておきます。 nofollowとは、「(何かの意図で)リンク貼ってるけど、このリンクはたどる価値が無いですよ」「このリンク先は信頼が置けないですよ」とgoogleに伝え

                                                                      【重複コンテンツSEO問題】wordpressのアーカイブページをnoindex nofollowするかどうか、よりもっと建設的な話をしよう
                                                                    • ネットショップでオリジナルコンテンツを増やして重複コンテンツを減らす方法

                                                                      [対象: 全員] 独自に作った商品ではなくメーカーが作っている商品をオンラインで販売するネットショップでは、同じ商品を売る競合との差別化が難しくなります。 特に注意したいことの1つが「商品説明」です。 メーカーが作成した説明文をそっくりそのまま転載するのはみんながやることで、他のサイトとまったく同じコンテンツになってしまいドメイン間の重複コンテンツになってしまいます。 これでは上位に表示させるのは困難です。 もちろんユーザーにとっても他のサイトと比較して何ら価値を感じずあなたのサイトで購入しようという気にはならないでしょう。 そこで今日は、ネットショップでオリジナルコンテンツを増やしかつ重複コンテンツを減らす方法を紹介します。 UGC UGCは、“User Generated Content”の略です あなたではなくユーザーにコンテンツを作成してもらいます。 具体的にはレビューやコメントの

                                                                        ネットショップでオリジナルコンテンツを増やして重複コンテンツを減らす方法
                                                                      • SEO実験:重複コンテンツ(コピーページ)をGoogleはどのように判断・処理するのか | パシのSEOブログ

                                                                        前回のキーワード詰め込みスパム記事実験に続き、重複コンテンツ実験をしてみました。内容としては、全く同じタイトルと文章の記事を5つのブログでほぼ同時にアップした場合に検索エンジンがどのような処理を行うのかという事です。 こういったアホな実験は真似しても良い事がありませんので、決して行わないようにお願いします。重複コンテンツ=ペナルティではありませんが、やるメリットがありません。記事を盗作された場合にGoogleはどのような処理を行うのかという視点でご覧頂ければと思います。 発端はゴミSEOブログでお馴染みのたんとさんのこのツイートでした。 [oEmbedTweet 115248888830627840] [oEmbedTweet 115248908753575936] [oEmbedTweet 115249899498520576] [oEmbedTweet 1152596898974269

                                                                        • 同じコンテンツを複数のサイトで公開していると、重複コンテンツと判断されて削除される? | 正しいSEO相談室

                                                                          [質問]同じコンテンツを複数のサイトで公開していると、重複コンテンツと判断されて削除されてしまう?リーチ拡大のためにコンテンツをパートナーネットワークなどを通じて配布している場合、複数サイトに同一のコンテンツが掲載されることになります。たとえばオリジナルのサイトに加えて3つのパートナーサイトにコンテンツを提供している場合でも、検索エンジンの検索結果ページには各コンテンツが4回出てくることはなく、1つのバージョンしか表示されません。SEOの世界ではこれを「重複コンテンツ問題」(Duplicate Content)と呼びます。 同じコンテンツが検索結果に連続して表示されることは検索ユーザーにメリットがないため、検索エンジンは、ユーザーの検索体験を考慮して重複ページを自動的に分類・除外するのです。 したがって、配布先のサイトすべてが検索エンジンに掲載され続けるようにコントロールすることは不可能で

                                                                            同じコンテンツを複数のサイトで公開していると、重複コンテンツと判断されて削除される? | 正しいSEO相談室
                                                                          • SEO的に重複コンテンツは問題なし【ペナルティなんて嘘】

                                                                            「サイト内に重複コンテンツがあると SEOのペナルティを受けてしまう」 こう解説している方は少なくありません。 おそらく、当記事をご覧のあなたも 同じように考えられてるかと思います。 でも、それって実は嘘なんですよねぇ 重複コンテンツがあったとしても SEOでペナルティになりません。 『1ミリ』たりとも。 詳しくはこの先で解説しますので SEOにおける重複コンテンツの真実を 知りたいと思われるなら ぜひ、ご覧になってくださいね 重複コンテンツに関するSEOのペナルティはない サイト内に重複コンテンツがあっても SEOのペナルティを受けない理由ですが ものスゴク単純明快です。 「Googleがそう言ってるから」 引用元:Googleのジョン・ミュラー氏のツイート 引用元:Google Search Central Blog 上記画像のように Googleのジョン・ミュラー氏は そのような内容

                                                                              SEO的に重複コンテンツは問題なし【ペナルティなんて嘘】
                                                                            • 重複コンテンツはペナルティにはならない – グーグルが再説明

                                                                              これまでに複製コンテンツ問題について、何度か取り上げています。 Google,Adam Lasnikが複製コンテンツについて語ったビデオ RSS配信による複製コンテンツを防ぐ方法 コンテンツ盗用は防げるのか これらの記事は、異なるサイト間での同一コンテンツの問題(盗用含む)についてでした。 今日は、同一サイト内に登場する同じコンテンツ(ここでは重複コンテンツと呼びます)について、書きます。 重複コンテンツ(Duplicate Content)とは、URLが違うにもかかわらず内容がまったく同じページを指します。 Googleは、重複コンテンツを発見した場合、通常1つを残して他のページ(URL)を検索結果から非表示にします。 しかし、これはペナルティではありません。 多くのウェブマスターが、重複コンテンツは検索エンジンからペナルティを受けると誤解しています。 Googleは何度も公式に説明して

                                                                                重複コンテンツはペナルティにはならない – グーグルが再説明
                                                                              • 【重複コンテンツ】WEBサイトのコンテンツを丸々コピーされた時の対処法【コンテンツSEO】 - ロカオプメディア

                                                                                1.はじめに コンテンツSEOとはユーザーの検索に沿った良質な記事やBLOGなどのコンテンツを発信し、自然検索流入を増やす施策です。 以前は被リンクなどの外部施策や正確なコードを書く内部施策がSEOで最も効果的とされていましたが、近年は「ユーザーが本当に知りたい情報があるサイト」「ユーザーが検索したキーワードの関連が高いサイト」が上位表示される傾向にあります。 その為、良質なコンテンツをWEBサイトに積み上げていくことはSEOを考える上で必須と言えます。 しかしせっかく積み上げた良質なコンテンツが丸々コピーされ盗まれてしまう場合もあります。 今回はコンテンツを「コピーされる問題点」「コピーされた際の対処法」について解説していきます! 2.【重複コンテンツの問題点】何もしないとサイトに悪影響が出る可能性も。。 コピーされて重複コンテンツが発生すると次のような悪影響が出る可能性があります。 ①

                                                                                  【重複コンテンツ】WEBサイトのコンテンツを丸々コピーされた時の対処法【コンテンツSEO】 - ロカオプメディア
                                                                                • ブログのSNS連携が重複コンテンツを誘発してしまう件について | かたつむりチャンネル

                                                                                  考えられる対策はやりつくしてもはや何も手が思い浮かばない…もうなるようになれ! となかば諦めていた自動ペナルティですが、ここに来て新展開。 シブタクさんから有力な情報が飛び込んできました。 何も悪いことしてないのにブログが自動ペナルティを食らう原因と対策 | 日常ぴよぴよ 日常ぴよぴよさんはいろいろと対策を示してくれていますが、私は悩んだ末、思い切ってFacebookページとGoogle+ページを削除するという荒療治を行うことにしました。 スポンサーリンク ソーシャルメディアが重複コンテンツを生むメカニズム ソーシャルメディアが”思いがけず”重複コンテンツを生み出してしまうメカニズムはこうです。 本家のブログに新規記事を投稿(まだ検索エンジンにインデックスされない) 当該記事がソーシャルメディア(はてなブックマーク、Facebookなど)でシェアされる シェアされたページ(コピーページ)の