タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

seoとあとで読むに関するmattarinのブックマーク (7)

  • SEO的コンテンツ最適化のためのベストプラクティス(後編) | Moz - SEOとインバウンドマーケティングの実践情報

    この記事は前後編に分けてお届けしている。コンテンツの構造について説明した前回に引き続き、今回お伝えするのはコンテンツの内容に関する問題だ。 コンテンツの独自性と内容の深さ今回のコンテンツ最適化の話で、最も重要な部分をこれから説明する。読み応えがあり、新たな価値を追加する独自のコンテンツに対して検索エンジンが重きを置くことに、ほとんど議論の余地はない。特にグーグルは、これまでに何回か「コンテンツの質が低い」サイトをインデックスから追放したことがあり、他の検索エンジンもこれに追随している。 まず第一に避けるべきは「薄いコンテンツ」だ。薄いコンテンツというのは業界用語で、(大ざっぱに言うと)ページ中に独自な要素が不十分なため、検索エンジンが検索結果に優先的に表示するほどの価値を認めないコンテンツを指す。あるページを検索エンジンが独自コンテンツだとみなす基準が公式に明らかにされたことは一度もないが

    SEO的コンテンツ最適化のためのベストプラクティス(後編) | Moz - SEOとインバウンドマーケティングの実践情報
  • Yahoo!アルゴリズム2008年7月上旬更新分

    『MarkeZine』が主催するマーケティング・イベント『MarkeZine Day』『MarkeZine Academy』『MarkeZine プレミアムセミナー』の 最新情報をはじめ、様々なイベント情報をまとめてご紹介します。 MarkeZine Day

    Yahoo!アルゴリズム2008年7月上旬更新分
  • SEO目的の相互リンクを駆逐 - 進化するGoogleのスパムフィルタリング技術 ::SEM R (#SEMR)

    SEO目的の相互リンクを駆逐 - 進化するGoogleのスパムフィルタリング技術 SEO目的に機械的に構築される相互リンクサービスが流行している。こうしたランキングの不正操作は検索精度を歪め、品質の低下を招き、検索利用者の利便性を損なう。こうした不正SEOマーケッターに対抗するためにスパムフィルタリング技術は進化している。 公開日時:2008年05月11日 10:59 常に進化するリンク分析アルゴリズム Googleに限らずYahoo!検索やLive Searchにもいえることだが、今日の検索エンジンは基的にWeb上で張り巡らされているリンク分析を通じて個々のWebページの(ネット上における)価値や重要度を特定して、それを基準におおまかなランク付けをしている。いいかえれば、手段を問わず検索上位に表示したいSEOマーケッターが不正操作のターゲットとするのは「外部リンク」だ。したがって、検索

    SEO目的の相互リンクを駆逐 - 進化するGoogleのスパムフィルタリング技術 ::SEM R (#SEMR)
  • Google Matt Cutts 講演「What Google Knows About Spam」 - Web 2.0 Expo ::SEM R (#SEMR)

    Google Matt Cutts 講演「What Google Knows About Spam」 - Web 2.0 Expo Google Matt Cutts氏がWeb 2.0 Expoでスパムについて講演。 公開日時:2008年05月12日 16:36 米Googleのウェブスパムチーム・Matt Cutts氏がWeb 2.0 Expoにて、検索エンジンスパムに関する講演を行った。「What Google Knows About Spam」についての資料がパワーポイントで公開されている。 キーワードの繰り返しなど古典的な検索エンジンスパムを紹介。人々が検索エンジンスパムに手を染めるのは、それでお金が稼げるからだと指摘。SEOにはホワイトハットとブラックハットがあり、前者はスパムでないと指摘。安全なSEOを探す手段として、具体的に何をするのかよく確認する、SEO会社が検索エンジンガ

    Google Matt Cutts 講演「What Google Knows About Spam」 - Web 2.0 Expo ::SEM R (#SEMR)
  • ロボット排除プロトコル(REP)とは?――メタタグやrobots.txtの基礎 | Web担当者Forum

    HTTPヘッダーとは、ウェブサーバーがウェブブラウザなどのクライアントに対してデータを送る前に送信する情報のことで、通常はブラウザには表示されない。 多くの場合、HTTPレスポンスコード、コンテンツの種類(HTMLなのかPDFなのかなど)、コンテンツのサイズ、最終更新日付などの情報が含まれている。 HTTPヘッダーの内容は基的にHTMLページの記述などでは変更できず、サーバーの設定や出力プログラムの設定によって変更できる。ただし、HTMLページ内の「meta http-equiv」のタグによって、HTTPヘッダーで指定する情報を記述でき、ほとんどのウェブブラウザがmeta http-equivの情報を解釈する。 そして2005年に登場したサイトマッププロトコルでは、(XML)サイトマップを通じて大量のコンテンツを検索エンジンに登録する手続きが定義されている。 また2005年には「rel=

    ロボット排除プロトコル(REP)とは?――メタタグやrobots.txtの基礎 | Web担当者Forum
  • Search Engine Watch

  • SEOの大基本となる6つのプロセス:後編 | SEOについて最低限知っておくべきコト

    正しい分析と戦略作りは必須 対策は細部→全体へ SEOの大基となる6つのプロセス:後編 SEOと一口に言っても、そこに含まれる要素はさまざまで、何から手を付ければいいのかわからないというWeb担当者も少なくない。「ウェブで調べる」や「解説を読む」もいいが、まずは“ザックリ”と全体像を把握しておくと、その後の戦略も立てやすい。稿では、SEOのプロセス全体について解説する。Web担当者が自力でやるにせよ、SEO会社に依頼するにせよ、適切な対応が取れるようになるはずだ。 TEXT:大内 範行 サイト構造の最適化検索エンジンが好むメッシュリンク構造ページ単体だけでなく、ページの集まりであるサイト全体の構造も、SEOにとっては大切だ。サイト構造の作り方によって、検索エンジンロボットの動きが変わり、ページの評価にも影響する。 検索エンジンロボットは、通常はインターネット上にあるリンクをたどってあ

    SEOの大基本となる6つのプロセス:後編 | SEOについて最低限知っておくべきコト
    mattarin
    mattarin 2007/09/07
    にしてもWeb担のサイトは重い
  • 1