タグ

SEOに関するirisjpのブックマーク (10)

  • Google Analytics、77の注意点(追記有)

    記事は2010年8月時点でのものです。バージョンがあっていない場合や、サイト分析の質的な考え方以外は、参考にはなりませんのでご了承ください。 Google Analytics を理解する上で、覚えておいた方が良い計測仕様や算出方法をまとめました。 ご指摘や間違い等ございましたら、コメントかメンション頂けると幸いです。 1.$インデックスって何? コンテンツ>>上位のコンテンツ、で表示される値。そのページを経由してコンバージョンされた値の合計を、そのページセッション数で割ったモノ。アシストなどのイメージ。 2.閲覧開始後の遷移とナビゲーションの違い コンテンツ>>上位のコンテンツ>>ページ詳細、と表示し、閲覧開始後の遷移は、直後に遷移したセッション数。ナビゲーションサマリーは、閲覧開始に限らず、その前後のPV数の割合。 3.ページ滞在時間は差分を取る ページ遷移をして、その時間の差分を取

    Google Analytics、77の注意点(追記有)
  • これだけは押さえておきたい内部SEO対策〜キーワード出現比率〜|ホットココア社長日記

    上記は非モテタイムズと言うニュースサービスのアナリティクスのSEOキーワードページのワード数です。 非モテSNSなどは、1カ月で1000ワード程度なのですが、 非モテタイムズは10倍以上の流入ワードがあります。 このニッチな流入ワードを増やす方法を日は紹介します。 対策は簡単で、結論をお伝えすると、 ・トップでなく、子ページの1ページずつでSEO対策をする。 ・記事ページのタイトルを 「非モテタイムズ|記事タイトル」 → 「記事タイトル|非モテタイムズ」にする この2つだけです。 ただ、これだけを紹介しても意味が分からないと思うので、 ちょっとSEO対策歴史を織り交ぜて紹介していきます。 僕がよく意識しているSEO対策SEO対策は宗教論争的に、テクニカル論としては、色々あると思いますが。 まずは現状、僕が基礎的にやっているSEO対策をご紹介します。 ■内部SEO

  • Robots.txt Checker

    robots.txt checker This tool validates /robots.txt files according to the robots exclusion de-facto standard. Checks are done considering the original 1994 document A Standard for Robot Exclusion, the 1997 Internet Draft specification A Method for Web Robots Control and nonstandard extensions that have emerged over the years. The robots.txt validator checks the syntax and structure of the document

    irisjp
    irisjp 2010/04/28
    robots.txtが効いてるかチェッカー
  • これは、かつてあなたが読んだことが無い、最も重要なブログの記事かもしれない。 » SEO Japan

    内容負けのリンクベイト120%のタイトルと思ってはいけません。若干20歳のプロブロガーが熱く語るブログ論。長いと言ってもSEO Japan的には普通+α位なので 笑 、是非お時間ある際に読んでみては?SEOと少し話がずれますがオススメ記事です。 — SEO Japan 先に言っておくと、この記事は相当長い。長い記事を読むのが嫌いな人は読まない方がいいだろう。 それでもまだ読み続けている50%の読者に告ぐ、その中の1%以下の人しか最後まで読まないと思うから、今すぐ読むのを止めてほしい。この記事の価値は、読み飛ばしただけでは分からない、全部読んだ後で、初めてその価値が生まれるのだ。 さて、これで残った人もわずかになっただろうから、とりあえず「どうも」とあいさつをするとして、次に、「この記事は、ブログに関してあなたが今までに聞いた99%のことに反するものだ」と言っておこう。 私がこれから言うこと

  • robots.txtの書き方(保存版) » 海外SEO情報ブログ・メルマガ

    今日は、いつか書こう書こうと思って、そのままにしておいた「robots.txt」にの書き方・書式について書きます。 robots.txtは「ロボッツ・テキスト」、または「ロボット・テキスト」と読みます。 robotではなく、robotsです。 robots.txtはサーチエンジンのクローラ(スパイダー)の、ファイルとディレクトリへのアクセスを制御するために使われます。 「secretsというディレクトリにあるファイルにはすべてアクセスさせたくない」とか、「himitsu.htmlというファイルだけはアクセスさせたくない」という使い方ができます。 「アクセスさせたくない」というのは、「インデックスさせたくない」すなわち「検索結果に表示させたくない」ということです。 「なぜ、検索結果に表示させたくないの?」と疑問に思うかもしれません。 さまざまなケースがあります。 たとえば、URLを自分が教え

    robots.txtの書き方(保存版) » 海外SEO情報ブログ・メルマガ
    irisjp
    irisjp 2010/04/20
    robots.txtの書き方
  • もう使えない・古いSEOの知識 2010 (前編) ::SEM R (#SEMR)

    もう使えない・古いSEOの知識 2010 (前編) かつては真実だったけれども、今は違うSEO知識まとめ 第1回。 公開日時:2010年04月05日 15:12 先日の最新ではないSEOに関連して、今度は、もう古いSEOの話。はてなに投稿された質問について。SEOについて考えて見ましょう。 SEO対策について質問です。SEOをやっている人などから以下の項目のようなことを聞くのですが、ソース(出所)を見たことがありません。以下のどれかについて可能な限り信頼できるソースか、または納得できる根拠をお教えいただけますでしょうか。 ●.htaccessでURLを書き換えた(スラッシュ終わりなどにした)方がいい ●拡張子はphp(動的なもの)などよりhtml(htm)の方がいい ●ドメインは「wwwあり」の方がいい ●サブドメインよりディレクトリ分けの方がいい ●h1を入れるならbody直下が一番いい

    もう使えない・古いSEOの知識 2010 (前編) ::SEM R (#SEMR)
  • MT4で簡易的なLPO対策を実現するモジュール - delab

    Captcha security check de-lab.com is for sale Please prove you're not a robot View Price Processing

    MT4で簡易的なLPO対策を実現するモジュール - delab
  • SEO対策キーワード選びのポイント SEO GATE

    SEO(検索エンジン最適化)では、検索エンジンで上位表示をさせるために、検索エンジンに評価されるサイトを作ります。 では具体的には、どのようなサイトが評価されるのでしょうか? 検索エンジンに評価されるポイントは、大きく分けて次の2つです。 自分のサイトの中身を“充実”させる「内部の要因」。 自分のサイトの外部を“充実”させる「外部の要因」。 いい情報をたくさん提供していて、作りがしっかりしている(サイト)ほど、ユーザーにとっていいサイトというのが 主な理由から、内部要因を評価します。サイトの内部要因は、大きく分けて4つの要素で決まります。 検索エンジンは、サイトのビジュアルの評価ではなく、ソースコードの文法(HTMLCSS)を評価します。 サイト文法の点数は、下記のフォームからチェックできます。 点数が低い場合は、評価も低くなります。 情報量(文章量)が少ないサイトは評価が低くなりま

  • SEO検索エンジン最適化チュートリアル

    被リンクの獲得はSEOにとって極めて重要な課題です。被リンクの質と量は、インデックスを深めランキングを高める効果があるためです。質の高い被リンクをより多く獲得するためには、有用で高品質なコンテンツを、そのテーマに関心を持った人々に届けることが基です。この記事ではこれを戦略的に行い、被リンクを増やす方法を示します。 被リンクとは被リンクとは、外部のサイトのページから自分のサイト内のページに向けられたリンクのことを言います。「バックリンク」と呼ばれることもあり、英語では “inbound link” です。検索エンジンは被リンクの量と質をそのサイトの信頼度や人気を測る指標として使っているため、被リンクの獲得はSEOの最重要課題の一つです。 サイトやページが持つ被リンクの量と質は、後述するようにインデックスとランキングに強く影響します。十分な質と量の被リンクを持つサイトは、より深くまで迅速にイ

    SEO検索エンジン最適化チュートリアル
  • 無料で使えるSEOやホームページ制作に役立つツールまとめ | パシのSEOブログ

    SEO対策に無駄なコストをかけないためにも、無料で使えるツールたちは欠かせない存在です。その中でも使えるヤツに限定してまとめておきます。 サイト分析ツール SEOチェキ! URLからサイトの総合的な分析を行う。SEOチェック、Whois情報、順位チェック、HTTPヘッダ情報、ページランク偽装チェックなど。とても軽いのでかなりオススメ。 Website Explorer インストール型のサイト分析ツール。ウェブサイトの構造を探査・解析し、情報を階層表示。リダイレクト、リンク切れ、404エラーなどの調査が可能。Web型リンク切れチェックツールとしては、リンクチェッカーが便利です。 SEO-Browser サイト内のイメージやFlash、CSSJavaScriptなどの視覚効果を排除し、検索エンジンの目線でサイト構造を分析。文字化けする場合はエンコードを指定(IEであれば、表示→エンコード→日

  • 1