エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
サーバー上のPDFファイルが検索エンジンにキャッシュされないように.htaccessとrobots.txtでロボットを全て拒否してみた | ノート100YEN.com
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
サーバー上のPDFファイルが検索エンジンにキャッシュされないように.htaccessとrobots.txtでロボットを全て拒否してみた | ノート100YEN.com
robots.txtを使って検索ロボットを拒否する方法 まずrobotsという名前のtxtファイルを作成します。 で、... robots.txtを使って検索ロボットを拒否する方法 まずrobotsという名前のtxtファイルを作成します。 で、今回はファイル置き場にしているドメイン直下の全フォルダでクローラーを拒否したかったので下記の内容を記述。 User-Agent: * Disallow: / もし特定のフォルダやファイルのみを検索エンジンに拾われないようにしたければ User-Agent: * Disallow: /example/ ←フォルダ名 Disallow: /example.html ←ファイル名 のように記述します。 あとはこのrobots.txtファイルをドメイン直下(ルートフォルダ)にアップすれば終わりです。 検索ロボットはサイトに訪れた際にまずrobots.txtファイルにアクセスします。そこでrobots.txtにクローリングを拒否するような記述をしていれば、ロボットはそれ以上巡回せずに
2016/02/24 リンク