エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
特定のロボットのみクロール許可するrobots.txt記述 - ヲレサイト
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
特定のロボットのみクロール許可するrobots.txt記述 - ヲレサイト
特定のロボットのみクロール許可するrobots.txt記述 久しぶりにアクセスログを見てみたら意味不明のアク... 特定のロボットのみクロール許可するrobots.txt記述 久しぶりにアクセスログを見てみたら意味不明のアクセスがここ数日ドカンと増加していた。 うーむ。混乱に乗じてなんとか、ってやつかは分かりませんが( ̄▽ ̄|||) 脆弱性(MTのじゃないんだけど)を突いて改ざんしようとしてるようなクエリの付いたアクセス何かの情報をひっかき集めてるような絨毯爆撃ページクロール概ねこの2種類。今んトコ被害らしいものはないですが・・・ウザい。 htaccessで対応するんですが、クロールの方はrobots.txtを読みに来てる奴もいるのでこのご時世無駄なトラフィックを増やさないように書き方を工夫してみる。 従来はこんな書き方。 User-agent: * Disallow: /検索エンジンといえどダメなディレクトリ/ User-agent: 変なロボットA Disallow: / User-agent: 変