タグ

Webと1304に関するsometkのブックマーク (3)

  • なぜ Mozilla 以外のブラウザでも "Mozilla" がユーザーエージェントに含まれているの? - Knoh (ノウ) | The Knowledge Hub

    これは、とても歴史的な話で、僕たちの知っている現在の “Mozilla” よりも時はさかのぼる (とはいえ、現在の Mozilla もその精神を受け継ぐ末裔だ)。 質問をブレイクダウンしよう: 最初に: この文脈でいう “mozilla” はなにを指すのか? ヒント: それは Mozilla Corporation や Mozilla Foundation のことではなく、Gecko エンジンのことでもない。 90 年代初頭、Mosaic というブラウザがイリノイ大学・米国立スーパーコンピュータ応用研究所 (NCSA) のとあるグループによって開発される。Mosaic の使いやすさや特徴的な機能は当時の “world wide web” の一般化に役立った。Mosaic の共同開発者の一人は Netscape という会社を設立し、この会社は Netscape という商用ウェブブラウザを生み

  • みんなのちからになりたい

    取り急ぎメモだけ。 blankのtemplateにnpmが入ってるのでなにも考えず公式のやり方でいける Installation | Bun Docs npm install -g bun bun -v 取り急ぎメモだけ。 概ねこの通りにやればOK docs.deno.com blank templateを選択 ビルドが始まる コマンドパレットからCodespaces: Add Development Container Configuration Files...を選択し、denoを選択する(オプションはとりあえず全部入れない) deno拡張が入り、コンテナリビルドしろとのことなのでリビルドする これだけで動くには動くが保管がされないので.vscode/setting.jsonに以下を入れる { "deno.enable": true, "deno.lint": true, "deno.

    みんなのちからになりたい
  • 大手サイトのrobots.txtでわかる「検索でヒットされたくないページ」の特徴

    robots.txtとは robots.txtは、検索エンジンのクローラー(bot)に、クロールされたいページや、クロールされたくないページを教えるテキストファイルのことです。多くの検索エンジンのクローラーは、そのドメインの最上位ディレクトリに設置されたrobotst.txtを最初に読み込んで、クロールするべきページとクロールするべきでないページを取得し、それに基づいて巡回します。ただ、一部のクローラーには、このrobots.txtを無視するものもあります。 robots.txtの書き方はおよそ以下の通りです。 User-agent:(ここにbotのユーザーエージェントを記述。ワイルドカード指定も可能) Crawl-Delay:(クロールの時間間隔を指定) Disallow:(クロールされたくないページやディレクトリを指定) Allow:(Disallowで指定されたディレクトリの小階層で

    大手サイトのrobots.txtでわかる「検索でヒットされたくないページ」の特徴
    sometk
    sometk 2013/04/14
    robot.txt
  • 1