タグ

httpに関するfivefourtyのブックマーク (17)

  • 404 Blog Not Found:誤った404エラーページをつくるただ1つの方法

    2007年03月29日23:00 カテゴリiTech 誤った404エラーページをつくるただ1つの方法 この話題は以前「404 Blog Not Found:200 Blog Not Found」でも触れたのだけど、まだわかっていない人々があとを断たないのでもう一度。 わかりやすい404エラーページについて考えてみる | caramel*vanilla アクセスされたページを削除してしまったのなら仕方ありませんが、URLが変わっただけならなんとか探し当てていただきたいもの。 せっかくなにかのきっかけで訪れてくれた方をガッカリさせたままでは申し訳ありません。 なにかのきっかけで訪れるのは、人間とは限りません。 特に検索エンジンは「非人間の訪問者」としては非常に重要な訪問者です。 「彼ら」にとって「ページが存在しない」とはいったいどういうことでしょう? ページがわかりやすいこと? 違います。その

    404 Blog Not Found:誤った404エラーページをつくるただ1つの方法
  • リファラ実験 - referrer test

    Updated: 2005-05-22 03:54:29+0900 [Home] 直にリンク 直にリンク リファラ表示ページに直にリンクします。 Firefox 1.0.4 …… リファラはこのページになる。 Opera 8.0 …… リファラはこのページになる。 IE 6 …… リファラはこのページになる。 NS 7 …… リファラはこのページになる。 Opera 7 …… リファラはこのページになる。 Lynx 2.8(cygwin) …… リファラはこのページになる。 w3m 0.1.9(cygwin) …… リファラはこのページになる。 HTTPヘッダのLocationを使用する Locationヘッダ HTTPヘッダでLocationを使用します。 header("Location: http://www.teria.com/~koseki/memo/referrer/view.

  • http://www.typemiss.net/blog/kounoike/20060227-75

  • 最速配信研究会 - Web2.0とC10Kに関する数々の誤解

    Web2.0 = Ajax/Cometなの?とかプロセスIDは今でも16ビットなの?とかはサテオキ、 個々のクライアントがサーバに要求する処理量は小さなものでハードウェアの性能上は問題がなくても、あまりにもクライアントの数が多くなるとサーバがパンクする――。これが最近Web開発者の間で話題となっている「C10K問題」(クライアント1万台問題)だ。 AjaxやCometなどのクライアント側技術に伴うサーバ側の問題に関していろいろ誤解があるようなので,書いておきたい.きっとlingrの中の人はこの記事読んでニヤニヤしてるはず. 以下、記事にないことも書いてあるのでそのつもりで. 誤解その1 AjaxによるWebアプリの台頭でサーバ側の負荷が増大する Ajaxの典型的な使い方はサーバに問い合わせてページの一部分だけを 変化させるというモノだ.これはページ全体を書き換える従来の方法と違い, すでに

    最速配信研究会 - Web2.0とC10Kに関する数々の誤解
  • OZACC.blog: ServiceCapture vs Charles

    Flash | ServiceCapture vs Charles AMF3の実装をやっているとき、HTTPモニターツールのServiceCaptureを使用した。HTTPの通信内容をモニターできるツールはいくつかあるけど、ServiceCaptureはAMFの内容を解析して表示してくれる。AMFの他にもXML、SOAP、JSONにも対応しているとのことなので、Ajaxアプリ開発でも便利そう。 Javaで稼働するのだけど、Java 6を使っていたせいかUIの動作も軽く、AMFやXMLを使用するFlashアプリ開発では今後マストツールになりそう。こちらは使用期間が15日で、1ライセンス35ドル。 ServiceCaptureと同様AMF解析機能付きHTTPモニターツールとして、Charlesというソフトもある(ロゴマークは何故に壺?)。こちらは今日になって初めて使ってみたのだけど、AMFの

  • http://neta.ywcafe.net/000691.html

  • T.Teradaの日記 - ログイン直後のレスポンスの返し方

    多くの会員制Webサイトでは、ID/PWによるログイン処理がある。ユーザにログイン画面を提示し、ユーザがフォームにID/PWを入力してsubmitする。ID/PWがOKであれば、ユーザのブラウザにはログイン後の画面が表示される。 以下に、これを実現するための2通りのシーケンス図を描く。セキュリティの観点で望ましいのはA、Bのどちらだろう?というのが今回のテーマ。 Aではログイン要求に対してHTTPステータス200応答とともにログイン後画面をブラウザに返している。Bではログイン要求に302応答を返して(HTTP1.1では303応答)、ログイン後画面にリダイレクトしている。 結論を言うと、セキュリティの観点では、私はBの方が望ましいと考えている。 逆に言うと、Aにはどうにも気に入らないところがある。それは、ID/PWを含むリクエストに対して200応答を返していることだ。200応答のページは、ブ

  • DSAS開発者の部屋:keepalivedの運用ノウハウお見せします 〜 設定ファイルを同期する

    keepalivedはLinuxで冗長構成を組む道具としてとても便利ですが、運用面に関する配慮に物足りなさを感じることがあります。例えばIncludeがないとかIncludeがないとかIncludeがないとか(笑) naoyaの日記でnaoyaさんも悩んでいるようですが、設定ファイルをうまく保守する仕組みをどう作るかが導入する際の大きな鍵になると思います。今回は、DSASではどのようにして2台のkeepalivedを運用しているかを少しだけご紹介させて頂きたいと思います。 1) マスターで設定ファイルを編集する 2) バックアップに設定ファイルを転送する 3) バックアップで設定を反映する 4) マスターとバックアップの差分を確認する 5) マスターで設定を反映する 具体的にはどのようにしているかというと、、、 lv1:# vi 設定ファイル lv1:# lvs-sync -ine lv1

    DSAS開発者の部屋:keepalivedの運用ノウハウお見せします 〜 設定ファイルを同期する
  • OZACC.blog: HTTPヘッダでのキャッシュ制御 2

    Web.Dev | HTTPヘッダでのキャッシュ制御 2 昨日書いたエントリーの続き。 Windows版のIE 6とFirefox 1.5で動作検証を行っているが、「Cache-Control:private, max-age=60」をレスポンスヘッダに指定した場合、次のような挙動を取ることが分かった。 IE 6では、Cache-Controlの他にPragma、過去日時のExpiresがヘッダに含まれていても、Cache-Controlを優先し、Pragma、Expiresは無視する。 一方Firefox 1.5では、Pragma、Expiresの一方もしくは両方がヘッダに含まれていると、Cache-Controlのmax-ageは無視されブラウザキャッシュされなかった。Cache-Controlだけで他の2つのヘッダがなければIEと同様にキャッシュするが、max-ageの設定時間に関

  • OZACC.blog: HTTPヘッダでのキャッシュ制御

    Web.Dev | HTTPヘッダでのキャッシュ制御 HTTPヘッダでのキャッシュ制御に関して、Cache-ControlとPragmaについて調べた。いつもすぐ忘れてしまうので、今回はMEMOしておく。 Proxyでレスポンスをキャッシュさせたくない(ブラウザにはキャッシュしてもらいたい)場合、Cache-Controlに「private」を設定する。Pragmaに設定できる値は「no-cache」だけ。但し、HTTP 1.1をサポートしているブラウザはCache-ControlとPragmaの両方のヘッダがある場合、Pragmaは無視してCache-Controlの方だけを見るので、基的にCache-Control: private Pragma: no-cacheを指定しておけばProxyキャッシュは抑制できるだろう。 Cache-Controlの値を複数設定したい場合は、値

  • PHP Crawler MOONGIFT

    PHPで作るサイト内検索 サイト内をクローリングして、インデックスを作成します。中規模サイト向けの検索システムです。 PHPで作るサイト内検索 Webサイトで必須の存在が検索システムだ。やり方は主に二つある。クローリング型と、データベースやファイルを検索する方式だ。データベースを独自検索するのはリアルタイムなデータや詳細な検索には向くが、サイト内検索と言った場合には難しい。 そこで自社サイト内をクローリングし、検索システムを構築してみよう。 今回紹介するオープンソース・ソフトウェアはPHP Crawler、PHPを使った検索システムだ。 PHP Crawlerはクローラーと検索の二つの機能からなる。クローリングした結果はデータベースに格納される。そしてMySQLの全文検索機能を使って、検索を行う。 後はクロールを定期的に行えば良いだけだ。ごくシンプルな作りなので、自社に合わせたカスタマイズ

    PHP Crawler MOONGIFT
  • J U M P E R Z . N E T - Doorman@JUMPERZ.NET

    Tools ->  Doorman@JUMPERZ.NET Overview Doorman@JUMPERZ.NET is an GUI( Graphic User Interface ) local HTTP/HTTPS proxy server tool for manual web application testing. For web developers and web infosec guys. Features - Published as open source code - Witten in Java - Native GUI Interface - HTTPS is supported. Other SSL library ( like OpenSSL ) is not needed. - You can intercept a

  • OZACC.blog: Flashでmod_deflate圧縮コンテンツを受け取れない

    Flash | Flashでmod_deflate圧縮コンテンツを受け取れない FlashからXMLを取得する際、Apacheがmod_deflateでXMLを圧縮している場合に、IEだと正常に動作しない症状に悩まされている。mod_deflateを外せばちゃんと動くし、mod_deflateが有効な場合でもFirefoxだと問題なく動作し、またIEでも生のXMLを取得する分には問題ない。 IEとFlashPlayer間でXMLを受け渡しするときに何らか問題が発生していると推測しているのだけど、mod_deflateで圧縮されたコンテンツの解凍はブラウザが行い、解凍されたコンテンツがFlashPlayer Pluginに渡されているはずだよね? なら、mod_deflateの有無に関わらずFlashPlayerは正常にXMLを読み込めていいはずなのだが。 う~む・・・

  • http://blog.ozacc.com/archives/001353.html

  • 【コラム】ライトニングJava (56) HTTP通信の基礎(3) - HTTPS通信、HttpsURLConnection | エンタープライズ | マイコミジャーナル

    インターネットバンキングやネットショッピングなどのように、インターネットを通じてWebブラウザから操作する仕組みを使って金融取引や通信販売などのサービスを提供する場合、第三者による不正行為を防止するために、利用者とサービス提供者以外に対して情報が漏洩することを防ぐ必要がある。 そこで現在、一般的に採用されている方法が、SSLによる暗号化通信機能を付加したHTTPによる通信である。SSL通信やHTTPS通信と呼ばれることが多く、実質的に業界標準といえる。JavaもHTTPS通信に対応しており、HTTPSによって提供されているサイトにアクセスすることができる。 URLConnection - HTTPS通信にも対応 アクセス先はURIで保持しておき、使う段階でURLに変換して使う。そして実際の通信はURLConnectionを経由して実施する。これはHTTPプログラミングを実施する際の基だ。

  • ステータス200なのに「その商品はありません」

    Ywcafe.net This Page Is Under Construction - Coming Soon! Why am I seeing this 'Under Construction' page? Related Searches: Accident Lawyers Anti Wrinkle Creams fashion trends Top Smart Phones Parental Control Trademark Free Notice Review our Privacy Policy Service Agreement Legal Notice Privacy Policy|Do Not Sell or Share My Personal Information

  • POST 後の振る舞い - まちゅダイアリー (2006-02-23)

  • 1