織田信長 ぼちぼち、元気にやっています。少し薬にも慣れた...んかなぁ。相変わらず食べられないけど。朝、指がこわばって文字なんて入力できなかったけど、それはほぼなくなった。関節もどこも痛くない。薬効いてきたんやろな。 で、ブログを書こうと言う気がまた起きてきた。 …
織田信長 ぼちぼち、元気にやっています。少し薬にも慣れた...んかなぁ。相変わらず食べられないけど。朝、指がこわばって文字なんて入力できなかったけど、それはほぼなくなった。関節もどこも痛くない。薬効いてきたんやろな。 で、ブログを書こうと言う気がまた起きてきた。 …
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
非営利団体Apache Software Foundation(ASF)は5月4日(米国時間)、「Apache Traffic Server」など、新たに6つのオープンソースプロジェクトをトップレベルプロジェクト(TLP)に承認したことを発表した。単一月では最多の昇格となる。 新たにTLPとして認められたTraffic Serverは、米Yahooが2009年にオープンソース化したHTTP/1.1互換のキャッシュ機能付きプロキシサーバー。もともとはYahooが買収したInktomiの技術を土台としており、ASFではインキュベータープロジェクトとして開発が進められてきた。クラウドコンピューティングにおけるエッジサーバーとして利用できることから注目されている。 残りの5プロジェクトは、既存TLPのサブプロジェクトからの昇格となる。「Apache Lucene」から昇格したのは、1)「Apach
日立オープンミドルウェアは、お客様の既存の財産を生かしながら、高い信頼性と柔軟性、自律性を備えたITシステムの実現を支えています。
! 文字列の前につけることで、否定を表現 < 文字列比較 > 文字列比較 = 文字列比較 -d 指定したディレクトリが存在すれば true -f 指定したファイルが存在すれば true -s ファイルが存在し、サイズが0でなければ true -F アクセス可能な有効なパスを指している場合に true (内部サブリクエストを用いてcheckされる) -U アクセス可能な有効なURLとなっている場合に true (内部サブリクエストを用いてcheckされる)
awstats等でwebサーバのアクセスログを分析する場合、apacheの設定ファイル:httpd.conf でログの書式をcombinedに設定していると思います。 #httpd.confの抜粋 旧) CustomLog logs/access.log common 新) CustomLog logs/access.log combinedデフォルトの combined は、httpd.conf で次のように瀬ってされており、応答時間は記録されません。 LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\"" combinedLogFormat行で記載されている「%h」等の定義は httpd.apache.org で公開されており、「%T = 応答時間」であることもここで分かります。 http://h
勉強も兼ねてApacheのログをデータベースに出力してみる。 何で?わざわざDBに?という事だが、 メリット) ・複数Webサーバのログを集約することが出来る ・ログから条件で抜き出す事が容易かつ高速 デメリット) ・DBのメンテナンスが必要 ・ログの記録に関してはパフォーマンス的にどうか? 実際に出力する方法としては httpd.confのCustomLog行でパイプが使える(rotatelogもパイプ使いますよね・・・)ので、「標準入力から入力されたアクセスログをデータベースに書き出す」プログラムがあれば実現可能となる。 CustomLog "|/usr/local/bin/PROGRAM" common 勉強も兼ねてPerlで書いてみた。 PerlからDBを操作する方法としてはDBIを利用するのが簡単そうである。 テストで書いてみたので、置いてみる。テストで作ってみたPerlソースフ
ここでは、1台のWEBサーバー(Apache)で複数ドメイン(サブドメイン)を 取り扱う方法を紹介します。 例として以下の2つのWEBサイトを作ることを想定します。 ①http://aaa.ponko2.com/ ②http://bbb.ponko2.com/ まずはDNS設定です。上記2つのサブドメインに対して、同じIPアドレスを設定します。 非固定の場合も同様で、"aaa.ponko2.com"と"bbb.ponko2.com"に対してDiCEなどのDDNSソフトで 同じIPを設定するだけです。 続いて、Apacheのhttpd.confをいじります。 <NameVirtualHostの有効化>(デフォルトでは"#"でコメントアウトされています) <VirtualHost *> ServerAdmin ponkotsu@ponko2.com DocumentRoot "D:/w
HTTPプロトコルでは、コンピュータ同士が通信している間に、コードを用いてお互いの状態(ステータス)をやり取りしています。このコードのことをHTTPステータス・コード(HTTP Status Code)と呼び、エラーが発生した場合に「404 Not Found」のようにブラウザ上に表示されたり、エラーが発生しなかった場合にも見えないところでやり取りされています。 また、通信を行うためにクライアントがサーバーに様々なリクエストを行いますが、このリクエストの方法をメソッドと呼びます。 規格
セッションのチューニング ここまでのチューニングは、必要か必要でないかを判断すればよく、手探りで最適な値を探し出すというものではなかった。しかし、これから紹介する「セッションのチューニング」はそうもいかない。ある程度の見通しは立てられても、最適な答えを見つけるのには手間がかかってしまう。 KeepAliveとセッションの切断 セッションのチューニングの手始めとして、「KeepAlive」について考えることにしよう。KeepAliveはHTTP/1.1から用意されたもので、クライアントとの接続を保持する仕組みである。HTTPは「ステートレス・プロトコル」と呼ばれるとおり、1回の要求(リクエスト)ごとに接続が切断される。しかし、今日では1つのWebページを表示するために複数のファイルが必要となる場合がほとんどなので、1リクエストごとに接続を切っていたのでは効率が悪い。そこで考え出されたのがKe
mod_rewriteを使う場合、URLに「%2F」が含まれるとApacheの設定によっては思い通りに動作しない可能性があります。 mod_rewriteについては第15回のメーリングリストを参照していただくとして、まずは以下のようなURLを考えてみましょう。 http://example.com/search/keyword%2Fkeyword ここでは、以下のようなルールで変換を行うとします。 RewriteEngine On RewriteRule \/search\/(.+)$ /search.php?q=$1 [L] また、search.phpはmod_rewriteの動作確認用に、以下のような簡単なコードを使用するとします。 <?php echo $_GET['q']; ?> 先ほどのURLにアクセスした場合、search.phpを呼び出して「keyword%2Fkeyword
suEXEC 機能により、Apache ユーザは Web サーバを実行しているユーザ ID とは 異なるユーザ ID で CGI プログラムや SSI プログラムを実行することができます。CGI プログラムまたは SSI プログラムを実行する場合、通常は web サーバと同じユーザで実行されます。 適切に使用すると、この機能によりユーザが個別の CGI や SSI プログラムを開発し実行することで生じるセキュリティ上の危険を、 かなり減らすことができます。しかし、suEXEC の設定が不適切だと、 多くの問題が生じ、あなたのコンピュータに新しいセキュリティホールを 作ってしまう可能性があります。あなたが setuid root されたプログラムと、それらから生じるセキュリティ上の問題の管理に 詳しくないようなら、suEXEC の使用を検討しないように強く推奨します。 始める前に この文書の
1.目的 Apache や Squid を運用していると、その膨大なログをどうやってチェックしたものか悩んでしまいます。どうやら誰でもそう思うようで、やっぱりそれを処理するアプリが世の中にはあるもんです。Apache の方で代表的なのは Analog というツールですが、Squid のログを処理できるという点で Webalizer というのを選んでみました。これでログ解析をしてみましょう。 3.導入方法 Webalizer を動かすには、GD が必要です。Plamo-2.x にはもちろん Contrib に用意されているのですが、ここではWebalizerにシェアードライブラリとしてではなくスタティックに組み込んでしまいましょう。そのためには、GDのソース一式が必要なので、プライマリサイトでもミラーでもいいので、どこかからソースアーカイブを持ってきてください。また、この GD を作成するた
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く