タグ

2013年7月16日のブックマーク (6件)

  • 文字コードチェック処理

    機能概要 文字コードの自動判定処理と、文字コードのチェック処理です。 文字コードは、JIS, SJIS, EUCコードに対応しています。 文字コードについての解説は、文字コードについてを参照してください。 同じ機能の、Perlスクリプトと、C言語のプログラムがあります。 2つのソースを比較すことで、言語の違いを把握できます。 プログラムはC言語で最適化を前提として開発していますので、Perl版は遅いです。 ただ、カスタマイズして、システム固有のチェックを組み込む場合には便利です。 Unicode(UTF-8,UTF-16)対応版は、2000年3月公開を目標に開発中です。 ファイル構成 文字コードチェック処理には、以下のファイルがあります。 ファイル名をクリックするとダウンロードできます。 一括ダウンロード(code.tar.gz)もできます。 Perl版C言語版説明

    bayan
    bayan 2013/07/16
  • mod_php(Apache)とspawn-fcgi(nginx)でのパフォーマンス比較 « cat /dev/random > /dev/null &

    PHPを使う場合Apacheとnginxどっち使えばいいん?と気になったのでパフォーマンス比較してみました こんな感じの構成で すべて仮想サーバ構成です 負荷元サーバー CPU=2 RAM=1000M がんばるサーバ CPU=4 RAM=1024M DBサーバ CPU=4 RAM=1536MB 使ったミドルウェア Apache 2.2.3 Nginx 0.7.64 PHP 5.3.1 (子プロセス=6 tcp接続) MySQL 5.5.1 spawn-fcgi 1.4.22 wordpress 2.9.1 早速基礎体力というか通常の戦闘力を測ってみます abで多重度1で100回リクエストしてみます 公平を期すために二回目の結果をとっています ab -c 1 -n 100 -H "Host: blog.xcir.net" http://192.168.1.123:82/

    bayan
    bayan 2013/07/16
    Apacheとnginx
  • PostgreSQL pg_restore 「符号化方式"UTF8"で無効なバイトシーケンスです」からの逃げ方 - ..たれろぐ..

    古い PostgreSQL で pg_dump したダンプを、最近の PostgreSQL で pg_restore しようとしたときに、「UTF-8のバイトシーケンスがおかしい」と怒られた場合の逃げ方。 $ pg_restore -U postgres -d db3 db3_dump.pgdmp pg_restore: [アーカイバ(db)] TOC処理中にエラーがありました: pg_restore: [アーカイバ(db)] TOCエントリ194; 0 48277 TABLE DATA attachments postgresのエラーです pg_restore: [アーカイバ(db)] COPY failed for table "attachments": ERROR: 符号化方式"UTF8"で無効なバイトシーケンスです: 0x90 HINT: サーバが想定する符号化方式に合わないバイ

    PostgreSQL pg_restore 「符号化方式"UTF8"で無効なバイトシーケンスです」からの逃げ方 - ..たれろぐ..
  • はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知

    はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28

    はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知
    bayan
    bayan 2013/07/16
  • 大量のデータを高速に投入するには — Let's Postgres

    FORCIA, Inc. 板垣 貴裕 PostgreSQL に大量のデータを高速に取り込む方法を紹介します。 COPY という専用のコマンドを使うと INSERT よりもずっと高速です。 また、COPY を使う際にひと工夫すると、さらに速くなります。 高速にデータをロードするコマンド INSERT の代わりに COPY FROM を使う PostgreSQL には COPY FROM という大量データ取り込み専用のコマンドがあります。 COPY コマンドは外部からタブ区切り (.tsv) やカンマ区切り (.csv) のファイルを読み込める上に、INSERT よりもずっと高速です。 同様に、pg_dump コマンドも -d や --inserts オプションを付けると INSERT を並べたダンプファイルを作ってしまいます。 オプションを付けないデフォルトでは高速な COPY 形式なので、

    bayan
    bayan 2013/07/16
  • pg_bulkload

    FILTER = [ schema_name. ] function_name [ (argtype, ... ) ] 入力データを変換するユーザ定義関数 (FILTER 関数) を指定します。 argtype は省略可能ですが、関数を一意に特定できない場合はエラーになります。 指定しない場合は、入力データの変換を行いません。 FILTER 関数の作り方は FILTER 関数の作り方に示しています。 FILTER オプションは、「TYPE=FUNCTION」と FILTER の両方を指定した場合はエラーになります。 また、CSV フォーマット固有の設定項目の FORCE_NOT_NULL と FILTER の両方を指定した場合はエラーになります。 CHECK_CONSTRAINTS = YES | NO ロード時に CHECK 制約を検査するかどうかを指定します。 デフォルトは NO です