タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

tipsとpostgresqlに関するftnkのブックマーク (1)

  • zuzara.com � PostgreSQLに巨大データを扱うときのTIPS

    1つ目が「indexは後からつける」 create table test ( id integer, title varchar(255) );こんなテーブルにCOPYでインポートするとき、 create index test_idx on test(title);こういったindexを先につけてから実行すると30万行のデータで10分程度。6000万行あると72時間程度経っても終わらず。 indexなしなら10分で6000万行いけました。データが入った後のcreate indexには1~2時間。 動作環境はCPU 2.80GHz、Memory 1GでFedoraCore5にPostgreSQL8.1.4。 2つ目が「テーブルごとにデータをエクスポートするときはpg_dumpではなくてCOPY」 バックアップ用のpg_dumpを使うと簡単ですが、-tでテーブルを指定するとCOPY文にならずに

  • 1