タグ

hatenaとsqlに関するrekramkoobのブックマーク (1)

  • 大量件数のINSERT or UPDATE を繰り返すバッチでの注意点

    1.処理速度 単純にINSERTで済む場合はCOPY文やpsqlによる手続きが便利かも知れません。 UPDATEとINSERTがどちらも含まれる場合、最初にINSERTとUPDATEの二つに分けてしまった方が早いかも知れません。 SELECT primary_column FROM table_name WHERE primary_column IN (プライマリーキーの配列3万前後); とかで。 PRIMARYキーが40バイトだったとしても、1MB程度のメモリ量で済みそうです。 2.メモリ使用料について 3万件のデータはファイルに入っていると思うので、単純にfopen+fgetsにしてやればそれほどメモリは使わないんじゃないかと思います。 memory_get_usage()関数を使えれば、実際にメモリ量を見てやると良い気がします。 メモリやPHPの処理よりも、Postgre側やCPU

    大量件数のINSERT or UPDATE を繰り返すバッチでの注意点
  • 1