
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
postgreSQLで1000万件データをいれてみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
postgreSQLで1000万件データをいれてみる - Qiita
きっかけ 大量のデータを投入してテストをしてみたいと思い、まずは大量のデータを投入してみることにし... きっかけ 大量のデータを投入してテストをしてみたいと思い、まずは大量のデータを投入してみることにしました。 結論からいうと、こんな感じに select count(*)して1000万件を確認 700MBのcsvファイルを投入して30秒ほどでinsert完了しました。 もっと時間かかるかと思いましたが、早い! テストのテーブルを作成する 適当にテーブルを作成 インデックスはまだ作りません。 CREATE TABLE public.test ( id character varying(256) NOT NULL, num integer, created_at timestamp with time zone ); CSVは以下のようなものを作ります ↓sql_many.csvの中身 id,num,created_at c6afae11-6be6-4f5b-b9c6-6e626b299301