エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
PostgreSQLに20TB・89億件のデータを入れてみる - りおてく
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
PostgreSQLに20TB・89億件のデータを入れてみる - りおてく
そーだいさんがこんなことを呟いていた。 これは知見なのですが20TBのテーブルにINDEXは2週間待っても貼... そーだいさんがこんなことを呟いていた。 これは知見なのですが20TBのテーブルにINDEXは2週間待っても貼れません(諦めた #voyagebook — そーだい@初代ALF (@soudai1025) October 9, 2020 ふーむ。これはやってみないといけないですね。 普通のPostgreSQLではちょっと無理っぽい件数なので、Azure Database for PostgreSQL Hyperscale (Citus)に入れてみる。海外さんのPGstromという変態実装(褒めている)を使う方法もあるけれど、PaaSでRDBMSで、っていうとHyperscale (Citus)がまず候補かな、と。 ちょっとどんな感じか分からないので、IOPSが最大になる2TBのストレージを持つワーカーノードを20台で構成してみる。 全体としてはこんな感じ。 で、64vCPUのVMにPremi