
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Redisで大量データを扱う時の助っ人たち ①PostgreSQLのFDW - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Redisで大量データを扱う時の助っ人たち ①PostgreSQLのFDW - Qiita
#はじめに 業務データやログ、さらにはストリームデータなど、多量のデータをRedisで扱うことかある。 ... #はじめに 業務データやログ、さらにはストリームデータなど、多量のデータをRedisで扱うことかある。 私の場合、数億行✕数種類と、数千万行✕数百種類のデータが相手。 Redisの場合、条件に数千万行までのデータはハッシュ(HSET,HMSET)を使うことでアクセスもそこそこ高速でいてくれて、数億行になった後に応答速度とかRAM容量とかがかなり気になってくる感じ(そのため、データベースの分割を行ったり、それで混乱したり...)。 ということで、ここではRedisにたくさんのデータを突っ込んてあれこれ探す作業を効率化・高速化するためのTipsを備忘録としてまとめていく。 取り上げる予定は、 ・ PostgreSQLのredisFDW(redisのデータをSQLのテーブルとして扱える) => 今回 ・ Vedis(ネットワーク層を省いたredisリスペクトの軽量KVS) ・ [rediSQL]