エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Redshiftのディスク使用量削減大作戦
こんにちは。FiNCデータ分析グループのこみぃです。 Redshiftはとても便利なんですが、自然に容量が増え... こんにちは。FiNCデータ分析グループのこみぃです。 Redshiftはとても便利なんですが、自然に容量が増えていってしまって困るということはありませんか? 必要なデータを入れているのだからある程度増えていくのは仕方ないですが、データ量が増えれば増えるほどRedshiftのノード数を増やさないといけなくなる(つまり費用が増える)ので、抑えられるなら少しでも抑えたいですよね。 今日は、Redshiftで保持するデータ量の削減のためにFiNCで実施していることをお話しようと思います。 毎日vacuumをするRedshiftにはvacuumというコマンドがあります。 VACUUM Redshiftでは、DELETE文でレコードを削除した場合、vacuumコマンドを実行しない限りはその領域が再利用されません。 なので定期的にvacuumを実施する必要があります。この頻度はどのくらいが良いでしょうか