Redshift使い始めたは良いけど、運用後に以下の点に気付いてしまうことがあるかも知れません。 SORTKEYやDISTKEYの設計を間違えた。寧ろそんなものがあったことを知らなかった。 INSERTでレコードを挿入していたのでデータが圧縮されていなかった。 人生をもう一度やりなおしたい。 MySQLやPostgreSQLだと数千万~億のレコードが入った状態でテーブルの設計ミスをなかったことにするのは骨が折れます。Indexの張り直しだけでも、億レコードのオーダーではソウルジェムが黒化すること間違いないです。 Redshiftなら、ほむらちゃんに時間遡行をお願いするまでもなくリカバリーできます。 そう、Redshiftならね。 手順 テーブルのデータをS3に逃がしてあげます。 UNLOAD ('SELECT * FROM table_name') TO 's3://tmp-hoge/'