タグ

2017年6月16日のブックマーク (5件)

  • AWS データベースサービスの自動バックアップ設定まとめ | DevelopersIO

    データベースといえば、一般的に避けては通れないのがバックアップ運用です。 AWSで提供されているサービスで「データベースサービス」にカテゴライズされるもののうち、RDS、Redshift、ElastiCache(※Redisのみ)については自動バックアップ(自動スナップショット)の機能が提供されています。この機能を使えば基的にはバックアップ運用をAWSにお任せできるのですが、バックアップサイクル等の設定についてはサービス毎に差異があります。 運用をAWSにお任せできるとはいえ、その仕様を把握しておかないといざリカバリをしようとした際に意図したリカバリポイントまで復元ができない、などという事態が発生する可能性があります。 ということで、今回は各データベースサービスの自動バックアップの設定について、バックアップサイクル、バックアップ開始時刻、バックアップ保持期間の3つの観点でまとめてみました

    AWS データベースサービスの自動バックアップ設定まとめ | DevelopersIO
  • 変数を使用する | UNIX & Linux コマンド・シェルスクリプト リファレンス

    → 他のプログラミング言語と同様に = を使用する。 シェルスクリプトでも C言語などと同様に = を使用することで変数に値を設定することができる。ただし、C言語とは違い = の前後にスペースがあってはいけない。 また、変数名の大文字と小文字は区別されるため変数 VAR と変数 var は別物として扱われる。さらにシェル変数に「型」は存在しないので、文字列や数値を区別なく設定できる。 ポイントをまとめると以下のとおりとなる。 = を使う 値の設定時は変数名の先頭に $ を付けない ($ は参照時のみ) = の前後にスペースを入れない (前後にスペースがあるとエラー) 型は存在しない (declare コマンドや typeset コマンドで似たようなことができるが推奨はしない) 変数名の大文字・小文字は区別される (VAR と var は別物) 特に「2」は初心者が犯しがちなミスなので注意す

    変数を使用する | UNIX & Linux コマンド・シェルスクリプト リファレンス
  • 外部から踏み台サーバ経由の多段SSH接続をWindowsクライアントから行う | DevelopersIO

    はじめに VPC環境を構築する際、サブネットを多段に分割してセキュリティレベルを分ける構成にすることが多いかと思います。例えば以下の例のように、 インターネットへ、又はインターネットから直接接続可能なサブネット(Public) インターネットへ直接接続出来ず、Publicサブネットに配置されたサーバを経由してのみインターネット接続が可能なサブネット(Protect) のような形です。この場合Protectサブネットに配置されたEC2からインターネットに接続する場合はPublicサブネットにあるEC2をNATとして経由し、逆にインターネット側からメンテナンスなどで接続される場合も同様にPublicサブネットにあるEC2を踏み台として経由して通信を行います。 さて、この踏み台サーバを経由したメンテナンスの場合、問題になるのがSSH接続に使用する秘密鍵です。秘密鍵はその名の通り秘密にするものなの

    外部から踏み台サーバ経由の多段SSH接続をWindowsクライアントから行う | DevelopersIO
  • PostgreSQLのbackup, restore方法まとめ - Qiita

    (1) PostgreSQLのダンプツールを利用したバックアップ pg_dumpコマンド DBを運用しながらでも使えるbackupコマンド 中ではトランザクションブロック内でSELECT文を発行し、取得したデータを出力形式に合わせて整形した腕標準出力に出力 するらしい。 pg_dumpの出力形式 スクリプト形式(デフォルト) アーカイブ形式 が選択できる。 スクリプト形式 スクリプト形式の出力は、リストアに必要なSQL文の羅列が出る。 ので、psqlコマンドでリストアする。 スクリプト形式の場合はプレーンテキストなので、リストアの際にエラーが出たら、中を見れるという利点がある。 アーカイブ形式 バイナリの形で出力される。リストアはpsqlコマンドでなくpg_restoreコマンドで行う。 アーカイブ形式の利点は、 「指定したtableのみを選択してリストアできる」ことらしい。 また、アーカ

    PostgreSQLのbackup, restore方法まとめ - Qiita
  • SparkでPostgreSQLデータを扱う - Qiita

    話題のApache Sparkでこんなことも出来るという話。Sparkのマニュアルを読んでいて見つけたので、試してみました。試した環境は CentOS 7.1 Apache Spark 1.4.1 PostgreSQL 9.4.4 です。 Apache Spark Sparkの説明は割愛。 高速な分散処理基盤であるApache SparkはHadoopやCassandraといったデータストアだけでなく、RDBMSに格納されたデータを取り出して処理することもできます。 なので、既存のデータを移行せずにSparkの高速処理の恩恵を受けることが出来ます。 PostgreSQLのテーブルをSparkにロード JDBC接続を利用するので、PostgreSQLのJDBC Driverが必要です。 今回はお手軽にspark-shellで操作することにして、

    SparkでPostgreSQLデータを扱う - Qiita