サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
掃除・片付け
funasaki.hatenablog.com
今回はAWSのBilling(請求書)に対して、プログラムからアクセスする方法を紹介します。 AWSのBillingの情報が含まれたCSVファイルが、ユーザーが指定したS3 bucketに出力されます。そのCSVファイルをS3から取得して、中身の情報を確認するという方法です。 これを実現するには、事前準備が必要です。その方法が以下です。 1.AWSアカウントのページにて、Billing Preferenceを選択します。 2.以下のページにて、まずはMonthly Reportを有効化します。 有効化されると、以下のようになります。 3.次にProgrammatic Billing Accessを有効にします。 ※Monthly Reportを有効にしてからでないと、Programmatic Billing Accessを有効化できません。有効化すると、以下のようにBilling CSV
AWS OpsWorksを使ってHAProxyのレイヤーを追加し、HAProxyインスタンスを立ち上げてみる。 自分のkeypairを使うように設定すれば、SSHでログインすることができる。 早速ログインしてみる。 ec2-userでログインができた。 OpsWorksの動作に関連しそうなものは以下のディレクトリにあった。 [ec2-user@stratus aws]$ sudo ls opsworks/current/bin chef-client gli opsworks-agent-cli restclient chef-solo knife opsworks-agent-installer s3curl.pl convert_to_should_syntax lockrun opsworks-agent-updater shef edit_json.rb nokogiri pret
AWS SDK for JavaScriptがリリースされました。これにより、例えばS3にJavaScriptのファイルを配置して、クライアントサイドでJavaScriptを実行、その中でS3へのファイルアップロードの処理を行えば、別途S3へのアップロードを行うためのWebサーバが必要なくなります。 まず、最初にJavaScriptを使って、S3のバケットに対してlistObjectsしてみます。そのJavaScriptを含むHTMLファイルが以下です。 <head> <title>Sample</title> <meta http-equiv="Content-Type" content="text/html; charset=utf-8"> </head> <body> <script src="https://sdk.amazonaws.com/js/aws-sdk-2.0.0-rc
Amazon S3にアップロードしたファイルをダウンロードするには、AWS アカウントの認証が必要になります。 アクセス権限を全員がアクセス可能な状態にすれば、S3 上のファイルの URL を指定しただけでダウンロードが可能ですが。 一部の人のみダウンロード可能にする方法の一つとして、S3 の Pre-signed URL というものがあります。 https://bucket-name.s3.amazonaws.com/test.txt?Expires=1353386085&AWSAccessKeyId=XXXXXXXXXXXXXXXXXXXX&Signature=9Vvu49EtywfHkvPWgcuI%2FabdUAc%3D これは、どういうものかと言うと、URL の部分に下記のように文字列を追加して、この URL を用いて S3 のファイルをダウンロード可能にするものです。 今回この
「Programmatic Billing Access」によって、S3に出力されたBilling Report(CSV)の中身を確認してみました。 その一例が以下です。 ProductCode UsageType Operation UsageQuantity TotalCost AmazonEC2 APN1-BoxUsage.t1.micro RunInstances 1097 29.62 t1.microインスタンスを(複数台分合計して)1097時間利用して、29.62ドルかかったという内容です。 東京リージョンでは、t1.microは1時間あたり0.027ドル。トータルコスト29.62/0.027 = 1097.037 時間という結果が出たことからも、この見方は間違ってないはず。 その他の項目については、こちらのドキュメントに詳細があります。こちらを確認したときのメモが以下です。
異なるAWSアカウント間で、S3のファイルをコピーすることができます。 S3 の bucket のアクセスコントロールで、別のアカウントのアクセスを許可することで、アクセス、コピーが可能になります。 以下に、その具体的な方法をまとめました。 1.S3 のバケットのポリシーを編集 AWS S3 Management Console 上で、バケットを指定して、edit Policy を選択すると、Bucket Policy generatorが表示されるので、こちらに下記のように入力します。(入力例) { "Version": "2008-10-17", "Id": "Policy1345626759739", "Statement": [ { "Sid": "Stmt1345626754496", "Effect": "Allow", "Principal": { "AWS": [ "arn
AWS SDKやAWSコマンドラインツールを使う場合、Security Credentialsが必要になります。Security Credentialsの中にはアクセスキーとシークレットアクセスキーが含まれています。AWSのサービスやリソースをAPIを使って管理するときには、この2つのキーを使って認証します。 この2つのキーをどうやって保管するか?が本記事の目標とするところです。 2つのキーをソースコードやもしくはテキストファイル、DB等に格納して使うこともできますが、これだとキーの置き換えをするのが大変です。そこでAWSから提供されているSecurity Token Serviceというサービスを使って、キーの管理を安全に、かつ効率的に行うことを試してみました。 Security Token Serviceとは? 一時的な、かつ制限された特権を持つAWSアカウント、またはIAMユーザのC
前回のの「EBS Snapshot Copyを使ってみる」の応用で、リージョン間でコピーしたSnapshotを利用して新たにAMIを作成、起動してみました。本来であれば、こちらのページにありますように、リージョン間のAMIコピー機能がリリースされるとのことなので、それを待ってから使う方が良いかと思っていますが、取り急ぎEBS Snapshot Copy機能で出来るかどうか試してみました。 結果としては、リージョン間でコピーしたSnapshotをベースに、カスタマイズしたAmazon Linux 2012.09 のAMIを新しいリージョンで作成、起動することができました。 注意事項としては、異なるリージョンでは使用されるKernel IDが異なるため、正しいKernel IDを指定する必要があることです。 その時に試した方法が以下です。 1.Tokyo リージョンでAmazon Linux
AWSのELBを使って、VPC内のWebサーバのインスタンスにアクセスさせてみます。今回の構成図は以下です。 注意事項 ELBをVPCサブネット内で正しくスケールアウトさせるには、フリーのIPアドレスを確保しておく必要があります。具体的には、そのサブネットが少なくとも /27 CIDR block のものであり、ELB用に20個のフリーのIPアドレスを保持する必要があります。 When you attach your load balancer to a subnet, you define the traffic that gets routed to your registered instances. The registered instances do not need to be in the same subnet that you attach to the load ba
このページを最初にブックマークしてみませんか?
『funasaki.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く