タグ

s3に関するazaazatoのブックマーク (6)

  • Deploying create-react-app to S3 or CloudFront

    The React CLI tool, create-react-app, helps front end developers finally focus on building applications, rather than configuring them. Gone are the days of searching through the dozens of boilerplate and starter apps to get off the ground. For the modest price of accepting some opinionated (but sensible) configuration settings, you’re off to the races. Once you’ve kicked off a new application, npm

    Deploying create-react-app to S3 or CloudFront
  • 【IAM TIPS】S3バケット毎に権限を分けるためのIAM権限設計 | Developers.IO

    望月@シアトルです。 今日はAmazon S3を複数名で利用するときの、IAM権限制御に関するTIPSのご紹介です。 想定する環境 S3は安価かつ高耐久性のストレージとして、AWS上でシステムが稼働しているかどうかに関わらず利用することが可能です。また、単純な保存領域としてだけでなく、S3 Static Website Hostingと呼ばれる機能を利用すれば、S3にHTMLなどの静的ファイルを配置しておくだけで簡単にWEBサイトを作れます。 この機能により、可用性・対障害性の高いWEBサーバを非常に安価(〜10円/月)でホスティングできます。 Static Website Hostingを利用する時には、S3にファイルを配置するだけで外部への公開ができますが、気にしなければならないことの一つに権限の管理があります。S3へのアップロード権限はAWS Identity and Access

    【IAM TIPS】S3バケット毎に権限を分けるためのIAM権限設計 | Developers.IO
  • AmazonS3 - HADOOP2 - Apache Software Foundation

    S3 Support in Apache Hadoop Apache Hadoop ships with a connector to S3 called "S3A", with the url prefix "s3a:"; its previous connectors "s3", and "s3n" are deprecated and/or deleted from recent Hadoop versions. Consult the Latest Hadoop documentation for the specifics on using any the S3A connector. For Hadoop 2.x releases, the latest troubleshooting documentation. For Hadoop 3.x releases, the la

  • Python botoでS3を操作してみたログ - くろのて

    S3の操作をPythonから行った練習ログです。 個人的な備忘録で目新しいことは書いていないはずなので、見てもあんまり意味ないかもしれません。 AWSのIDやKEYの取得方法は 別の記事 を参照してください。 バケットを用意する バケットはそんなに頻繁に作成するものではないはずなので最初はGUIで作成していきます。 S3の管理トップ画面→ Create Bucket ボタンを押すとバケット作成画面がモーダルで起動します。 ここでは testbucket-cro というバケットを作成します。リージョンは東京にしました(適当。 S3へコンテンツを登録する 基となるコンテンツ登録から。 >>> import os >>> from boto.s3 import connection, key >>> ACCESS_KEY_ID = 'XXXXXXXXXXXXXXX' >>> SECRET_AC

    Python botoでS3を操作してみたログ - くろのて
  • はじめてのEMR/fluentdでS3にアップロードしたログをElastic MapReduceで検索・集計する | DevelopersIO

    今回解決したい課題 こんにちは植木和樹です。日の課題はタイトルの通り「fluentdでS3のバケットにアップロードしたログを検索・集計する」です。EC2でサーバを構築した場合、インスタンスがTerminateした後もログが参照できるようfluentdを使ってS3にファイルをアップロードしておくのがAWSのベストプラクティスです。 「Amazon Recommends Fluentd as “Best Practice for Data Collection” over Flume and Scribe」 しかしS3にアップロードしたログファイルはツールを用いなければアクセスすることができず、このままでは容易に検索できません。EC2からS3をs3fsでマウントしてgrepという方法はありますが、遅すぎて実用的とはいえません。s3cmdでいったんローカルにファイルをダウンロードしてから検索す

    はじめてのEMR/fluentdでS3にアップロードしたログをElastic MapReduceで検索・集計する | DevelopersIO
  • Amazon SQSを利用してS3からRedshiftにデータ投入するRinというツールを書いた - 酒日記 はてな支店

    fluentdで集約したログをRedshiftに投入するのに、これまでは fluent-plugin-redshift を使っていたのですが、諸々の理由でこれを置き換えるツールをGoで書きました。 Rin - Redshift data Importer by SQS messaging. プロダクション環境に投入して、2週間ほど快調に動作しているので記事を書いておきます。 アーキテクチャと特徴 S3にデータが保存されたタイミングで、Amazon SNS または SQS にメッセージを飛ばすイベント通知機能がありますので、それを利用しています。 (何者か) S3 にデータを保存する (fluent-plugin-s3, その他どんな手段でも可) (S3) SQS に S3 の path 等が記述されたメッセージを通知する (Rin) SQS のメッセージを受信し、Redshift へ CO

    Amazon SQSを利用してS3からRedshiftにデータ投入するRinというツールを書いた - 酒日記 はてな支店
  • 1