並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 776件

新着順 人気順

logsの検索結果201 - 240 件 / 776件

  • VPN firm that claims zero logs policy leaks 20 million user logs

    The VPN company in the discussion is a Hong Kong-based UFO VPN owned by Dreamfii HK Limited. Perhaps, the most ironic moments in the cybersecurity world occur when those who promise to protect your online privacy cannot guard their own turf. We’ve seen this happen from time to time with security firms getting hacked themselves. Another similar case has emerged recently when the database of a Hong

      VPN firm that claims zero logs policy leaks 20 million user logs
    • Amazon SESの送信イベントログをCloudWatch Logsに保存する設定をCDKv2でサクッとつくれるようにする | DevelopersIO

      Amazon SESの送信イベントログをCloudWatch Logsに保存する設定をCDKv2でサクッとつくれるようにする ゲームソリューション部の新屋です。 SES検証中にメール送信のイベントログを取りたくなったので、もろもろの設定をCDKv2(TypeScript)で書いてみました。 実現すること 送信元ドメインをSESに登録し検証済みにする 配信・開封・ハードバウンス・苦情のメール送信イベントをトラッキングする メール送信イベントのログはSNS→Lambda→CloudWatchLogsに保存する ハードバウンス・苦情が発生したらアラームを発砲し、Slackに通知する 構成図 出来上がったコード import { App, Stack, StackProps, Duration, RemovalPolicy, aws_logs as logs, aws_cloudwatch as

        Amazon SESの送信イベントログをCloudWatch Logsに保存する設定をCDKv2でサクッとつくれるようにする | DevelopersIO
      • アプリケーションログをFluent BitでCloudWatch Logsに集約した話 - Qiita

        概要 今回は、EC2で稼働している弊社のアプリケーションログをCloudWatch Logsへ集約しました。 その中で調査したツールの比較や、設定方法について紹介します。 背景 弊社の主要なアプリケーションは2台のEC2で稼働しています。 これまではエラーを調査する際、 EC2(A)にsshで接続してログファイルをgrepして探し、 該当エラーがない場合はEC2(B)にsshして... とそれぞれのインスタンスを行き来することになり、調査に時間がかかっていました。 そこで、アプリケーションログをCloudWatch Logsに集約することでログを一元管理し、ブラウザからエラー調査ができるようにする必要がありました。 各ツールの比較 FireLens ECSの場合使用可能。今回は通常のEC2なので候補から外れました。 なぜ単に Fluentd や Fluent Bit を推奨しないのですか?

          アプリケーションログをFluent BitでCloudWatch Logsに集約した話 - Qiita
        • AWS CLI で CloudWatch Logs にログを送信する - michimani.net

          2019-09-03 CloudWatch Logs には AWS の各サービスからあらゆるログが送信されるようになっていますが、SDK や CLI を使えば外部のアプリケーションからもログを送信することができます。今回は AWS CLI を使ってログを送信してみました。 CloudWatch Logs とは CloudWatch Logs の構成要素 AWS CLI での操作 ログの送信 (準備) ログの送信 ログの確認 ログの検索 ログイベントの形式 まとめ CloudWatch Logs とは Amazon CloudWatch Logs を使用して、Amazon Elastic Compute Cloud (Amazon EC2) インスタンス、AWS CloudTrail、Route 53、およびその他のソースのログファイルの監視、保存、アクセスができます。 Amazon Clo

            AWS CLI で CloudWatch Logs にログを送信する - michimani.net
          • Python (Boto3) @ Lambda で CloudWatch Logs の特定のログストリームにログを出力する - Qiita

            Python (Boto3) @ Lambda で CloudWatch Logs の特定のログストリームにログを出力するPythonAWSlambdaboto3CloudWatch-Logs def put_logs(client, group_name, stream_name_prefix, message): try: exist_log_stream = True log_event = { 'timestamp': int(time.time()) * 1000, 'message': message } sequence_token = None for i in range(2): try: if exist_log_stream == False: create_log_stream_response = client.create_log_stream( logGrou

              Python (Boto3) @ Lambda で CloudWatch Logs の特定のログストリームにログを出力する - Qiita
            • CloudWatch Logsの機能「Vended Logs」について調べてみた | DevelopersIO

              みなさん、こんにちは。 AWS事業本部コンサルティング部の芦沢(@ashi_ssan)です。 みなさんはCloudWatch LogsのVended Logsという機能についてご存知でしょうか? 私は知りませんでした。 サラッと調べましたが、Vended logsとは何かについて正直あまり理解できませんでした。 そこで本エントリでは、私がAWS公式ドキュメントをじっくり眺めて理解した内容を簡単に紹介したいと思います 忙しい人のためのまとめ Vended Logsは、CloudWatch Logs経由でS3 / CloudWatch Logs / Kinesis Data Firehoseに出力されるAWSサービスに関する特定のログ 従量制割引料金が利用でき、配信するログ量が増えるほど大きく割引される よく高いと言われるCloudWatch Logsの利用料金の大きな部分を占めているのは取り

                CloudWatch Logsの機能「Vended Logs」について調べてみた | DevelopersIO
              • CloudWatch Logsで複数行をひとまとめにする【Laravel】 - Qiita

                CloudWatch Logsが見づらい! EC2インスタンスで吐き出されるログをCloudWatchLogsに集約しているのですが、そのログがけっこう見づらくて困っておりました。 具体的には上記画像のように一つのエラーログが人まとまりにならず、複数行にわかれてしまうことです。 一つのエラーがひとまとまりになれば、何件エラーがあったとか、ログの境目が一瞬でわかるのに…と悩んでおりましたがしょうがないと思っておりました。 今回はLaravelで吐き出されるログをまとめたいと思います。 multi_line_start_patternでまとまりを作ることが可能 こちらにCloudWatchエージェントの設定ファイルの書き方があります multi_line_start_pattern – ログメッセージの開始を識別するパターンを指定します。ログメッセージは、パターンに一致する 1 行と、後続パタ

                  CloudWatch Logsで複数行をひとまとめにする【Laravel】 - Qiita
                • Amazon Auroraの各種ログをCloudWatch LogsからS3に連携してみた | DevelopersIO

                  こんにちは、崔です。 Aurora MySQLの各種ログを出力し、そのログファイルをCloudWatch LogsからKinesis Data Firehoseを用いて、S3まで連携する機会がありましたので、参考までにCloudFormationのテンプレートを紹介させていただきます。 今回試したAuroraのエンジンバージョンは5.7.mysql_aurora.2.04.5です。 ログ出力の設定 まずAuroraの各種ログ出力を設定していきます。 監査ログの設定 最初にAurora MySQLにて監査ログを設定します。 監査ログの設定はクラスタパラメータグループで設定します。 以下のパラメータを設定します。 パラメータ名 値 備考

                    Amazon Auroraの各種ログをCloudWatch LogsからS3に連携してみた | DevelopersIO
                  • アイドルセッションタイムアウト値をカスタマイズし、セッションログを Amazon CloudWatch Logs for Session Manager にストリーミング

                    AWS Systems Manager の一機能である Session Manager で、セッションが自動的にタイムアウトになるまで、セッションのアイドル状態を保持する長さをより詳細に制御できるようになりました。この機能は、セッションが 15 分以上アイドル状態にあった場合、ユーザーに再認証を義務付ける PCI 要件 8.1.8 など、コンプライアンスの要件を満たすのに有用です。 また今後、ユーザーはセッションの終了まで待たなくても、セッション中、CloudWatch に継続してセッションログをストリームできるようになります。ログは JSON のメッセージ形式で構造化され、 セッションを開始したユーザー、インスタンス ID とセッション ID、セッションからのコマンドと出力を特定します。セッションを通じて継続的に構造化されたログを受信し、処理する機能により、ユーザーの活動をより細かく視覚

                      アイドルセッションタイムアウト値をカスタマイズし、セッションログを Amazon CloudWatch Logs for Session Manager にストリーミング
                    • GitHub - GoogleCloudPlatform/bigquery-data-lineage: Reference implementation for real-time Data Lineage tracking for BigQuery using Audit Logs, ZetaSQL and Dataflow.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - GoogleCloudPlatform/bigquery-data-lineage: Reference implementation for real-time Data Lineage tracking for BigQuery using Audit Logs, ZetaSQL and Dataflow.
                      • Okta Customer Identity Cloud(Auth0)におけるCloudWatch Logsを活用したログ監視方法のご紹介 - TC3株式会社|GIG INNOVATED.

                        Okta Customer Identity Cloud(Auth0)におけるCloudWatch Logsを活用したログ監視方法のご紹介 はじめに Okta Customer Identity Cloud(powered by Auth0)は、開発者が認証機能を実装するには非常に簡単なツールではありますが、Okta CICの構築において忘れられがちなのは運用後の設計です。 Auth0は認証に関するログや管理者の操作などのログをAuth0内で管理してくれますが(参考)、プランによってログの保管期間が決まっています(参考)。エンタープライズプランであっても30日が保存の上限期間となっているため、30日を超える期間ログを保存しておきたい場合にはLog Streaming機能を使うことで(Essentialプラン以上が必要です)、AWS S3に格納するなどのことが必要です。前回はその設定をTer

                          Okta Customer Identity Cloud(Auth0)におけるCloudWatch Logsを活用したログ監視方法のご紹介 - TC3株式会社|GIG INNOVATED.
                        • Show HN: Root Cause as a Service – Never dig through logs again | Hacker News

                          Hey Folks – Larry, Ajay and Rod here!We address the age old painful problem of digging through logs to find the root cause when a problem occurs. No-one likes searching through logs, and so we spent a few years analyzing 100’s of real world incidents to understand how humans troubleshoot in logs. And then we built a solution that automatically finds the same root cause indicators a human would hav

                          • ログ基盤をCloudWatchLogからNewRelic Logs + S3に変えたら 利便性も上がってコストも下がった話

                            ログ基盤をCloudWatchLogからNewRelic Logs + S3に変えたら 利便性も上がってコストも下がった話

                              ログ基盤をCloudWatchLogからNewRelic Logs + S3に変えたら 利便性も上がってコストも下がった話
                            • GitHub - invictus-ir/ALFA: ALFA stands for Automated Audit Log Forensic Analysis for Google Workspace. You can use this tool to acquire all Google Workspace audit logs and to perform automated forensic analysis on the audit logs using statistics and the M

                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                GitHub - invictus-ir/ALFA: ALFA stands for Automated Audit Log Forensic Analysis for Google Workspace. You can use this tool to acquire all Google Workspace audit logs and to perform automated forensic analysis on the audit logs using statistics and the M
                              • [AWS IoT] CloudWatch Logsへの記録を有効にしてトラブルをデバッグする | DevelopersIO

                                1 はじめに CX事業本部の平内(SIN)です。 AWS IoTでは、その動作をCloudWatch Logsでモニターすることができます。 参考:CloudWatch Logs の使用による AWS IoT のモニタリング 今回は、このログを使用して、簡単なトラブルを確認してみました。 2 ログの有効化 AWS IoTのログは、コンソールから設定 > ログ で設定できますが、デフォルトで「無効」となっています。「有効」にするためには、「編集」ボタンで設定を行います。 設定する内容は、詳細レベルとロールです。 詳細レベルは、以下の4種類が選択可能です。 Roleの設定は、ロールの作成を選択すると、自動的に作成できます。 3 ログの確認 ログが有効にされていると、AWS ToIログは、CloudWatch Logsのロググループ(AWSIotLogsV2)に出力されます。 以下は、デバッグ(

                                  [AWS IoT] CloudWatch Logsへの記録を有効にしてトラブルをデバッグする | DevelopersIO
                                • Amazon CloudWatch Logs に自動パターン分析と異常検出が提供されるようになりました | Amazon Web Services

                                  Amazon Web Services ブログ Amazon CloudWatch Logs に自動パターン分析と異常検出が提供されるようになりました ログデータを検索して運用上またはビジネス上のインサイトを見つけることは、多くの場合、干し草の山から針を探すようなものです。通常、個々のログレコードを手動でフィルタリングして確認する必要があります。これを支援するために、Amazon CloudWatch は、数十年にわたる Amazon と AWS の運用データを使用してトレーニングされた高度な機械学習 (ML) アルゴリズムを使用して、ログレコードのパターンを自動的に認識してクラスター化し、注目すべきコンテンツと傾向を抽出し、異常を通知する新しい機能を追加しました。 具体的には、CloudWatch では以下の機能が提供されるようになりました。 [Logs Insights] ページの [

                                    Amazon CloudWatch Logs に自動パターン分析と異常検出が提供されるようになりました | Amazon Web Services
                                  • Amazon CloudWatch Logs でアカウントレベルのサブスクリプションフィルターのサポートを開始

                                    Amazon CloudWatch Logs で、put-account-policy API を使用したアカウントレベルのサブスクリプションフィルターの作成がサポートされるようになりました。この新機能により、Amazon CloudWatch Logs に取り込まれたリアルタイムのログイベントを Amazon Kinesis Data Streams、Amazon Kinesis Data Firehose、または AWS Lambda に配信し、アカウントレベルの単一のサブスクリプションフィルターを使用してカスタム処理、分析、または他の宛先への配信を行うことができます。 お客様は通常、ログの全部または一部を Amazon OpenSearch などの AWS サービスに転送してさまざまな分析ユースケースに対応したり、Amazon Kinesis Data Firehose に転送して他

                                      Amazon CloudWatch Logs でアカウントレベルのサブスクリプションフィルターのサポートを開始
                                    • Report: No-Log VPNs Reveal Users' Personal Data and Logs

                                      Company Profile We believe the VPNs exposed in this leak share the same developer, based on the following findings: The VPNs share a common Elasticsearch server They are hosted on the same assets They have a single recipient for payments, Dreamfii HK Limited At least three of the VPNs on the server share almost identical branding on their websites Super VPN's branding is very similar to other affe

                                        Report: No-Log VPNs Reveal Users' Personal Data and Logs
                                      • Why ZooKeeper Was Replaced with KRaft - The Log of All Logs | Confluent Why Replace ZooKeeper with Kafka Raft - The Log of All Logs

                                        Why replace ZooKeeper with an internal log for Apache Kafka® metadata management? This post explores the rationale behind the replacement, examines why a quorum-based consensus protocol like Raft was utilized and altered to become KRaft, and describes the new Quorum Controller built on top of KRaft protocols. Why replace ZooKeeper? In 2012, work was underway to begin implementing the current exist

                                          Why ZooKeeper Was Replaced with KRaft - The Log of All Logs | Confluent Why Replace ZooKeeper with Kafka Raft - The Log of All Logs
                                        • Announcing Firelens – A New Way to Manage Container Logs | Amazon Web Services

                                          AWS News Blog Announcing Firelens – A New Way to Manage Container Logs Today, the fantastic team that builds our container services at AWS have launched an excellent new tool called AWS FireLens that will make dealing with logs a whole lot easier. Using FireLens, customers can direct container logs to storage and analytics tools without modifying deployment scripts, manually installing extra softw

                                            Announcing Firelens – A New Way to Manage Container Logs | Amazon Web Services
                                          • GitHub - mimecast/dtail: DTail is a distributed DevOps tool for tailing, grepping, catting logs and other text files on many remote machines at once.

                                            DTail (a distributed tail program) is a DevOps tool for engineers programmed in Google Go for following (tailing), catting and grepping (including gzip and zstd decompression support) log files on many machines concurrently. An advanced feature of DTail is to execute distributed MapReduce aggregations across many devices. For secure authorization and transport encryption, the SSH protocol is used.

                                              GitHub - mimecast/dtail: DTail is a distributed DevOps tool for tailing, grepping, catting logs and other text files on many remote machines at once.
                                            • Visualize and gain insights into your VPC Flow logs with Amazon Managed Grafana | Amazon Web Services

                                              AWS Cloud Operations & Migrations Blog Visualize and gain insights into your VPC Flow logs with Amazon Managed Grafana Modern IT infrastructure in Cloud is becoming increasingly distributed and data intensive. With the growing number of devices, applications, and users consuming the services, the amount of data being transmitted across networks is increasing rapidly. This increase in data warrants

                                                Visualize and gain insights into your VPC Flow logs with Amazon Managed Grafana | Amazon Web Services
                                              • k8s – kubectl logsで知っておきたいオプション – OpenGroove

                                                (誤記があったため修正しました) またまた超小ネタであるが、kubectl logsで知っておきたいオプション。例えばClusterAutoscalerのPodのログなんかはタイムスタンプが出力されないから分かりにくいのだが…、--timestamp=trueにすればタイムスタンプが付与されるということを割と最近知った。 $ kubectl logs --timestamps=true [Pod name] それとちょっとだけ見たいときはパイプしてtailとかしていたが、その必要はなかった。--tail=100 オプションはOSコマンドのtail -100と同様である。 $ kubectl logs --tail=100 [Pod name] 取り急ぎ、私的にうれしいオプション。 --timestamps=true タイムスタンプを出力させる --since=1h --since=10m

                                                • CloudWatch Logs を定期的にS3 へ転送する | iret.media

                                                  1. 概要 2. CloudWatch Logs をS3 に転送するサブスクリプションフィルターの構築 — 2.1. 手引き — 2.2. 準備 — 2.3. Kinesis Data Firehose 用のロールを作成する — 2.4. Kinesis Data Firehose を作成する — 2.5. CloudWatch Logs 用のロールを作成する — 2.6. サブスクリプションフィルターを設定する 3. サブスクリプションフィルターのトラブルシューティング — 3.1. ストリーミングを開始できない — 3.2. S3 にログが転送されない 4. 参考資料 概要 今回は、CloudWatch Logsのサブスクリプションフィルターを使用して、CloudWatch Logs のログを定期的にS3 へ転送します。 CloudWatch Logs のログをS3 へ転送する方法は、

                                                    CloudWatch Logs を定期的にS3 へ転送する | iret.media
                                                  • AWS の VPC Flow Logs を Datadog に流し込むときのポイント|hden

                                                    最近会社で複数の VPC の間で Peering を設定する機会があったので監視とデバッグ用途も兼ねて Flow Logs を Datadog に流し込むように設定しました。 公式のチュートリアルでは複数の設定方法が紹介されていてどれを選ぶか迷ったし、ログを見やすくするコツを見つけたのでここで共有します。 VPC Flow Logs ってなんなん? 公式ドキュメントによると VPC フローログは、VPC のネットワークインターフェイスとの間で行き来する IP トラフィックに関する情報をキャプチャできるようにする機能です。 <中略> フローログは、多くのタスクで役立ちます。たとえば、特定のトラフィックがインスタンスに到達していない場合のトラブルシューティングに役立ちます。これにより、制限が過度に厳しいセキュリティグループルールを診断できます。また、セキュリティツールとしてフローツールを使用し

                                                      AWS の VPC Flow Logs を Datadog に流し込むときのポイント|hden
                                                    • CloudWatch LogsのログをS3へ【Kinesis Firehose編】 - Carpe Diem

                                                      概要 前回 christina04.hatenablog.com にてCloudWatch Logsの過去ログをS3へエクスポートする方法を説明しました。 今回はリアルタイムにS3に転送する方法を紹介します。 手順 管理ポリシーではないIAMポリシーが何度も出てくるので、自動生成してくれるWebコンソールで作成します。 前提 CloudWatch Logsのロググループ S3バケット はすでにあるとして進めます。 フロー Kinesis Firehoseの用意 CloudWatch LogsのサブスクリプションフィルタでFirehoseを指定 Kinesis Firehoseの用意 Webコンソールでポチポチ作ってきます。 データソース CloudWatch Logsの場合はこちらを選択します。 データソースの指定 データ変換 今回データはいじらずそのまま保存するのでDisableに デー

                                                        CloudWatch LogsのログをS3へ【Kinesis Firehose編】 - Carpe Diem
                                                      • 薪原木が入手 ユズリハ I got a lot of firewood logs. - いなかを楽しむ生活2 Life Enjoying Country

                                                        10月11日(日)のことです。 空っぽになっていた薪の原木置き場ですが、ついに今秋一番の薪原木が入手できました。いよいよ次の薪割りシーズンがやって来るのですが、まだ薪棚が満杯なので まだ割ることはしません。 ですが、こうして貯まっていくのは嬉しいことです。 実はこれは二回目のことです。 桜の木が増えていました。 桜の下の木を最初に貰ったのは 一週間程前のことで 親戚の造園屋さんが持って来てくれました。 細い方が樫の木で 太い方はユズリハ。 それにしてもユズリハは大木です。 我が家にも植わっているので 正月の飾りに使ったりしますが 直径10cm位なものです。 これだけの原木を自分で切り出す手間を思えば 親戚とは言えタダで貰えるというのは 有難い話です。 薪ストーブに使ったら 半月は優に使えるでしょうねぇ。

                                                          薪原木が入手 ユズリハ I got a lot of firewood logs. - いなかを楽しむ生活2 Life Enjoying Country
                                                        • Use natural language to query Amazon CloudWatch logs and metrics (preview) | Amazon Web Services

                                                          AWS News Blog Use natural language to query Amazon CloudWatch logs and metrics (preview) To make it easy to interact with your operational data, Amazon CloudWatch is introducing today natural language query generation for Logs and Metrics Insights. With this capability, powered by generative artificial intelligence (AI), you can describe in English the insights you are looking for, and a Logs or M

                                                            Use natural language to query Amazon CloudWatch logs and metrics (preview) | Amazon Web Services
                                                          • CloudWatch Logsのフィルターで複雑な検索条件を指定して欲しいイベントだけ取得する - Qiita

                                                            下図のような流れでアプリケーションログをSlackへ通知する仕組みを構築しています。 この仕組み上で通知するログの種類をフィルタリングする場合はLambdaトリガー設定時のフィルタかLambda関数内になるかと思います。 しかし、不必要な通知をLambda関数内でフィルタリング処理を行う場合、Lambda関数自体を動作させる必要がある為、料金が多く発生してしまいます。 これを避ける為、Lambdaトリガー(やCloudWatch Logs メトリクスフィルター)のフィルターパターンを駆使してフィルタリングを行う方法を記します。 フィルターとパターンの構文について フィルターは以下3種類に分類できます。※公式名称ではありません。 本稿では「テキストベースフィルター」及び「スペース区切りフィルター」について取り扱います。 テキストベースフィルター  ※全文一致 スペース区切りフィルター  ※O

                                                              CloudWatch Logsのフィルターで複雑な検索条件を指定して欲しいイベントだけ取得する - Qiita
                                                            • Laravel & Amazon CloudWatch Logs | idealive tech blog

                                                              どうもこんにちは Laravelから出力されるログを、 ファイルも作らずAmazon CouldWatch Logsに投げつける方法ないかなー、 と思っていたら、先人たちはやっているものですね、ありました。 こちらを参考に(ほぼパクリ)実装しました。 https://stackoverflow.com/questions/50814388/laravel-5-6-aws-cloudwatch-log お決まりのようですが、今回も Laravel 5.8 でお送りします。 事前準備 IAMユーザ Amazon CloudWatch Logs を使うので、当然のようにIAMユーザを用意します。 CloudWatchFullAccess権限を持っているIAMユーザを作成し、 アクセスキーとシークレットアクセスキーを取得しておきましょう。 もしかしたら、CloudWatchLogsFullAcce

                                                              • Amazon CloudWatch Logsにおける任意のログストリームページのURLを動的に生成する - Qiita

                                                                はじめに CloudWatch Logsと言えば、AWSを使っている人は必ずと言っていいほどお世話になるログ管理のサービスです。 サービス自体はシンプルでとても便利なんですが、なぜかURLがちょっと特殊な作りになっていて、僕自身、任意のログストリームページのURLを動的に生成しようとしたとき「ん?これどうなってんの・・・?」とはじめは戸惑いました。 ちょっとしたTips程度ですが、同様のことで悩んでいる人がいるかもなので記事にしておきます。 CloudWatch LogsのURL構造はどうなっているか URLは以下のようになっています。 ちなみにhoge-lambdaというLambdaを実行したときのログストリームのものです。 https://ap-northeast-1.console.aws.amazon.com/cloudwatch/home?region=ap-northeast-

                                                                  Amazon CloudWatch Logsにおける任意のログストリームページのURLを動的に生成する - Qiita
                                                                • Filter and Stream Logs from Amazon S3 Logging Buckets into Splunk Using AWS Lambda | Amazon Web Services

                                                                  AWS Partner Network (APN) Blog Filter and Stream Logs from Amazon S3 Logging Buckets into Splunk Using AWS Lambda By Ameya Paldhikar, Partner Solutions Architect – AWS By Marc Luescher, Sr. Solutions Architect – AWS Amazon Web Services (AWS) customers of all sizes–from growing startups to large enterprises–manage multiple AWS accounts. Following the prescriptive guidance from AWS for multi-account

                                                                    Filter and Stream Logs from Amazon S3 Logging Buckets into Splunk Using AWS Lambda | Amazon Web Services
                                                                  • AWS WAFのロギング設定で”aws-waf-logs-“から始まる以外の配信ストリームを指定可能とする方法はあるのか確認してみた | DevelopersIO

                                                                    こんにちは、CX事業本部の若槻です。 今回は、AWS WAFのロギング設定でaws-waf-logs-から始まる以外の配信ストリームを指定可能とする方法はあるのか確認してみました。 ロギング設定で指定可能な配信ストリームは名前がaws-waf-logs-から始まるもののみ AWS WAFのWeb ACLのロギング設定をマネジメントコンソールから行う際、下記のように「IAM role」と「Amazon Kinesis Data Firehose delivery stream」を指定するメニューがあります。 「IAM role」の方はAWSServiceRoleForWAFV2Logging以外選べないようになっています。説明によるとaws-waf-logs-から始まるKinesis Data Firehoseの配信ストリームにのみ書き込み可能な権限を付与するロールとのことです。 AWS W

                                                                      AWS WAFのロギング設定で”aws-waf-logs-“から始まる以外の配信ストリームを指定可能とする方法はあるのか確認してみた | DevelopersIO
                                                                    • 更新した(∩´∀`)∩マジンマンションの評価レビュー! - LIFE LOGS

                                                                      どうも!天狗宇です! 新しい記事を書いたので良かったら遊びに来てください(o*。_。)o ↓こちらから↓ マジンマンションの評価レビュー!面白い点と遊び方まで解説|LIFE LOGS https://t.co/AgRNQ8jWt6— 天狗宇@LIFE LOGS (@netatengu) 2020年5月3日

                                                                        更新した(∩´∀`)∩マジンマンションの評価レビュー! - LIFE LOGS
                                                                      • CloudWatch Logs Insightsのコマンド例 - Qiita

                                                                        概要 AWS IoTで出るログを例に、Logs Insightsの基本的で便利なコマンドを紹介します。 より応用的なことは、CloudWatch Logs Insights のクエリ構文 - Amazon CloudWatch Logsのページを見ながら作ると良いです。 今回仮定するデータ 検索対象のCloudWatchLogsには以下のJson形式のデータが入るとします。 Logs Insightsはjsonであれば勝手にパースしてくれ、logLevelやaccountIdなどと入力すれば、普通に使えるようになります。 オリジナルのデータなどはparseコマンドでパースします。本記事では触れません。 (参考: CloudWatch Logs Insights のクエリ構文 - Amazon CloudWatch Logs) { "timestamp": "2021-11-16 04:03

                                                                          CloudWatch Logs Insightsのコマンド例 - Qiita
                                                                        • Web APIのログ保存先をCloudWatch LogsからS3に変更してコストカットした話 - KADOKAWA Connected Engineering Blog

                                                                          大量イベントを記録するWeb APIが必要になった背景 Web APIシステムのアーキテクチャ 発生した問題 問題への対応 保存先の変更 運用の変更 小噺 S3のオブジェクトサイズとFluentbitのトレードオフ Athena + QuickSight料金の話 まとめ KADOKAWA Connected Integrated Data Service部の中沢です。 私の部署ではイベントを記録するためのWeb APIを開発・運用しています。 engineering.kdx.co.jp ブログ公開時は既存Web APIから新規Web APIへの利用移行が始まった段階でしたが、先日移行が無事完了しました。 その中で、アクセス数の増加によりCloudWatch Logsに保存するアクセスログのコスト問題の対応を行いましたので、本ブログではその対応に関して紹介します。 大量イベントを記録するWe

                                                                            Web APIのログ保存先をCloudWatch LogsからS3に変更してコストカットした話 - KADOKAWA Connected Engineering Blog
                                                                          • Trigger an AWS Lambda function from Amazon RDS for MySQL or Amazon RDS for MariaDB using audit logs and Amazon CloudWatch | Amazon Web Services

                                                                            AWS Database Blog Trigger an AWS Lambda function from Amazon RDS for MySQL or Amazon RDS for MariaDB using audit logs and Amazon CloudWatch AWS Lambda is a serverless compute offering that helps you design event-driven architectures. It provides direct integration with multiple AWS services, including Amazon Aurora MySQL-Compatible Edition. In this post, we show you how to invoke Lambda functions

                                                                              Trigger an AWS Lambda function from Amazon RDS for MySQL or Amazon RDS for MariaDB using audit logs and Amazon CloudWatch | Amazon Web Services
                                                                            • [小ネタ]CloudWatch LogsのS3エクスポート機能にて指定した時間範囲単位でエクスポートする | DevelopersIO

                                                                              お疲れさまです。とーちです。 CloudWatch Logs には指定したロググループのログを S3 にエクスポートする機能があります。便利な機能なのですが、下記の記事にも記載のある通り、大量のログを一度にエクスポートしようとするとエクスポートに失敗することがあります。 S3 バケットへのエクスポートに失敗する CloudWatch Logs のトラブルシューティング 作成後に失敗したタスクをトラブルシューティングするには、[時間範囲] 設定を確認します。大量のデータを含むログストリームをエクスポートし、長い時間範囲を指定すると、エクスポートタスクが失敗することがあります。その場合、短い時間範囲を指定します。 上記の通り、 大量のデータを一度にエクスポートするのではなく、短い時間範囲を指定 すると S3 へのエクスポートが失敗しにくくなるとのことなので、あるロググループ内の全ログを「指定し

                                                                                [小ネタ]CloudWatch LogsのS3エクスポート機能にて指定した時間範囲単位でエクスポートする | DevelopersIO
                                                                              • Docker logs をgrepする - Qiita

                                                                                コンテナのログは、標準エラー出力 (stderr)に記録されます。 一方、「|」で記述するパイプラインは、標準出力(stdout)で機能します。 コンテナのログをパイプラインで受け取れるように、 標準エラー出力を標準出力へと出力先を2>&1で変更します。 これで、パイプ後のgrepコマンドが動くようになります。

                                                                                  Docker logs をgrepする - Qiita
                                                                                • Cloudwatch Logs Insightsの活用事例

                                                                                  11/27にリリースされた新機能Cloudwatch Logs Insights が障害調査を進める上で有用だったため紹介したい。 Cloudwatch Logsの課題 AWSのイベントログやその他のログ等を管理するサービスとしてCloudwatch Logsは有用であるが、実際にサービス運用を始めて、データ量が増えてくるにつれて、だんだんと使いづらい部分が見えてくる。 障害の発生状況を細かく条件設定して見る ログから障害の傾向を分析したいが、集計するのが億劫 もちろんアラームでログ監視をする方が効果的な場合もあるが、今回はCloudwatch Logs Insightsで効率的に分析できた事例を紹介する。 Cloudwatch Logs Insightsとは 誤解を恐れず言うと、Cloudwatch Logsに対してデータベースのようにクエリを発行して検索できる機能と思っていただければ良

                                                                                    Cloudwatch Logs Insightsの活用事例