並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 776件

新着順 人気順

logsの検索結果361 - 400 件 / 776件

  • Pleromaを動かしているLightsailからCloudWatch Logsにログ転送

    前置き:Lightsailで動かしてるPleroma鯖が調子悪い 今回前置きがちょっと長い。興味がない人は読み飛ばしてくださいな。 LightsailのvCPU 1core, RAM 512MBで動かしていたPleromaですがどうも7/19辺りの設定変更以降調子が悪い。 私が特に使っていないタイミングで急にCPU使用率が上がり、そのままCPUクレジットを使い切り倒れているように見える。(Lightsailの中身はt2系のEC2インスタンス) 最初は一番安いインスタンスを使っていて、かつ設定ファイルを書き換えるたびにcompileが走るのでそのせいでCPUクレジットを多く消費した為止まっていると思っていたので一つ上のスペックに変更した。 しかし事象は改善されず。 おそらくfetch_initial_postsを有効にしたことで重くなったんじゃないかと思うけど、でも常時重くではなく日付変わる

      Pleromaを動かしているLightsailからCloudWatch Logsにログ転送
    • Docker:docker container logsで時刻(タイムスタンプ)付きでコンテナのログを表示する方法

      時刻(タイムスタンプ)付きでコンテナのログを表示するに-tオプションを指定してdocker container logsコマンドを実行します。 コマンドの説明 $ docker container logs --help Usage: docker container logs [OPTIONS] CONTAINER Fetch the logs of a container Options: --details Show extra details provided to logs -f, --follow Follow log output --since string Show logs since timestamp (e.g. 2013-01-02T13:23:37) or relative (e.g. 42m for 42 minutes) --tail string Numb

        Docker:docker container logsで時刻(タイムスタンプ)付きでコンテナのログを表示する方法
      • 玉切り10個 西日が暑い Ten firewood logs - いなかを楽しむ生活2 Life Enjoying Country

        8月15日(土)のことです。 何とか薪棚のスペースも確保できたので、夕方になって少し暑さも和らいだところで 薪割りをすることにしました。暑い中での作業なので短時間で少しずつ進める つもりです。 夕方、玉切り10個を運び出しました。 50分程掛けて 薪割り終了。 屑は屑薪入れに入れて 新しい薪棚に積んで行くことにしました。 積むのは15分程で 夕方と言えども、西日が暑いので この日は暑さに負けてしまい ちゃちゃっとやっちゃいました。 ですが、後日、それが問題となりました。 その話はまた後日。

          玉切り10個 西日が暑い Ten firewood logs - いなかを楽しむ生活2 Life Enjoying Country
        • AWS LambdaでNew Relic Logs in Contextを利用する - RHYTHM TECH BLOG

          こんにちは。香田です。 今回はAWS LambdaでNew Relic Logs in Contextを利用する方法を紹介していきます。 事前にNew RelicのAWSインテグレーションが必要になる為、下記を参考に設定してみてください。 Introduction to AWS integrations New Relic Logs in Contextについて New Relic Logs in Contextを利用すると APMで取得されるエラー情報やトレース情報のコンテキストに応じたログを表示することが可能です。 Logs In Contextを利用する場合、New RelicのAPM Agentを利用する必要がありますが、 AWS Lambda等をサポートしているサーバーレス モニタリングを利用することで、APMと同じようにエラーやトレース情報よりLogs in Contextが確

            AWS LambdaでNew Relic Logs in Contextを利用する - RHYTHM TECH BLOG
          • How to monitor Amazon Aurora RDS logs and metrics

            Aurora, a hosted relational database service available on the Amazon cloud, is a popular solution for teams that want to be able to work with tooling that is compatible with MySQL and PostgreSQL without running an actual MySQL or PostgreSQL database. In order to leverage Aurora’s benefits fully, it’s critical to log and analyze the various types of monitoring data that are available from an Aurora

              How to monitor Amazon Aurora RDS logs and metrics
            • Amazon CloudWatch Logs に Live Tail が追加され、リアルタイムでログの調査が可能に

              Amazon CloudWatch Logs にて、アプリケーションの異常を検出してデバッグできる新しいインタラクティブなログ分析機能、Live Tail の提供を開始いたします。今後はログを、取り込み時にリアルタイムでインタラクティブに確認できます。お使いのシステムやアプリケーション全般の問題を分析して解決するのに役立ちます。 Live Tail は、受信ログの問題を確認して検出できる機能で、さまざまな機能を入手後にすぐに使うことができます。さらに、問題のトラブルシューティング中に、フィルタリング、問題となっている属性の強調表示、ログの一時停止/再生を、きめ細かくコントロールできます。Live Tail を使用すれば、DevOps チームは、プロセスが正しく開始されたかどうかや、構成変更の影響、新しいデプロイがスムーズに実行されたかどうかをすばやく検証できます。

                Amazon CloudWatch Logs に Live Tail が追加され、リアルタイムでログの調査が可能に
              • AWS が CloudWatch Logs Anomaly Detection とパターン分析を発表

                本日、AWS は自動的なログのパターン分析や異常検出などの、CloudWatch での機械学習を活用した一連のログ分析機能の一般提供を発表いたします。これらの新機能を使用すると、簡単にログを解釈し、異常なイベントを特定し、その分析情報を利用して調査を進めたり速めたりすることができます。 ログデータの量と複雑さが増すにつれ、お客様は問題を発生時に検出し、何万ものログエントリをすばやく選別して根本原因を特定することが困難になっています。本日、ログを詳細に調べるための 3 つの新機能を使用できるようになったことを発表いたします。まず、パターンビューにより、ログのクエリ中に繰り返し発生するパターンを簡単に視覚化できます。次に、Logs Insights の比較モードにより、2 つの期間の間に「何が変わったか」即時に見つけることができます。3 つ目の機能として、Logs Anomaly Detect

                  AWS が CloudWatch Logs Anomaly Detection とパターン分析を発表
                • AWS Terraform – Cloud Watch Logs のサブスクリプションフィルタ + Lambda連携を Terraform管理 - Qiita

                  概要 Cloud Watch Logs のサブスクリプションフィルタを使うと ログのパターンを検出してLambdaを起動できる AWSコンソールからの作り方はCloudWatchのロググループを選んで「アクション」から設定できる これをTerraform管理する Terraformのコード例 resource "aws_cloudwatch_log_subscription_filter" "xxx" { name = "xxx" log_group_name = "/path/to/log_group" filter_pattern = "<フィルタパターン>" destination_arn = <LAMBDA関数のARN> } エラー 不要な指定 Error: putting CloudWatch Logs Subscription Filter (***********): Inv

                    AWS Terraform – Cloud Watch Logs のサブスクリプションフィルタ + Lambda連携を Terraform管理 - Qiita
                  • 【地味に嬉しいアップデートかも】IoT デバイスのログを Amazon CloudWatch Logs にバッチで送信できるようになりました。 | DevelopersIO

                    最後にレビューして問題なければルールの作成を実行します。 ルールが作成されました。 動作確認 ドキュメントにあるように、複数メッセージを配列にしたフォーマットで送ります。 今回は、マネジメントコンソールにあるテストクライアントから Publish しました。 [ {"timestamp": 1675406437124, "message": "Test message 1"}, {"timestamp": 1675406452935, "message": "Test message 2"}, {"timestamp": 1675406459217, "message": "Test message 3"} ] CloudWatch Logs 側を確認すると、配列に入れた3つのメッセージが個別のログとして格納されていることが確認できました。 単にログファイルの送信だけであれば、Basic

                      【地味に嬉しいアップデートかも】IoT デバイスのログを Amazon CloudWatch Logs にバッチで送信できるようになりました。 | DevelopersIO
                    • Amazon CloudWatch Logsにおける任意のログストリームページのURLを動的に生成する - Qiita

                      はじめに CloudWatch Logsと言えば、AWSを使っている人は必ずと言っていいほどお世話になるログ管理のサービスです。 サービス自体はシンプルでとても便利なんですが、なぜかURLがちょっと特殊な作りになっていて、僕自身、任意のログストリームページのURLを動的に生成しようとしたとき「ん?これどうなってんの・・・?」とはじめは戸惑いました。 ちょっとしたTips程度ですが、同様のことで悩んでいる人がいるかもなので記事にしておきます。 CloudWatch LogsのURL構造はどうなっているか URLは以下のようになっています。 ちなみにhoge-lambdaというLambdaを実行したときのログストリームのものです。 https://ap-northeast-1.console.aws.amazon.com/cloudwatch/home?region=ap-northeast-

                        Amazon CloudWatch Logsにおける任意のログストリームページのURLを動的に生成する - Qiita
                      • Cloudwatch logs insight のクエリ結果でアラーム設定する - Qiita

                        Cloudwatch logs insightは、クエリ的にログ検索ができるが、検索結果をそのままメトリクス化して監視やアラーム設定することができない。同じくCloudwatchのロググループにメトリクスフィルタを設定することでメトリクス化できるが、Cloudwatch logs insightほど複雑なフィルタ条件は設定できない。 前提条件 Cloudwatchを使ったログ収集をしていること AWS CLIが実行できる環境があること jqが実行できる環境があること Cloudwatch logs insightの結果をメトリクス化する 一定時間毎にCloudwatch logs insightにクエリした結果を、メトリクス化する。 shell scriptで、AWS CLIを使ってCloudwatch logs insightの情報を取得し、さらにCloudwatchのメトリクス として

                          Cloudwatch logs insight のクエリ結果でアラーム設定する - Qiita
                        • Datadog Logs Pipelinesの処理順序をTerraformで管理する - Qiita

                          できるようになること Pipelineの順番をTerraformで管理できるようになる(プリセットのPipeline含む) Pipelineの有効化/無効化をTerraformで管理できるようになる(プリセットのPipeline含む) 手順 DatadogAPIでpipelineの一覧を抽出する(pipeline_idを出力させるため) curl -X GET https://api.datadoghq.com/api/v1/logs/config/pipelines \ -H "Content-Type: application/json" \ -H "DD-API-KEY: xxxxxxxxxxxxxxxxxxxxxxxxxxxx" \ -H "DD-APPLICATION-KEY: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" [{"id":

                            Datadog Logs Pipelinesの処理順序をTerraformで管理する - Qiita
                          • AWS CLIの振り返り ~CloudWatch Logs入門編~ - Qiita

                            本記事の目的 JAWS-UG CLI オンラインハンズオンの復習として、ハンズオンで取り上げられたAWSサービスに関する用語と、使用したAWS CLI コマンドを箇条書きでまとめる。 今回はCloudWatch Logs入門編を取り上げる。 主なAWSサービス用語 ログイベント モニタリングされているアプリケーションまたはリソースによって記録されるアクティビティのレコード。 ログストリーム 同一のアプリケーションまたはリソースをモニタリング対象とする一連のログイベント。 ロググループ 保持、監視、アクセス制御に関して同じ設定を共有するログストリームの集合体。 主なAWS CLI コマンド一覧 ロググループの作成

                              AWS CLIの振り返り ~CloudWatch Logs入門編~ - Qiita
                            • CloudWatch-LogsからリアルタイムにLambdaを呼ぶ - Qiita

                              アドカレ案内 ← 10日目 @taniyam さん BigQueryで配列をヒストグラム用のデータに加工するUDFなど → 12日目 @saitotakashi さん GASでChatworkを自由自在に操る方法 ピカピカの新卒1年目のuetashです。 ちょっとAWSをさわる機会があり、ググっても日本語でヒットしなかったりしたので、この機会にナレッジを共有したいと思います。 tl; dr サブスクリプションフィルタを使いましょう。 以上! あとこの記事最高です: https://dev.classmethod.jp/cloud/aws/notify-error-cloudwatch-logs-with-lambda/ 背景・問題 あるとき、CloudWatch-Logsに特定のログが来た場合に、その内容をSlackに通知をしたいということがありました。 この際、CloudWatch-Lo

                                CloudWatch-LogsからリアルタイムにLambdaを呼ぶ - Qiita
                              • 【AWS】CloudWatch Logsからシステムログをメール通知する。

                                はじめに CloudWatch Logsから対象のシステムログをメール通知する方法をアウトプットします。 今回はCloudWatch Logsのサブスクリプションフィルターを使用します。 ※参考記事にあるクラスメソッドさんの記事を参考にしております。 構成 ログ送信の流れは以下の通りです。 ①EC2から CloudWatch Logs へログファイル出力 ②サブスクリプションフィルターで特定文字列をマッチさせて Lambda 関数を起動 ③Lambda 関数で該当メッセージを抽出、SNS 用に整形 ④該当文字列が含まれた行を SNS で通知(今回はメール) 前提 作業用IAMユーザーにて作業を実施 今回は、AmazonLinuxの/var/log/messagesからのログ抽出とします。 CloudWatch logs上に既にOS上のログが出力されている状態になります。(OS上のCloud

                                  【AWS】CloudWatch Logsからシステムログをメール通知する。
                                • CloudWatch logs のデータ保持期間を設定する際に、変更後の保持期間より古いデータはどうなるのか教えてください | DevelopersIO

                                  困っていること CloudWatch logs を利用中です。CloudWatch logs で データの保持期間 を設定する際に、変更後の保持期間より古いデータはどうなるのか教えてください。 どう対応すればいいの? 新たに設定するデータの保持期間より古いデータはロググループから削除されます。 そのため、十分に検討や確認してから設定変更することをお勧めします。 You can configure the retention setting for the time period that you want the log data to be stored in the log group. When a new log group retention setting is set, data that's older than the new retention setting is d

                                    CloudWatch logs のデータ保持期間を設定する際に、変更後の保持期間より古いデータはどうなるのか教えてください | DevelopersIO
                                  • Amazon CloudWatch Logs でのデータ保護 - Amazon CloudWatch Logs

                                    の一般的なデータ保護に関する以下の情報に加えて AWS、 CloudWatch Logs では、ログイベントの機密データをマスキングして保護することもできます。詳細については、「機密性の高いログデータをマスキングで保護する」を参照してください。 責任 AWS 共有モデル、Amazon CloudWatch Logs でのデータ保護に適用されます。このモデルで説明されているように、 AWS はすべての を実行するグローバルインフラストラクチャを保護する責任があります AWS クラウド。お客様は、このインフラストラクチャでホストされているコンテンツに対する管理を維持する責任があります。また、使用する AWS サービス のセキュリティ設定と管理タスクもユーザーの責任となります。データプライバシーの詳細については、「データプライバシーのよくある質問」を参照してください。欧州でのデータ保護の詳細につ

                                    • Redshift Serverlessの監査ログをCloudWatch Logs→S3バケットに転送してRedshift Spectrumで分析してみた | DevelopersIO

                                      Redshift Serverlessの監査ログをCloudWatch Logs→S3バケットに転送してRedshift Spectrumで分析してみた どーも、データアナリティクス事業本部コンサルティングチームのsutoです。 Redshift Serverlessの監査ログの出力先はCloudWatch Logsのみとなっていますが、そこに分析をかけたいとなると、 AthenaのFederated Query(CloudWatch Connector)を利用して直接CloudWatchロググループにアクセスして分析 CloudWatchロググループ→S3バケットに転送してRedshift Spectrumで分析 のどちらかを検討することになると思います。 しかし、上記に記載したとおりAthena Federated Queryではログのスキャン量や処理の遅さからコストパフォーマンスが良

                                        Redshift Serverlessの監査ログをCloudWatch Logs→S3バケットに転送してRedshift Spectrumで分析してみた | DevelopersIO
                                      • [CloudWatch Logs]ロググループにアクセス(エラー)ログが反映されないときの対処方法 - Qiita

                                        はじめに /etc/awslogs/awslogs.confに追加したログがロググループに反映されない、ということが起きたので実際に行った対処方法を乗せておきます。 その手の記事が乏しいような気がしたので。 「旧エージェントじゃなくて統合エージェントを入れろよ」という意見は受け付けません。何故ならその通りだからです。統合はソースが少ないような気がして日和っちゃったんですよ!!! 先に結論 access.log(error.log)ではなくaccess.log(error.log)-作成年月.gzの方に出力されているようであれば、/etc/awslogs/awslogs.confの指定を書き換える。 なにが起きたのか CloudWatch logsのエージェントをインストールし、/var/log/nginx/access.logと/var/log/nginx/error.logをロググループ

                                          [CloudWatch Logs]ロググループにアクセス(エラー)ログが反映されないときの対処方法 - Qiita
                                        • [신기능] Amazon CloudWatch Logs 민감 데이터 보호 기능에 대하여 | DevelopersIO

                                          안녕하세요 클래스메소드의 수재입니다. 이번 리인벤트 기간 중 AWS CloudWatch의 Logs 에서 민감한 데이터 보호 기능이 발표되었습니다. 간단한 내용이므로 바로 알아보도록 하겠습니다. AWS CloudWatch AWS, 온프레미스 및 기타 클라우드에서 리소스 및 애플리케이션을 관측하고 모니터링 Amazon CloudWatch는 실시간 로그, 지표 및 이벤트 데이터를 자동화된 대시보드에 수집하고 이를 시각화하여 인프라 및 애플리케이션 유지 관리를 간소화합니다. AWS CloudWatch는 지표, 로그 등을 수집하고 시각화 및 경보 등을 설정할 수 있는 서비스입니다. 이 중 CloudWatch Logs(로그)는 로그 그룹 별로 로그 스트림을 관리할 수 있습니다. 그리고 수집한 로그를 토대로 CloudW

                                            [신기능] Amazon CloudWatch Logs 민감 데이터 보호 기능에 대하여 | DevelopersIO
                                          • Step Functionsを使ってCloudWatch Logsのログストリーム整理を行なってみた - Qiita

                                            先にまとめ Step Functionsを使ってCloudWatch Logsのログストリーム整理する処理を作ってみた。 Step FunctionsからAWSのAPIを叩くことができるので、あまりLambdaに頼らずに処理をかける。 安直に処理を書くとけっこう簡単にStep Functionsの制限に引っかかる。 マネージメントコンソールから見ると、どういった処理なのか見通すことはできるが、CDKで記載したコード側から見ると、正直見通しがよいとは言えない。 ロググループの機能として保持期間の設定とかあるので、それで空になったログストリームは削除してくれる機能も提供されるといいのに 無理にStep Functionsだけでワークフローを組むとコストが見合わないこともある。(2022-01-11追記) はじめに CloudWatch Logsって保持期間の設定があって、保持期間を経過したログ

                                              Step Functionsを使ってCloudWatch Logsのログストリーム整理を行なってみた - Qiita
                                            • Public preview: Azure Monitor basic logs, archive, restore and search jobs | Azure の更新情報 | Microsoft Azure

                                              Azure を探索 Azure について 安全かつ将来を見据えた、オンプレミス、ハイブリッド、マルチクラウド、エッジのクラウド ソリューションについて調べる グローバル インフラストラクチャ 他のどのプロバイダーよりも多くのリージョンを備える持続可能で信頼できるクラウド インフラストラクチャについての詳細情報 クラウドの経済性 Azure の財務上および技術的に重要なガイダンスを利用して、クラウドのビジネス ケースを作成する 顧客イネーブルメント 実績のあるツール、ガイダンス、リソースを使用して、クラウド移行の明確なパスを計画する お客様事例 成功を収めたあらゆる規模と業界の企業によるイノベーションの例を参照する

                                                Public preview: Azure Monitor basic logs, archive, restore and search jobs | Azure の更新情報 | Microsoft Azure
                                              • 【小ネタ】CloudWatch Logsの料金が高かったのでAWS CLIを使って調査した話 | DevelopersIO

                                                西澤です。CloudWatch Logsは非常に便利で強力なサービスですが、ログ量が多くなる場合は課金に注意が必要です。今回AWS CLIで調査する機会があったので、その際の対応について簡単にまとめておきます。 CloudWatch Logsの料金(おさらい) 2020年2月時点での東京リージョンでのCloudWatch Logsの利用料金は以下のとおりです。 バージニアリージョンの料金が記載されているとの指摘を受けまして、下記料金を東京リージョンの最新の料金情報に合わせて訂正いたしました。大変申し訳ありません。 $0.76 : 取り込み GB あたり $0.033 : GB あたりのアーカイブ/月 料金 - AWS CloudWatch | AWS エクスポート時のデータ転送料金は置いておくと、"アーカイブ"の方はS3料金と大差がありませんが、問題となるのは"取り込みGBあたり"のところ

                                                  【小ネタ】CloudWatch Logsの料金が高かったのでAWS CLIを使って調査した話 | DevelopersIO
                                                • CloudWatch Logs Insights でURLのパスとクエリを分けて取得する - Qiita

                                                  255.255.255.255 - - [01/Apr/2021:11:28:40 +0900] "GET /api/hoge/fuga HTTP/1.1" 200 246 "https://example.com/hoge" "Mozilla/5.0 (Example User Agent)" "255.255.255.255" 255.255.255.255 - - [01/Apr/2021:11:28:41 +0900] "GET /api/foo?bar=xxx&piyo=zzz HTTP/1.1" 200 84 "https://example.com/hoge" "Mozilla/5.0 (Example User Agent)" "255.255.255.255" こんな感じの nginx のアクセスログがあって、CloudWatchLogsに転送されてるときに、 パス毎のア

                                                    CloudWatch Logs Insights でURLのパスとクエリを分けて取得する - Qiita
                                                  • RDS MySQLの監査ログがCloudWatch Logsにエクスポートされない場合の対処方法 | DevelopersIO

                                                    困っていた内容 RDS MySQL作成時に「ログのエクスポート」から監査ログを有効にしました。 しかし、CloudWatch Logsに監査ログがエクスポートされません。 どのようにすれば監査ログをCloudWatch Logsにエクスポートできるでしょうか? どう対応すればいいの? オプショングループにMariaDB 監査プラグインを追加する必要があります。 MariaDB 監査プラグインのサポート Amazon RDS では、MySQL データベースインスタンスでの MariaDB 監査プラグインの使用をサポートしています。MariaDB 監査プラグインは、データベースへのユーザーのログオンやデータベースに対して実行されたクエリなどのデータベースアクティビティを記録します。データベースのアクティビティのレコードはログファイルに保存されます。 必要となる作業は以下の2点です。 オプション

                                                      RDS MySQLの監査ログがCloudWatch Logsにエクスポートされない場合の対処方法 | DevelopersIO
                                                    • Amazon CloudWatch Logs Insights で ML を利用した pattern クエリコマンドを発表

                                                      Amazon CloudWatch で、お客様がログの傾向やパターンをより簡単に特定できる新しい Logs Insights コマンド「pattern」が発表されました。多くの場合、お客様は関連情報を特定するために何千行ものログを分析する必要があります。pattern コマンドは AWS Machine Learning アルゴリズムを使用して、ログデータのパターンを自動的に認識し、関連するログを集約し、何千行ものログを視覚化しやすいいくつかのグループにまとめます。pattern を使用すると、頻繁に発生するログ行を特定するなどして、お客様が新たな傾向を迅速に把握したり、既知のエラーをモニタリングしたり、コストの可視性を高めたりするのに役立ちます。 Amazon CloudWatch Logs Insights は、CloudWatch 用の完全に統合されたログ分析サービスです。従量制料金

                                                        Amazon CloudWatch Logs Insights で ML を利用した pattern クエリコマンドを発表
                                                      • CloudWatch Logs から Subscription Filter で Firehose, S3 へ

                                                        CloudWatch Logs から Subscription Filter で Firehose, S3 へ CloudWatch Logs(CWL)から Subscription Filter で Kinesis Data Firehose(Firehose) を利用して、S3 へログを保存というケースで、 Firehose で Lambda による Transform を実施したいことがある(ある情報をマスクする、秘匿化するなど)。 その時の考慮事項、実装方法など。 アーキテクチャ 考慮事項など CWL から Firehose への転送の時点でログは既に gzip 圧縮されている Firehose で Lambda による Transform を行う場合は、Lambda 関数内で gzip を展開する必要がある Firehose で S3 配信時に gzip 圧縮を選択しても拡張子は

                                                        • Cloudflare Logs | 詳細な分析と知見

                                                          CloudflareではHTTPリクエストの詳細ログを提供しています。 これらのログを使ってデバッグし、パフォーマンスやセキュリティの改善、カスタム分析の作成のために設定の調整を行いましょう。

                                                            Cloudflare Logs | 詳細な分析と知見
                                                          • CloudWatch Logs Insights 使い方と注意点(Go) - ぺい

                                                            高速でインタラクティブなログ分析!!!! 新機能 – Amazon CloudWatch Logs Insights – 高速でインタラクティブなログ分析 | Amazon Web Services ブログ 仕事で導入する機会があり、その時の使用感とハマりポイントをまとめてみました。 ユースケース ログがレコード数6,500,000/1時間くらいあるものから、特定の文字列にヒットするものを取得したい。フルスキャンしなくていいので、1日の中から10件の対象ログを探したい。 使用感や注意点 ※利用したログでの使用感です 日付の範囲を1日とかにすると、そこまで早くない(検索完了まで3分〜4分はかかった) 従来のログ検索だと、5分のレンジで検索しても、15分以上かかっていたけど、Insightsなら、10秒程度で検索が完了した リアルタイムに何か検知するのは無理。インデックスを作成しているか何かで

                                                              CloudWatch Logs Insights 使い方と注意点(Go) - ぺい
                                                            • CloudWatch Logs InsightsとFlowLogs+Athenaでログ分析(準備編) - Qiita

                                                              目的 監視 ログ取得 用途 ホストに入らずログを確認できる ログを保存期間を定めて、その期間ログの消失を防ぐ 障害発生時、起動しないEC2のログをS3に保存する設定をしておくことで確認できる ログを改ざんに気づける ログローテーションされてもログを見るられる SystemsManager(SSM) SystemsManagerとは AWSのインフラストラクチャを可視化し、制御する AWSサービスの運用データを確認でき、運用タスクを自動化できる 自動化ツール インベントリ オートメーション ランコマンド パッチマネージャー メンテナンスウィンドウ ステートマネージャー パラメータストア Run Command 対象 Windows/Linux 用途 ログインせずにコマンド実行 実行をCloudTrailで追跡可能 タイムアウトやリトライ回数制御 実行対象はタグ、インスランス指定 実行内容はド

                                                                CloudWatch Logs InsightsとFlowLogs+Athenaでログ分析(準備編) - Qiita
                                                              • Amazon AWS CloudWatch Logs Insights で 指定したキーワードにヒットしたログを1分単位でグループ化して抽出する - Qiita

                                                                fields @timestamp, @message | filter Records.0.cf.request.body.data = "★キーワード★" | stats count(*) as polling_count by datefloor(@timestamp, 1m) as ts | sort ts asc

                                                                  Amazon AWS CloudWatch Logs Insights で 指定したキーワードにヒットしたログを1分単位でグループ化して抽出する - Qiita
                                                                • CloudWatch Logs を利用してログ出力する際、ログが途切れてしまう原因を教えてください | DevelopersIO

                                                                  困っていること Node.js を用いた Lambda Function 内で test.log を利用して CloudWatch Logs に対しログ出力しています。ログを確認したところ出力されたログが途中で途切れてしまう場合があります。 リクエストあたりのデータ量が多いケースにおいては、ログファイルの結果が途中で途切れてしまい全て表示できていない状況です。原因について教えてください。 どう対応すればいいの? ドキュメント 記載の通り、CloudWatch Logs では 1 つのログイベントサイズにおいて 256 KB の制約がございます。こちらを起因として当該事象が発生したと考えられます。 イベントサイズ 256 KB (最大)。このクォータは変更できません。 Lambda 関数から標準出力によって CloudWatch Logs にログを出力する場合、上記のサイズを超過するログは複

                                                                    CloudWatch Logs を利用してログ出力する際、ログが途切れてしまう原因を教えてください | DevelopersIO
                                                                  • check-aws-cloudwatch-logs-insights (ベータ版)を公開します - Mackerel お知らせ #mackerelio

                                                                    こんにちは。 Mackerel チームの id:astj です。 本日、Amazon CloudWatch Logs 上のログを監視するチェック監視プラグイン check-aws-cloudwatch-logs-insights のベータ版を GitHub 上で公開します。これは、 CloudWatch Logs Insights の API を利用することで、流量の多いロググループに対してもログ監視を実現できるようにすることを意図したプラグインです。 github.com Amazon CloudWatch Logs 上のログを監視する Mackerel の公式チェックプラグインは check-aws-cloudwatch-logs *1 が既に存在します。 check-aws-cloudwatch-logs は流量の少ないロググループに対しては十分に動作しますが、流量の多いロググループ

                                                                      check-aws-cloudwatch-logs-insights (ベータ版)を公開します - Mackerel お知らせ #mackerelio
                                                                    • Heroku logsを打つとエラーが出た時の対処 - Qiita

                                                                      Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

                                                                        Heroku logsを打つとエラーが出た時の対処 - Qiita
                                                                      • LocalStack を使って CloudWatch Logs サブスクリプションフィルタをローカル環境で試す - kakakakakku blog

                                                                        Amazon CloudWatch Logs サブスクリプションフィルタを使ってログを AWS Lambda に流す構成を AWS アカウントにデプロイする前に LocalStack にデプロイして確認してみた❗ docs.aws.amazon.com LocalStack は Amazon CloudWatch Logs サブスクリプションフィルタもサポートしている👌しかし注意点はあって,サブスクリプションフィルタに設定するフィルタパターン(JSON フィルタ・正規表現フィルタなど)は LocalStack Pro でサポートされている💡よって,今回はフィルタなし(すべてのログを流す)で試す. docs.localstack.cloud あくまでサンプルとして以下の構成を LocalStack を使ってローカル環境にデプロイする. サンプルコード 👾 template.yaml(A

                                                                          LocalStack を使って CloudWatch Logs サブスクリプションフィルタをローカル環境で試す - kakakakakku blog
                                                                        • MySQL :: MySQL 8.0 リファレンスマニュアル :: 13.4.1.1 PURGE BINARY LOGS ステートメント

                                                                          SAVEPOINT、ROLLBACK TO SAVEPOINT および RELEASE SAVEPOINT ステートメント

                                                                          • AWS WAFのログをCloudWatch Logs Insightsで分析する | DevelopersIO

                                                                            はじめに 私が担当している案件ではAWS WAFを使っています。以前はログをKinesis firehoseを使ってS3に出力してAthenaで分析していたのですが、CloudWatch Logsに直接出力できるようになったので、CloudWatch Logs Insightsで分析してみました。 クエリを使って分析する CloudWatch Logs Insightsのクエリを使ってログを分析してみます。 クエリ構文の詳細はこちらをご覧ください。 時間を指定したい場合 時間を指定したい場合はCloudWatch Logsの右上のコントロールで設定します。タイムゾーンは UTC か Local に設定できます。 クエリ内で時間を指定したい場合はunixタイムスタンプをミリ秒単位にした値を以下のように指定します。YYYY-MM-DD のように文字列で指定する方法は見つけられませんでした。 f

                                                                              AWS WAFのログをCloudWatch Logs Insightsで分析する | DevelopersIO
                                                                            • EKS Worker NodeのkubeletログをFluentdで収集しCloudWatch Logsに集約させる - Qiita

                                                                              はじめに EKSに立てたPodのログは標準出力に吐き出すようにしてFluentdで収集するのが楽な方法です。 Worker Nodeのkubeletのログはjournalログであり次のコマンドで確認できます。 今回はEKS worker nodeのkubeletのログをFluentdで収集しCloudWatch Logsに集約させる方法を説明します。 環境情報 MacOS Mojave 10.14.6 EKS 1.16 Helm 3.4.0 Helmfile 0.122.0 前提 EKSクラスタが構築されていること。 kube2iamがデプロイされていること。 手順 Helmfileでfluentd-cloudwatchをデプロイします。 このHelm Chartで使用されるFluentdのDockerイメージにはfluent-plugin-systemdプラグインが同梱されているためjo

                                                                                EKS Worker NodeのkubeletログをFluentdで収集しCloudWatch Logsに集約させる - Qiita
                                                                              • [アップデート] CloudWatch Logs メトリクスフィルターでディメンションがサポートされました! | DevelopersIO

                                                                                [アップデート] CloudWatch Logs メトリクスフィルターでディメンションがサポートされました! コンバンハ、千葉(幸)です。 CloudWatch Logs のメトリクスフィルターがディメンションをサポートしました! Amazon CloudWatch Logs announces Dimension support for Metric Filters メトリクスフィルターで設定しているフィールドの値を、ディメンションとしてメトリクスとともにパブリッシュできるようになりました。(こう書くと何がなんやらですね。) 何ができるようになったのか イメージとしては以下です。 メトリクスフィルターにディメンションを設定できるようになり、メトリクスフィルターからパブリッシュされたメトリクスにディメンションを付与することができるようになりました。 特定の条件にマッチしたログが出力された際

                                                                                  [アップデート] CloudWatch Logs メトリクスフィルターでディメンションがサポートされました! | DevelopersIO
                                                                                • 【小ネタ】OpsWorks 管理下の EC2 インスタンスから CloudWatch Logs にログを転送する

                                                                                  お久しぶりです、インフラストラクチャー部の沼沢です。 久しぶりのくせに今回は小ネタです。 OpsWorks で管理している EC2 インスタンスのログを、CloudWatch Logs に転送する場合、以前は自前で Chef Recipe を用意して Execute Recipe をする必要がありました。 ただ、(いつからかは把握できてませんが) 現在は、OpsWorks コンソールや CLI だけで簡単に設定できるようになっています。 今回はこれを試してみた結果の共有と、注意点を書き記しておきます。 前提条件今回試した環境は以下の通りです。 記載のないものは適当に設定していただければ問題無いと思います。 Stack Chef version: 11.10OpsWorks Agent version: 3449 (Jun 5th 2018)Default IAM instance prof

                                                                                    【小ネタ】OpsWorks 管理下の EC2 インスタンスから CloudWatch Logs にログを転送する