Empower software engineers to prepare and deliver the most complex application data for analytics & AI, in minutes! Enjoy the cost savings and scale of a cloud-native Lakehouse, without the engineering pain.
Amazon Web Services ブログ Upsolver、Amazon Athena、Amazon QuickSight を使用して Google Analytics データを分析する この記事では、Amazon Athena を使用して Google Analytics データを分析するためのソリューションを紹介します。Google Analytics から Amazon S3 にヒットレベルのデータを移動し、結合と強化を実行し、Amazon Athena と Amazon QuickSight を使用してデータを視覚化することで構築されたリファレンスアーキテクチャが含まれています。Upsolver は、顧客が迅速にデータレイクの自動化やオーケストレーションを開始できるようにします。 Google Analytics は、ウェブプロパティとアプリケーションのパフォーマンスを理解し
[Track_B][13:40-14:00]サポーターセッション:AWSとZendeskが繋がったら、楽しいの?美味しいの?嬉しいの? セッション内容 日本でも近年少しずつ知名度を上げつつあるカスタマーコミュニケーションプラットフォーム"Zendesk"。APIが充実していてハック要素満載のZendeskとAWSを連携させると、どこが楽しくて、何が美味しくて、どう嬉しいのか? Zendesk導入実績APAC No.1のエクレクトのAWSを愛してやまないプリセールスエンジニアが具体的な構成パターンを紹介しながらAWS-Zendesk連携の魅力を語ります。 登壇者 株式会社エクレクト 逢坂 文哉 株式会社エクレクト プリセールスエンジニア 資料
こんにちは!POSグループのhktです。 こちらの記事は、「S3のコスト削減に失敗した話」の後編になります。 もしまだ前編をご覧になっていない方は、ぜひ読んでみてください。 さて、前編では、S3のコストを調査したところ、最も費用がかかっているのがPutObjectであることが判明しました。 今回は、S3のコストを削減するために、PutObjectの実行回数を減らすことはできないか検討しました。 PutObjectの実行回数を減らしたい POSグループが運用するAWSアカウントでは、ログデータをS3に保存するために、Kinesis Data StreamsをトリガーとするLambda関数が稼働しています。 具体的には、以下のような構成になっています。HandsPOSアプリからKinesis Data Streamsにログデータが送信され、Kinesis Data StreamsからLambd
BigQuery は、大規模なデータセットに対しパフォーマンスの高いクエリを実行できるクラウド データ ウェアハウスです。 すべての未加工のイベントを Google アナリティクス 4 プロパティ(サブプロパティや統合プロパティを含む)から BigQuery にエクスポートし、SQL タイプの構文を使ってそれらのデータにクエリを発行できます。BigQuery では、アナリティクスのデータとの統合を目的に、データを外部ストレージにエクスポートすることや、外部データをインポートすることが可能です。 データを BigQuery にエクスポートすると、そのデータの所有者になり、BigQuery ACL を使用して、プロジェクトやデータセットの権限を管理できます。 1 日 1 回、すべてのデータのエクスポートが行われます。さらに、データのエクスポートは 1 日を通して継続的に実行されます(詳しくは下
ラムダアーキテクチャとはラムダアーキテクチャとは、膨大なデータ「ビッグデータ」を処理するアプローチです。ハイブリッドアプローチを使用してバッチ処理やストリーム処理メソッドへのアクセスを提供し、任意の関数を計算する問題を解決するために使用されます。ラムダアーキテクチャは3つのレイヤーから構成されています。 バッチレイヤー新しいデータは、データシステムへのフィードとして継続的に提供されます。データはバッチレイヤーとスピードレイヤーに同時に供給されます。全てのデータを一度に調べ、最終的にストリームレイヤー内のデータを修正します。ここでは、多くの ETL と従来型のデータウェアハウスを見つけることができます。このレイヤーは、通常 1 日に 1 回または 2 回、事前定義されたスケジュールを使用して構築されます。バッチレイヤーには、次の 2 つの重要な機能があります。 マスターデータセットの管理バッ
©2023 10X, Inc. 自己紹介 • 水谷優斗 ◦ 各種id: @tenajima • 株式会社10X データ基盤チーム データエンジニア ◦ 2023年2月入社 ◦ 小売企業企業へのダッシュボードの提供、社内データ基盤の運用 • 経歴 ◦ Fringe81(現Unipos) にデータサイエンティストとして新卒入社 ◦ データサイエンティストとして広告基盤の改善に取り組んだり、 HR SaaSのデータ活用に取り組ん だり ◦ 2021年4月頃からデータ分析基盤の作成、社内のデータ活用に取り組むようになる • 趣味 ◦ 野球とワンピース はじめにに ©2023 10X, Inc. 提供プロダクト お客様アプリ • 数万SKUから商品からスムーズにカゴを作成できるUX • キーワード・カテゴリ検索・お気に入り・注文変更・ 購入履歴といった基本機能 • 商品の受け取り方法を選択 • 注文
ステージングデータ¶ このトピックでは、データファイルをロード用に準備するためのベストプラクティス、一般的なガイドライン、および重要な考慮事項について説明します。 このトピックの内容: パスによるデータの整理¶ 内部(つまり、Snowflake)および外部(Amazon S3、Google Cloud Storage、またはMicrosoft Azure)両方のステージ参照には、パス(または AWS の用語では プレフィックス)を含めることができます。通常のデータセットをステージングするときは、データが書き込まれた日付とともに、地理的位置やその他のソース識別子などの詳細を識別する論理パスにデータをパーティション分割することをお勧めします。 パスごとにデータファイルを整理すると、1つのコマンドで分割データの一部をSnowflakeにコピーできます。これにより、並列操作を利用して、ファイルのサ
This article contains wording that promotes the subject in a subjective manner without imparting real information. Please remove or replace such wording and instead of making proclamations about a subject's importance, use facts and attribution to demonstrate that importance. (May 2015) (Learn how and when to remove this message) Data lineage includes the data origin, what happens to it, and where
スタースキーマ wikipedia スタースキーマ または 星型スキーマ はデータウェアハウスに利用される最も単純なスキーマである。スタースキーマには唯1つもしくは少数のファクト表と複数のディメンション表が含まれる。スタースキーマはスノーフレークスキーマの一種であるが、多くの用途で利用されている。 スタースキーマは、ディメショナル・モデリングをリレーショナル・データベースで実装したものになる。 詳しくは、ディメンショナル・モデリング にまとめている。 この記事は、あなたが「様々な指標を様々な軸で、レポートを見たい」類の要望に応えるためのスキーマ設計に困っている場合に役立つだろう。 ディメンションテーブル設計 サロゲートキー スタースキーマでは、各ディメンションテーブルに、サロゲートキーを割り当てる。このキーは、業務システムで使われているキー(ナチュラルキー)とは別のものを使用し、データウェ
複数スタースキーマ(Multiple star schema) 1つのファクトで、全ての分析対象がカバー出来ることは稀である。ほとんどのケースで複数のファクトテーブルが必要になるだろう。本当に価値ある分析は複数のプロセスを横断した分析である。これを誤った方法で実現するとどうなるか?どうすれば良いのかを見ていく。 スタースキーマの作り方に関しては、別の記事にまとめている 。 発生タイミングが異なるファクト 2つ以上のファクトがあったとする。それらは同時に発生しないファクトである場合、異なるファクトテーブルに配置するべきである。誤って単一ファクトテーブルにまとめられると、個々の分析が困難になる。もし分けていれば個々に分析が可能になる。 ある営業部門で以下のような分析要件があったとする。 日付、顧客、製品別注文数量の分析 日付、顧客、製品別出荷量の分析 ディメンションは日付と顧客。ファクトは製品
Amazon S3 テーブル定義の既存のフィールドに対する更新をクローラーで上書きしない場合は、コンソールでオプションとして [Add new columns only] (新しい列の追加のみ) を選択するか、設定オプションとして MergeNewColumns を設定します。これはテーブルとパーティションに適用されます (Partitions.AddOrUpdateBehavior を InheritFromTable で上書きしていない場合)。 クローラーの実行時にテーブルスキーマを一切変更しない場合は、スキーマ変更ポリシーを LOG に設定します。設定オプションにより、テーブルから継承するようにパーティションスキーマを設定することもできます。 コンソールでクローラーを設定する場合は、以下のアクションを選択できます。 変更を無視し、Data Catalog のテーブルを更新しない すべ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く