並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 17 件 / 17件

新着順 人気順

DataLakeの検索結果1 - 17 件 / 17件

  • Developers.IO 2019 Tokyoで「Effective Datalake 〜基礎からわかるデータレイクの定義と実践〜」というタイトルで発表してきました #cmdevio | DevelopersIO

    クラスメソッドの石川です。 先日開催いたしましたDevelopers.IO 2019 in TOKYOにお越し頂きましてありがとうございました。 表題の通り、データレイクについてお話をさせて頂きました。 スライド こちらがスライドになります。 こんな事を話してた はじめに データレイクとは AWS Glue Aamzon Athena / Redshift Spectrum データ設計のベストプラクティス Redshiftからデータレイクの移行 AWS Lake Formation まとめ まとめ Glue/Athena/Redshift Spectrumで始まったAWSのデータレイクは、Lake Formationによって統合され大きな進化を遂げました。その過程を私なりの解釈と定義に基づいて、現在に至る基礎的なサービスとその動作原理、データ設計のベストプラクティスについ

      Developers.IO 2019 Tokyoで「Effective Datalake 〜基礎からわかるデータレイクの定義と実践〜」というタイトルで発表してきました #cmdevio | DevelopersIO
    • 【初データレイク体験】AWS Loft Osakaで DataLake ハンズオンを受けてきた(公開資料URLあり) | DevelopersIO

      大阪オフィスのちゃだいんです。 本日はAWS Pop-Up Loft Osakaにて、ハンズオンに参加してきました。 今回はそのハンズオンの内容をご紹介したいと思います。 その前に、 AWS Pop-Up Loft Osakaは期間限定でオープンしており、本日が最終日でした...(涙) 大阪のど真ん中一等地に、無料でコーヒーももらえるコワーキングスペース。中之島の高層ビル26階からの眺めを楽しみながら、優雅にパソコンパチパチできる稀有な場所でした。 どんな場所だったのかは、このブログをご覧ください。 【AWS Loftが大阪に期間限定オープン!】オープンしたてのAWS Pop-Up Loft Osakaで早速リモートワークしてみた #awsloft ハンズオン概要 DataLake ハンズオン OCT 31,2019 About the event(上記ページより抜粋) 幅広いデータソース

        【初データレイク体験】AWS Loft Osakaで DataLake ハンズオンを受けてきた(公開資料URLあり) | DevelopersIO
      • 医療データレイクで分析基盤の構築 / JAWS DAYS 2021 JMDC DATALAKE

        JAWS DAYS 2021-03-20の登壇資料。 株式会社JMDCのデータレイクの取扱いについて紹介します。 https://jawsdays2021.jaws-ug.jp/timetable/track-d-1100/

          医療データレイクで分析基盤の構築 / JAWS DAYS 2021 JMDC DATALAKE
        • LeoFS - A Storage System for a DataLake and the Web

          LeoFS v1.4 Released LeoFS v1.4.3 on February 20, 2019 Status: Stable New features: Improve AWS S3-API Compatibility AWS Signature v4 support Custom metadata support Improve NFS v3 support Improving the performance and stability Integration Improving Spark integration Data Lake LeoFS moved a step closer to Data Lake with v1.4. We're aiming to achieve a highly beneficial effect to Big Data analytics

          • amazon-s3-datalake-handson/JP at master · aws-samples/amazon-s3-datalake-handson

            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

              amazon-s3-datalake-handson/JP at master · aws-samples/amazon-s3-datalake-handson
            • LeoFS - A Storage System for a DataLake and the Web

              LeoFS v1.4 Released LeoFS v1.4.3 on February 20, 2019 Status: Stable New features: Improve AWS S3-API Compatibility AWS Signature v4 support Custom metadata support Improve NFS v3 support Improving the performance and stability Integration Improving Spark integration Data Lake LeoFS moved a step closer to Data Lake with v1.4. We're aiming to achieve a highly beneficial effect to Big Data analytics

              • amazon-s3-datalake-handson/JP/README.md at master · aws-samples/amazon-s3-datalake-handson

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  amazon-s3-datalake-handson/JP/README.md at master · aws-samples/amazon-s3-datalake-handson
                • GitHub - blobcity/db: A blazing fast ACID compliant NoSQL DataLake with support for storing 17 formats of data. Full SQL and DML capabilities along with Java stored procedures for advanced data processing.

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                    GitHub - blobcity/db: A blazing fast ACID compliant NoSQL DataLake with support for storing 17 formats of data. Full SQL and DML capabilities along with Java stored procedures for advanced data processing.
                  • AWS DataLake 構築ハンズオンに行ってきました - ヤマムギ

                    AWSJ大阪が増床されて2019年10月限定でAWS pop-up loftというコワーキングスペースを解放されていて、そこでデータレイクハンズオンが開催されていましたので行ってきました。 10/31の最終日でしたので、最後に来られてよかったです。 Still Day One!! DeepRacerな席もあります。 さて、ハンズオンです。 期間限定ロフトなのでステッカーはレアになるかもしれないですね。 いただきました。 ハンズオンの前に少しセミナーがありました。 すごく参考になりました。 以下は、気になったことのメモとか感想を書いています。 登壇者、発表者、主催企業などの意図とは異なる可能性がありますことをご了承ください。 なぜ、データレイクか? 何をどう分析するか? データをどうためていくべきか? まずはAWSの王道アーキテクチャを使って構成してみるハンズオン。 使ってみて、自社課題に対

                      AWS DataLake 構築ハンズオンに行ってきました - ヤマムギ
                    • GitHub - aws-samples/amazon-s3-datalake-handson: This provides the contents for AWS Data Lake Handson in both Japanese and English.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - aws-samples/amazon-s3-datalake-handson: This provides the contents for AWS Data Lake Handson in both Japanese and English.
                      • データ分析基盤・DataLakeを作成するツールとしてのEmbulk - Qiita

                        この記事はエイチーム引越し侍 / エイチームコネクトの社員による、Ateam Hikkoshi samurai Inc.× Ateam Connect Inc. Advent Calendar 2021 3日目の記事です。 はじめに 今日は、最近のお仕事で触ることになる可能性が高いEmbulkについて書きます。 触ることになるとあるようにEmbulkを使い始めるソフトウェアエンジニアによる記事です。説明に至らない点があったり間違っていたりするかもしれません。その際は編集リクエストなりコメントなりでご指摘いただけたら幸いです。 何に使うかですが、データ分析基盤、DataLake作成におけるETL処理のために使います。ちなみにETLはExtract、Transform、Loadの略でデータを抽出、変換・加工、ロード(Output)する処理のことです。 ETL処理ツールとしては過去Pentaho

                          データ分析基盤・DataLakeを作成するツールとしてのEmbulk - Qiita
                        • Aurora Cluster Cloneを使ったDataLake連携 - Qiita

                          Aurora ClusterからのDatalake連携で、Cluster Cloneという仕組みを活用すると非常に便利だったので紹介します。 この記事では、Aurora Clusterをbatch連携でDataLakeに流し込む設計の話を扱います。他にもDMSを用いてstream連携する方法などがありますが、ここではscope outします。 そもそも「DataLake連携」とは? チームや書籍によって少しずつ定義が異なると思いますが、ここでは「データ分析環境を構築するために本番DBからデータを抽出してくる仕組み」を指します。 データ分析では複雑なSQLやpython scriptを用いてデータを処理していくことが多いですが、これを本番DBに直接実行してしまうと負荷が大きくサービス運用に支障が出ます。 そこで、AWSではS3 bucketにデータを吐き出すことでそこにAthenaを通してア

                            Aurora Cluster Cloneを使ったDataLake連携 - Qiita
                          • LeoFS - A Storage System for a DataLake and the Web

                            LeoFS v1.4 Released LeoFS v1.4.3 on February 20, 2019 Status: Stable New features: Improve AWS S3-API Compatibility AWS Signature v4 support Custom metadata support Improve NFS v3 support Improving the performance and stability Integration Improving Spark integration Data Lake LeoFS moved a step closer to Data Lake with v1.4. We're aiming to achieve a highly beneficial effect to Big Data analytics

                            • PolyBaseを使ってDataLakeへデータをEXPORTしてみた - Qiita

                              以前、Synapse SQLプールへPolyBaseを使って、DataLakeからデータのロードを行いました。 PolyBaseでSynapse SQLプールにデータを投入してみた 今回はその逆でSynapse SQLプールからPolyBaseをつかってDataLake Storageへデータを出力します。 全体の流れ 以下の流れでデータの出力を行います。 1. 認証情報の作成(CREATE MASTER KEYとCREATE DATABASE SCOPED CREDENTIAL) 2. 外部データソースの作成 3. ファイルフォーマットの作成 4. CREATE EXTERNAL TABLE AS SELECTでデータを出力 また、1、2に関しては以前に紹介した記事に記載したものをそのまま利用していますので、今回は説明は割愛します。 ファイルフォーマットの指定 ファイルフォーマットを指定

                                PolyBaseを使ってDataLakeへデータをEXPORTしてみた - Qiita
                              • Datalake Creation In AWS (S3, AWS Glue, Athena) | DevelopersIO

                                In this blog we will create a Datalake using Amazon S3 and use AWS Glue to crawl the data from S3 to build a metadata store. Finally, query the data in Amazon Athena using standard SQL. Introduction A Datalake is the most popular way to store and analyse the massive amount of data. A data lake allows organisations to store all their data—structured and unstructured—in one centralised repository. A

                                  Datalake Creation In AWS (S3, AWS Glue, Athena) | DevelopersIO
                                • RDSに蓄積しているアクセスログを今すぐDataLakeに移行する - Qiita

                                  DataLakeとは https://aws.amazon.com/jp/big-data/datalakes-and-analytics/what-is-a-data-lake/ AWS公式の記述を引用すると データレイクは、規模にかかわらず、すべての構造化データと非構造化データを保存できる一元化されたリポジトリです。データをそのままの形で保存できるため、データを構造化しておく必要がありません。また、ダッシュボードや可視化、ビッグデータ処理、リアルタイム分析、機械学習など、さまざまなタイプの分析を実行し、的確な意思決定に役立てることができます。 当記事ではDataLakeのデータストアをS3とし、既存のRDSに蓄積されている既存ログ(レガシー)をGlueを使ってS3に移行する手順を紹介します。 なお、S3に移行したログの可視化や活用方法は当記事の対象範囲外です。 (ただしAthenaを使

                                    RDSに蓄積しているアクセスログを今すぐDataLakeに移行する - Qiita
                                  • AWS Datalake Hands-on(2019 May)メモ | フューチャー技術ブログ

                                    AWS Datalake Hands-on(2019 May)メモ2019/05/29にAWS Japanで行われたDataLakeについてのHands-onメモです。 目次 0.はじめに 1.参加の背景 2.手を動かす、その前に 3.ハンズオンでやったこと 4.まとめ 0. はじめに自己紹介はじめまして、Technology Innovation Groupの柳澤です。こちらのブログへ投稿するのは初めてなので、簡単に自己紹介させていただきます。 2018年の5月にFutureへ中途採用で入社した社会人6年目になります。前職のメーカー系SIerではフロント業務からオンプレのアプライアンスもいじるなんでも屋さんみたいな立ち回りをしていました。 Future入社後は業務でクラウドを触ったことがなかった状態で、GCPの運用やオンプレ→AWSのリフト案件の推進など、なかなか刺激的な経験を積んでいた

                                      AWS Datalake Hands-on(2019 May)メモ | フューチャー技術ブログ
                                    1