並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 4 件 / 4件

新着順 人気順

data-streamの検索結果1 - 4 件 / 4件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

data-streamに関するエントリは4件あります。 kappaArchitecturedatasetaws などが関連タグです。 人気エントリには 『GitHub - activeloopai/deeplake: Database for AI. Store Vectors, Images, Texts, Videos, etc. Use with LLMs/LangChain. Store, query, version, & visualize any AI data. Stream data in real-time to PyTorch/TensorFlow. https://activeloop.ai』などがあります。
  • GitHub - activeloopai/deeplake: Database for AI. Store Vectors, Images, Texts, Videos, etc. Use with LLMs/LangChain. Store, query, version, & visualize any AI data. Stream data in real-time to PyTorch/TensorFlow. https://activeloop.ai

    Deep Lake is a Database for AI powered by a storage format optimized for deep-learning applications. Deep Lake can be used for: Storing and searching data plus vectors while building LLM applications Managing datasets while training deep learning models Deep Lake simplifies the deployment of enterprise-grade LLM-based products by offering storage for all data types (embeddings, audio, text, videos

      GitHub - activeloopai/deeplake: Database for AI. Store Vectors, Images, Texts, Videos, etc. Use with LLMs/LangChain. Store, query, version, & visualize any AI data. Stream data in real-time to PyTorch/TensorFlow. https://activeloop.ai
    • Amazon Connectで自動ヒアリングした内容をBedrockで要約し、メール通知する(Kinesis Data Stream + Step Functions) | DevelopersIO

      以下に構成図を示します。 処理の内容は以下のとおりです。 Lexボットでお問い合わせ内容をヒアリングする ヒアリング内容をコンタクト属性として保存する キー名:recording、値はヒアリング内容のテキスト 切断直後、問い合わせレコードがKDSにストリーミングされ、EventBridge Pipes経由でStep Functionsステートマシンを起動する 問い合わせレコードには、コンタクト属性(recording)、コンタクトID、発信元電話番号、日時などが保存されている ステートマシンでは以下の処理を行う ステートマシンに渡された問い合わせレコードから、ヒアリング内容であるコンタクト属性(recording)を取得する Bedrockを使用して、お問い合わせ内容の文章を整形する 整形した文章とコンタクトID、発信元電話番号等をAmazon SNSでメール送信する 以前、AWS Lam

        Amazon Connectで自動ヒアリングした内容をBedrockで要約し、メール通知する(Kinesis Data Stream + Step Functions) | DevelopersIO
      • Designing a Production-Ready Kappa Architecture for Timely Data Stream Processing

        Designing a Production-Ready Kappa Architecture for Timely Data Stream Processing At Uber, we use robust data processing systems such as Apache Flink and Apache Spark to power the streaming applications that helps us calculate up-to-date pricing, enhance driver dispatching, and fight fraud on our platform. Such solutions can process data at a massive scale in real time with exactly-once semantics,

          Designing a Production-Ready Kappa Architecture for Timely Data Stream Processing
        • Kinesis Data Streamをソース、LambdaをターゲットにEventBridge Pipeを構築するポイントをまとめてみた(AWS SAMテンプレート付き) | DevelopersIO

          Amazon EventBridge Pipesはプロデューサー・コンシューマー型のイベントを連携するサービスです。 Pipesでイベントを取得するソース、イベントを処理するターゲットを指定するだけで、グルーコード無しにシームレスにイベント駆動処理できます。 ソースにストリームサービスのAmazon Kinesis Data Stream、ターゲットにAWS Lambdaを指定して、ストリーム処理パイプラインをEventBridge Pipesでいい感じに構築するポイントを紹介します。 AWS SAMで検証環境構築 GitHubのレポジトリ aws-samples/serverless-patterns には、サーバーレス・パターンごとにCDK/SAMなどのテンプレートが掲載されています。 どういうわけか、Kinesis Data Stream - EventBridge - Lambda

            Kinesis Data Streamをソース、LambdaをターゲットにEventBridge Pipeを構築するポイントをまとめてみた(AWS SAMテンプレート付き) | DevelopersIO
          1

          新着記事