ClouderaとHortonworksが合併を発表。エッジからAIまでをカバーするデータクラウドの提供へ 統合後の新会社のCEOにはクラウデラのCEOであるTom Reilly氏が、COOにはHortonworksのCOOであるScott Davidson氏がそれぞれ就任予定。 HortonworksのCEO Rob Bearden氏は新会社の取締役に就任予定。また、HortonworksのChief Product OfficerであるArun C. Murthy氏が新会社でもChief Product Officerを務めるとのことです。 両社は現在それぞれのブランドで製品を提供していますが、合併後に製品ラインをひとつに統合するとともに、エッジからAIまでをカバーするエンタープライズ向けのデータクラウドを提供するとしています。 新会社のCEOに就任予定であるクラウデラのTom Rei
【Hortonworksとは】 100%オープンソースをベースにしたデータの収集、蓄積、分析を行うプラットフォームの開発、提供、サポートを行う企業です。HortonworksはApache Hadoopコミュニティに最多数の開発者とアーキテクトを提供し、ユーザーからのフィードバックを開発に反映しています。Hortonworksが提供するHortonworks Data Platform (HDP) は、Apache Hadoop、Sparkをベースに開発された、蓄積されたデータ (Data in Rest) を分析するプラットフォームです。Hortonworks DataFlow (HDF) は、Apache NiF、Kafka、Stormベースに開発された、流れているデータ (Data in Motion) のフローをコントロールし、リアルタイム処理を可能にするプラットフォームです。基本
Improving Amazon S3 Performance In general, reading and writing data is slower with Amazon S3 than with HDFS, even when virtual clusters are running on Amazon EC2 infrastructure in the same datacenter where the Amazon S3 buckets are located. This is due to the following reasons. On Amazon S3, renaming is a very expensive copy operation. The slow performance of the rename surfaces during the commit
With the rise of the Internet of Things (IoT) and low-latency analytics, streaming data becomes ever more important. Surprisingly, one of the most promising approaches for processing streaming data is SQL. In this presentation, Julian Hyde shows how to build streaming SQL analytics that deliver results with low latency, adapt to network changes, and play nicely with BI tools and stored data. He al
We are thrilled to announce the general availability of the Cloudera AI Inference service, powered by NVIDIA NIM microservices, part of the NVIDIA AI Enterprise platform, to accelerate generative AI deployments for enterprises. This service supports a range of optimized AI models, enabling seamless and scalable AI inference. Background The generative AI landscape is evolving […] Read blog post
今回のウェビナーでは、Hadoop1.xからみなさまに深く親しまれてきたApache Hiveが昨今、どのような形で高速化されてきたかについて話します。MapReduceからTezに変わった実行エンジン、インデックスを持ったカラムナーファイルフォーマットであるORC、モダンなCPUを最大限に活用するVectorization、Apache Calciteを利用したCost Based Optimizerによる実行計画の最適化、そして1秒以下のクエリレスポンスを実現するLLAPについて説明します。いずれの機能も数行の設定やコマンドで活用可能なものばかりですが、今回はそれらの背景でどんな仕組みが動いているのか、どんな仕組みで実現されているのかということについて話します。Read less
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く