LVM(Logical Volume Manager:論理ボリュームマネージャ)は、複数のパーティションを1つのディスクとして利用するためのディスク管理機能だ。Fedoraは標準でLVMをサポートしており、Anacondaによるインストールでは、デフォルトでLVMが設定される。
LVM(Logical Volume Manager:論理ボリュームマネージャ)は、複数のパーティションを1つのディスクとして利用するためのディスク管理機能だ。Fedoraは標準でLVMをサポートしており、Anacondaによるインストールでは、デフォルトでLVMが設定される。
If you were looking for MSDN or TechNet blogs, please know that MSDN and TechNet blog sites have been retired, and blog content has been migrated and archived here. How to use this site Archived blogs are grouped alphabetically by the initial letter of the blog name. Select the initial letter from the TOC to see the full list of the blogs. You can also type the name of the blog or the title of the
Microsoft Corporation MicrosoftのSQL Serverチームは8月25日(米国時間)、「SQL Server」と「Hadoop」を連携させるためのコネクタのコミュニティテクノロジプレビュー版を公開した。同チームは8月8日(米国時間)にSQL ServerとHadoopを連携させるコネクタの提供を開始すると発表していた。近いうちに最初の実装の提供を開始すると説明があったわけだが、実際に発表から17日で、約束通りコネクタの提供が開始されたことになる。 コミュニティテクノロジプレビューとして提供が開始されたのは次の2つのコネクタ。 Hadoop Connector for SQL Server Hadoop Connector for SQL Server Parallel Data Warehouse Microsoftのこの動きはコミュニティやユーザからは多少の
Apache Hive The Apache Hive ™ is a distributed, fault-tolerant data warehouse system that enables analytics at a massive scale and facilitates reading, writing, and managing petabytes of data residing in distributed storage using SQL. Github Mail Docker Community Apache Hive is a distributed, fault-tolerant data warehouse system that enables analytics at a massive scale. Hive Metastore(HMS) provid
Apache Pig is a platform for analyzing large data sets that consists of a high-level language for expressing data analysis programs, coupled with infrastructure for evaluating these programs. The salient property of Pig programs is that their structure is amenable to substantial parallelization, which in turns enables them to handle very large data sets. At the present time, Pig's infrastructure l
ヤフーが日本独自の検索関連サービスの開発で、オープンソースの分散処理ソフトである「Hadoop」の活用を進めている。Hadoopを使うことで、従来は6時間以上かかった処理がわずか5分半で済むようになった例もある。2009年秋には組織を整備し、適用範囲を全社に広げている。 Hadoopは、米グーグルが開発した分散処理ソフト「Google File System(GFS)」と「MapReduce」を模したオープンソースソフトである(図)。GFSとMapReduceは、グーグルのクラウドを支える基盤技術。Hadoopを使うと、複数台の安価なPCサーバーを連携させ、数十テラ~数ペタバイトに及ぶデ ータを高速に処理できる。 Hadoopを日本国内で最も積極的に利用している企業はヤフーだ。2008年ごろから部署単位でHadoopの導入を進め、Hadoopを使う事例が10件を超えるようになった(表)。
2011/05/26 18:30 企業が扱うデータ量が、ペタバイト規模で語られる「BigData」時代が到来しようとしている。その時に備えて、どんなテクノロジーに注目しておくべきなのか。大規模データのハンドリングや分析手法など、注目すべき記事を以下に紹介する。特集 「情報分析」と「行動」を直結させるBI この情報爆発時代、データに翻弄される危惧を抱くのではなく、企業価値を一気に高める好機ととらえたい。膨大な情報の中には必ずや、収益に結び付く鉱脈が埋もれているはずだ。それを発見するには、精度や鮮度を持ち合わせたデータをスピーディーに分析する仕組みが不可欠となる。幸い、DWHアプライアンスやインメモリーDBなど、分析力に磨きをかけるBI関連のテクノロジーは着実に進化している。情報分析で得た仮説を、行動を持って検証する。極めて基本的ではあるが、そのサイクルを確実に実践し、加速する企業が1歩先んじ
TechCrunch Disrupt 2024 will be in San Francisco on October 28–30, and we’re already excited! This is the startup world’s main event, and it’s where you’ll find the knowledge, tools… As a part of a multi-part series, TechCrunch is highlighting women innovators — from academics to policymakers —in the field of AI.
最近、米国で開催されるクラウドコンピューティング関連のカンファレンスや雑誌/ブログ記事などで「Big Data」という単語を目にする機会が増えた。Big Dataとは文字通り「巨大なデータ」という意味だ。いま、「Hadoop」のような新技術に注目が集まるのは、巨大データと格闘する企業が増えているからだという。 Hadoopについてはそろそろ説明は不要かも知れないが、念のためにおさらいしておこう。Hadoopとは、米グーグルが開発した分散処理ソフト「Google File System(GFS)」と「MapReduce」を模したオープンソースソフトだ。複数台の安価なPCサーバーを連携させ、数十テラ~数ペタバイトに及ぶデータを高速に処理できる(関連記事:ヤフーを変え始めたHadoop)。 日経コンピュータ2010年4月28日号のレポート記事「リアルタイムに近づくバッチ処理」でも取り上げたが、こ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く