
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Sparkの永続化(キャッシュ)を試してみた - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Sparkの永続化(キャッシュ)を試してみた - Qiita
背景・目的 Sparkではメモリ内のデータセットを永続化する事が可能です。この機能を試してみたいと思い... 背景・目的 Sparkではメモリ内のデータセットを永続化する事が可能です。この機能を試してみたいと思います。 まとめ Sparkでは、キャッシュを使用してデータセット(RDD)を保存し再利用することが可能です。 キャッシュ関連の関数(メソッド)には、下記が用意されています。 cache() persist() キャッシュはLRUアルゴリズムによって追い出されるが、明示的に開放するには、下記を実行します。 unpersist() キャッシュする際に、Storage Levelを指定することが可能。Storage Levelは下記のようなものがあります。 メモリのみ メモリとディスクの組み合わせ ディスクのみ キャッシュする場合、上記のどこに保存するかに加えて、下記も選択可能です。 別のノードへのレプリケーション シリアライゼーション/デシリアライゼーション 概要 RDD Persistenc