
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
[検証]levelDBはデータ量が増えるとデータ登録に時間がかかる?? - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[検証]levelDBはデータ量が増えるとデータ登録に時間がかかる?? - Qiita
気になったこと ethereumをプライベートブロックチェーンとして使用する場合にデータ量が増えるとgeth(g... 気になったこと ethereumをプライベートブロックチェーンとして使用する場合にデータ量が増えるとgeth(go-ethereum)内で使われているlevelDBへのデータ登録に時間がかかるようになるという記事を見つけた。 そんなことあるんだー。と思って実際に計測してみた やったこと Keyは処理番号、Valueに適当なデータという適当すぎるデータを100万件登録する。 100件毎に要した処理時間を計測し、処理時間が増加しているか確認した。 levelDBだけでなく、ついでにmongoDBでもやってみた levelDBの処理時間 以下のコードでデータを登録 import time import leveldb # テストデータ:750バイト inputData = '{"_id" : "ObjectId(\5e3b4dd825755df3f15a2d17\")","coediting"