タグ

2014年4月23日のブックマーク (5件)

  • java.security AES encryption key length

    When the key length is 128 bits,everything works. But I got the following exception when I use a key of length 192 or 256 bits. java.security.InvalidKeyException: Illegal key size or default parameters at javax.crypto.Cipher.a(DashoA13*..) at javax.crypto.Cipher.a(DashoA13*..) at javax.crypto.Cipher.a(DashoA13*..) at javax.crypto.Cipher.init(DashoA13*..) at javax.crypto.Cipher.init(DashoA13*..) I

    java.security AES encryption key length
  • 簡単な暗号化 - Java編

    Java言語による暗号化をサンプルと共に説明しています。 JDK1.5以上には、JCE(Java 暗号化拡張機能)が含まれており、この機能を利用すると、共通鍵方式による暗号化や公開鍵方式による暗号化機能を実装できます。 このページでは、以下の手法を説明しています。 ・ 共通鍵を自動生成して暗号化する ・ 共通鍵を作成して暗号化する(その1)[htt://www.trustss.co.jp/Java/JEncrypt122.html] ・ 共通鍵を作成して暗号化する(その2)[htt://www.trustss.co.jp/Java/JEncrypt123.html] ・ パスワードベース暗号化[htt://www.trustss.co.jp/Java/JEncrypt124.html] また、Windowd APIとの連携として以下の説明もあります。 ・ Javaで暗号化したデータをWin

  • Amazon S3でjava.util.concurrentを使って高速アップロードを実現する | DevelopersIO

    Amazon S3で大量のファイルを高速にアップロードしたい 前回の記事で、Amazon S3でオブジェクトをまとめて削除する機能が追加されたことをご紹介しました。その際に作ったプログラムではファイルのアップロードに時間が掛かっていました。今回は、このアップロードを高速に行います。 AWSAPIは処理が独立している まず始めにどのような方法で高速にアップロードしようか考えました。まずはAPIリファレンスを見て、「bulk upload」とか「batch upload」とか「multi upload」などのキーワードを探しました。結果、Multipartファイルアップロードが見つかりましたが、これは1つの大きなファイルを分割してアップロードする高レベルの機能でした。そこで、APIとして提供されていないならば、呼び方を工夫すればよいのかなということで、並行処理に行き着いたわけです。 以下は完

    walk77
    walk77 2014/04/23
  • MySQL 5.6のインストール後にチューニングすべき項目 | Yakst

    MySQLコミュニティマネージャのMorgan Tocker氏による、MySQL 5.6をインストールした後にデフォルト値から変更した方がよいパラメータの解説。 数々のデフォルト値の改善によって、過去のバージョンと比べてMySQL 5.6では設定しなくてはならない値がかなり減った。とは言え、変更すべきものについてここで書いておきたい。 InnoDBの設定 innodb_buffer_pool_size - デフォルトは128M。これは、メモリにロードされるデータとインデックスのためにInnoDBがどのくらいメモリを使うかを指定するものなので、設定すべき重要な値だ。MySQLの専用サーバなら、搭載されているメモリの50%から80%が推奨される設定値だ。例えば、64GBのRAMを搭載しているサーバなら、バッファプールは50GB程度にすべきだろう。 innodb_log_file_size -

    MySQL 5.6のインストール後にチューニングすべき項目 | Yakst
  • スケーリングMongoDB

    NoSQL DBのMongoDBについて書いた。 次の質問に答えられないで、MongoDBを使ったシステムに関わろうという人は読む価値がある。 ・MongoDBは何故データの分割やバランシングを自動にしているのか。そして自動にしない機能が何故あるのか。 ・濃度の低いシャードキーを選んではいけない理由は何か ・シャードを追加するときに気をつけることは何か まだ調べ始めて間もないんですが、これを読んだ感想は「スキーマレスな分散DBって当に意図した通りに動かせれるの?w」 結局書き込み可能な当のビッグデータを柔軟に動かすためには、他に方法ないんでしょうけどね。 2013/03/13 追記: ・柔軟って書き方よくないですね。CAP定理の分類をメモ。この分類自体はしっくりいかないけど.... ・MongoDBを実運用している例。障害事例を載せてくれている神資料。 ・パフォーマンス比較。 201

    スケーリングMongoDB