タグ

ブックマーク / parco1021.hatenablog.com (2)

  • 一人暮らしのQoLを上げたモノ - β日記

    はじめに 久しぶりに、今週のお題「2019年買ってよかったもの」ということで僕が買って一人暮らしのQoLが爆上がりしたモノを紹介します。2019年に僕個人として大きな買い物はしていないので決して高価なものではありません。 そのものとは?? ズバリ、「鍋」です。鍋と言っても一人用の鍋です。 僕が買ったのは金属なので保温性はあまりありませんが、別に一人でべる分にが僕は気にしません。土鍋と違って割れる心配もあまりありませんし酷使するつもりだったので金属にしました。 これまで何度も一人鍋をしようとしましたが、片手鍋だとイマイチ気分が乗らずあまりやってきませんでした。ではなぜ一人鍋をそこまでしてしたかったのか理由を挙げます。 楽で安くて野菜も摂れる 理由はこれにつきます。どんなに時間がなくても適当に調味料いれてつゆ作ってから具材を放り込むだけです。具材も事前に一回用に切り分けて冷凍してあるので

    一人暮らしのQoLを上げたモノ - β日記
    A---chan
    A---chan 2019/12/14
    大学生で鍋の良さが分かるのはお目が高いですね~^^実は鍋って色々な調理にも使えますし、本来の鍋としても利用できるので、個人的にはおススメです~^^
  • モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation) - β日記

    蒸留とは 中学生の時に化学で学んだ蒸留について、 蒸留(じょうりゅう、Distillation)とは、混合物を一度蒸発させ、後で再び凝縮させることで、沸点の異なる成分を分離・濃縮する操作をいう。 引用元:Wikipedia 深く、大きいモデルが優秀であることは想像に難くありません。しかし、実際にはそのような大きいモデルが使用できないが機械学習モデルを使用したい場面があります(ラズパイとかでやる時など)。そのような時に、深く大きいニューラルネットワークの知識を蒸留し、より浅く小さいニューラルネットワークへ学習させるために使われるものです。特に大きいモデルを教師モデル、小さいモデルを生徒モデルと言います。つまり性能をできるだけそのままに教師モデルから生徒モデルへ知識の継承を行うことを目的としています。これについての元論文は以下です。 Distilling the Knowledge in a

    モデルを蒸留するのではなくデータセットを蒸留する(論文紹介②Dataset Distillation) - β日記
  • 1