機械学習、ディープラーニングの話です。 やったこと ChainerでMLPにMNISTを学習させる際のDropoutのドロップ率を0.5、0.6、0.7と変えてどうなるか試しました。 結果を先に書くと、0.5がいちばん過学習がひどかったので、0.5にこだわる理由は特に無さそうです。 プログラム import chainer import chainer.functions as F import chainer.links as L from chainer import optimizers import data import numpy as np import sys import time import datetime class MLP(chainer.Chain): def __init__(self, n_in, n_hid, n_out, dropout_ratio):