
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【多クラス分類問題】LightGBMにてパラメータチューニングの有無で精度を比較 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【多クラス分類問題】LightGBMにてパラメータチューニングの有無で精度を比較 - Qiita
1.目的 MNISTデータ(0から9までの手書き数字)を分類するモデル(多クラス分類モデル)をLightGBMを用いて... 1.目的 MNISTデータ(0から9までの手書き数字)を分類するモデル(多クラス分類モデル)をLightGBMを用いて実装する。 その際にハイパーパラメータをチューニングしないモデルと、チューニングしたモデルの精度を比較する。 チューニングはOptunaを用いて行う。その使い方等をメモ程度に置いておく。 2.MNISTとは MNISTはMixed National Institute of Standards and Technology databaseの略で、手書き数字画像60,000枚とテスト画像10,000枚を集めた、画像データセット。 0~9の手書き数字が教師ラベルとして各画像に与えられている。 詳しくはこちら 今回はKerasで公開されているMNISTを使う。 3.使用ライブラリ import lightgbm as lgb import pandas as pd import