タグ

2023年9月20日のブックマーク (6件)

  • 「初手LightGBM」をする7つの理由 - u++の備忘録

    Kaggleなどのデータ分析コンペでテーブルデータを扱う場合、最近は取りあえずLightGBMを利用する場合が多いです。 記事では、初手の機械学習アルゴリズムとして「LightGBM」*1を採用する理由を紹介します。あくまで2019年10月末時点での個人の主観なので、ご参考までにご覧いただければと思います。 1. 欠損値をそのまま扱える 2. カテゴリ変数の指定ができる 3. 特徴量のスケーリングが不要 4. feature importanceが確認できる 5. 精度が出やすく最終的なモデルとして残る可能性が高い 6. 比較的大きいデータも高速に扱える 7. 過去の経験からハイパーパラメータの勘所がある おわりに 初手としては、手の混んだ特徴量を作らずに、まずは何かしらの予測結果を生成したい場合も多いです。LightGBMは既存のデータセットを極力加工せずに利用するという観点で、特徴量

    「初手LightGBM」をする7つの理由 - u++の備忘録
  • サンドイッチ成形 | 角一化成株式会社

    サンドイッチ成形とは? サンドイッチ成形専用の成形機により、異材質を同時に射出することで、スキン層/コア層の構造体を造ることができる成形技術です。 ①A材(スキン層側)を射出開始 ⇓ ②B材(コア層側)を射出開始 ⇓ ③再度A材側に切り替えでゲート部を封入させる ⇓ ④取出し ⇓ ①A材を射出 … 上記の成形プロセスより、右図のようなスキン層/コア層の構造体をもった成形品が得られます。 サンドイッチ成形でリサイクル材(再生材)の使用 CO2排出削減にむけた環境活動の一環として製品回収から資源循環ものづくりが求められています。プラスチックは熱可塑性であり、その製品を回収粉砕してリサイクル材(再生材)として使用することが可能です。 課題 リサイクル材(再生材)の使用制限を受ける2つの問題 外観:不純物を完全には除去しきれない 強度:バージン材と比較して物性面で劣る 回収粉砕する過程で不純物を除

  • #post_title | DXCEL WAVE

    機械学習】XGBoostとは XGBoost(eXtreme Gradient Boosting)とは、アンサンブル学習を代表するアルゴリズムの一つであり、ブースティングと決定木を組み合わせで構成されています。 アンサンブル学習およびXGBoostの具体的内容についてはこちらの記事で解説しています。 【AI機械学習】アンサンブル学習とは|バギング・ブースティング・スタッキングの仕組みやアルゴリズム解説 機械学習における「アンサンブル学習」について詳しく知りたい方向けに「アンサンブル学習の仕組み」と代表的手法「バギング」「スタッキング」「ブースティング」についてそれぞれ解説します。

    #post_title | DXCEL WAVE
  • Scikit-learnのGridSearchCVクラスによるグリッドサーチ

    はじめに 機械学習モデルのハイパーパラメータ(ユーザが決めるべきパラメータ)を調整する手法の1つにグリッドサーチ (grid search) があります。グリッドサーチでは、ハイパーパラメータの値の候補を用意して、総当たりで最良の値を見つけます。 この記事ではPythonとScikit-learnによるサンプルコードも示します。実行環境は以下の通りです。 Python: 3.9.7 NumPy: 1.20.3 sklearn: 0.24.2 グリッドサーチの例 ランダムフォレストを対象にグリッドサーチの例を示します。ランダムフォレストの2つのハイパーパラメータである「木の数」と「木の最大深さ」について、それぞれ以下の候補から予測性能が最良となる値を選択するものとします。 木の数: 5, 10, 15 木の最大深さ:2, 4, 6 それぞれ3通りなので、合計で3×3=9回の学習と検証を行って

    Scikit-learnのGridSearchCVクラスによるグリッドサーチ
  • scikit-learnの機械学習パイプライン入門(その1:変換器と推定器でパイプラインを作ってみよう)

    機械学習のパイプラインとは、複数の処理を直列に連結したものです。 最小構成は、1つの変換器と1つの推定器(予測器)を連結したものです。 変換器:特徴量X(説明変数)などの欠測値処理や変数変換などの、特徴量変換(Transformor) 推定器:線形回帰モデルやXGBoostなどの数理モデルを使い、目的変数yの予測を実施(Estimator) 多くの場合、Inputは特徴量(説明変数)Xで、Outputは目的変数yの予測値です。 推定器(予測器)が含まれていることから分かる通り、機械学習パイプラインを作ったら、そのパイプラインを学習する必要があります。 活用するときは、学習済みのパイプラインを使います。 また、学習時に目的変数yの変換(例:正規化など)を実施することもあります。 ということで、今回は機械学習パイプラインの構成要素である「変換器と推定器」について説明します。 準備 必要なモジュ

    scikit-learnの機械学習パイプライン入門(その1:変換器と推定器でパイプラインを作ってみよう)
  • ML Pipelines using scikit-learn and GridSearchCV