タグ

mlとoptimizationに関するtakuya-aのブックマーク (5)

  • 非線形最適化関数 — 機械学習の Python との出会い

    非線形最適化関数¶ ロジスティック回帰を解くには, ロジスティック回帰の形式的定義 の式(3)の非線形最適化問題を解く必要があります. ここでは,この最適化問題を scipy.optimize モジュールに含まれる関数 minimize() を用いて実装します. そこで,この節では minimize() などの最適化関数について俯瞰します. ロジスティック回帰モデルをあてはめるメソッドの実装については,次の 学習メソッドの実装 で述べます. SciPy の非線形最適化関数¶ SciPy の非線形最適化関数には, minimize_scalar() と minimize() があります. これらを順に紹介します. sp.optimize.minimize_scalar(fun, args=(), method='brent')¶ Minimization of scalar function

  • 2.7. 数学的最適化: 関数の最小値を求める — Scipy lecture notes

    2.7. 数学的最適化: 関数の最小値を求める¶ 著者: Gaël Varoquaux Mathematical optimization は関数の最小値 (あるいは最大値や零点) を数値的に探索する問題を扱います。この分野では関数は コスト関数 や 目的関数 あるいは エネルギー と呼ばれます。 ここではブラックボックス化された最適化手法としての scipy.optimize に焦点をあてます: 最適化する関数の数学的表現をあてにしません。表現を利用することで、より効率的にブラックボックス化しない最適化ができることは注意しておいて下さい。 参考 参考文献 数学的最適化はとても...数学的です。パフォーマンスが欲しい場合は、を読むことは労力に見合います: Boyd と Vandenberghe による Convex Optimization (pdf がオンラインで無料で利用できます)。

  • 最適化アルゴリズムを評価するベンチマーク関数まとめ - Qiita

    更新履歴 最適解と探索範囲を追記しました。 2016/11/29 @fimbulさん 編集リクエストありがとうございました。修正しました。 2017/7/10 @tomochiiiさん 編集リクエストありがとうございました。Easom functionを引用元の数式に修正、Schaffer function N. 2とN. 4の数式の修正 2018/5/9 @applicative62045 さん 編集リクエストありがとうございました(編集リクエストの確認遅くなりました。2019/12/31記載) Griek functionを修正 2019/12/31 @okamoto6496 さん 指摘ありがとうございました。Five-well potential functionの数式を修正。 2020/01/20 @higedura さん 指摘ありがとうございます。Bukin function N

    最適化アルゴリズムを評価するベンチマーク関数まとめ - Qiita
  • scipy.optimize.minimize — SciPy v1.13.1 Manual

    scipy.optimize.minimize# scipy.optimize.minimize(fun, x0, args=(), method=None, jac=None, hess=None, hessp=None, bounds=None, constraints=(), tol=None, callback=None, options=None)[source]# Minimization of scalar function of one or more variables. Parameters: funcallableThe objective function to be minimized. where x is a 1-D array with shape (n,) and args is a tuple of the fixed parameters needed

  • ラグランジュ関数の背後にある理論 (Boyd本5章概要) - うどん記

    ラグランジュ関数は以下のような形をした制約付き最適化問題を解くために導入される有名な手法です. $\min_{x \in D} f_0(x),$ $\mbox{subject to}$ $f_i(x) \le 0$ $(i=1,2,...,m)$ $h_i(x) = 0$ $(i=1,2,...,p)$ ここで,$D \subseteq \mathbb{R}^n$ は目的関数の定義域で, $f_0,f_1,\cdots,f_m, h_1, \cdots, h_p: D \rightarrow \mathbb{R}$ は任意の関数. この記事では "Convex Optimization" (by Boyd and Vandenberghe) の5章 "Duality" の項を元に,ラグランジュ関数とその背後にある理論について記します.主に記したことは以下のとおりです. ラグランジュ関数の定

    ラグランジュ関数の背後にある理論 (Boyd本5章概要) - うどん記
  • 1