読み: きんせつこうばいほう 英名: Proximal Gradient Method 近接点法と勾配法を組み合わせた反復法で,次の構造を持つ最適化問題を対象とする. ここで,\(f\) は滑らかな凸関数,\(g\) は滑らかとは限らない”単純”な凸関数とする.\(g\) の例としては凸集合 \(S\) についての表示関数 \(\delta_S(x) = 0 \ (x \in S), \ +\infty \ (x \notin S)\) や,機械学習の分野で良く表れる正則化項 \({\|x\|}_1\),\({\|x\|}_2\) などがある.一般に目的関数 \(\varphi\) は滑らかでは無いので,劣勾配法のような収束の遅い手法しか適用できない様に見えるが,\(\varphi\) が上記のような特徴を持つ二種の関数 \(f\) と \(g\) の和である点に着目した手法が近接勾配法で
![近接勾配法 — 数理最適化用語集](https://cdn-ak-scissors.b.st-hatena.com/image/square/ef4f39b02bc47c29caa9762b1b3710e8d23c2dba/height=288;version=1;width=512/https%3A%2F%2Fwww.nttdata.com%2Fjp%2Fja%2F-%2Fmedia%2Fnttdatajapan%2Fimages%2Fshared%2Fshare_01.png%2520)