Blame
|
1 | # Numerické metody v Rⁿ |
||||||
| 2 | ||||||||
| 3 | <div style="visibility:hidden;height:0;overflow:hidden;margin:0;padding:0"> |
|||||||
| 4 | ||||||||
| 5 | ```math |
|||||||
| 6 | \newcommand{\LetThereBe}[2]{\newcommand{#1}{#2}} \newcommand{\letThereBe}[3]{\newcommand{#1}[#2]{#3}} |
|||||||
| 7 | \letThereBe{\addTag}{2}{\cssId{#1-#2}{\tag{#2}}} \letThereBe{\addLabel}{2}{\cssId{#1-#2}{\text{#2}}} \letThereBe{\refTag}{2}{\href{###1-#2}{(\text{#2})}} |
|||||||
| 8 | \letThereBe{\eqT}{1}{\addTag{eq}{#1}}\letThereBe{\secT}{1}{\addLabel{sec}{#1}} |
|||||||
| 9 | \letThereBe{\eqRef}{1}{\refTag{eq}{#1}} \letThereBe{\secRef}{1}{\refTag{sec}{#1}} |
|||||||
| 10 | \letThereBe{\eqRefAt}{2}{\href{#2\#eq-#1}{(\text{#1})}} |
|||||||
| 11 | \letThereBe{\secRefAt}{2}{\href{#2\#sec-#1}{(\text{#1})}} |
|||||||
| 12 | \LetThereBe{\R}{\mathbb{R}} \LetThereBe{\N}{\mathbb{N}} |
|||||||
| 13 | \letThereBe{\rcases}{1}{\left.\begin{align}#1\end{align}\right\}} |
|||||||
| 14 | \letThereBe{\rcasesAt}{2}{\left.\begin{alignat}{#1}#2\end{alignat}\right\}} |
|||||||
| 15 | \letThereBe{\lcases}{1}{\begin{cases}#1\end{cases}} |
|||||||
| 16 | \letThereBe{\lcasesAt}{2}{\left\{\begin{alignat}{#1}#2\end{alignat}\right.} |
|||||||
| 17 | \letThereBe{\scal}{2}{\langle #1, #2 \rangle} \letThereBe{\norm}{1}{\left\lVert #1 \right\rVert} \LetThereBe{\dist}{\rho} |
|||||||
| 18 | \LetThereBe{\and}{\&}\letThereBe{\brackets}{1}{\left\{ #1 \right\}} |
|||||||
| 19 | \letThereBe{\parc}{2}{\frac {\partial #1}{\partial #2}} |
|||||||
| 20 | \letThereBe{\mtr}{1}{\begin{pmatrix}#1\end{pmatrix}} |
|||||||
| 21 | \letThereBe{\bm}{1}{\boldsymbol{#1}} \letThereBe{\mcal}{1}{\mathcal{#1}} |
|||||||
| 22 | \letThereBe{\vv}{1}{\mathbf{#1}}\letThereBe{\vvp}{1}{\pmb{#1}} |
|||||||
| 23 | \LetThereBe{\ve}{\varepsilon} \LetThereBe{\l}{\lambda} \LetThereBe{\th}{\vartheta} \LetThereBe{\a}{\alpha} \LetThereBe{\vf}{\varphi} |
|||||||
| 24 | \letThereBe{\conv}{1}{\mathrm{conv}\, #1} \letThereBe{\cone}{1}{\mathrm{cone}\, #1} |
|||||||
| 25 | \letThereBe{\aff}{1}{\mathrm{aff}\, #1} \letThereBe{\lin}{1}{\mathrm{Lin}\, #1} \letThereBe{\span}{1}{\mathrm{span}\, #1} |
|||||||
| 26 | \LetThereBe{\O}{\mathcal O} |
|||||||
| 27 | \letThereBe{\ri}{1}{\mathrm{ri}\, #1} \letThereBe{\rd}{1}{\mathrm{r}\partial\, #1} \letThereBe{\interior}{1}{\mathrm{int}\, #1} |
|||||||
| 28 | \LetThereBe{\proj}{\Pi} \letThereBe{\epi}{1}{\mathrm{epi}\, #1} |
|||||||
| 29 | \letThereBe{\grad}{1}{\mathrm{grad}\, #1} \letThereBe{\gradT}{1}{\mathrm{grad}^T #1} \letThereBe{\gradx}{1}{\mathrm{grad}_x #1} \letThereBe{\hess}{1}{\nabla^2\, #1} \letThereBe{\hessx}{1}{\nabla^2_x #1} \letThereBe{\jacobx}{1}{D_x #1} \letThereBe{\jacob}{1}{D #1} |
|||||||
| 30 | \letThereBe{\subdif}{1}{\partial #1} \letThereBe{\co}{1}{\mathrm{co}\, #1} |
|||||||
| 31 | \letThereBe{\iter}{1}{^{[#1]}} \LetThereBe{\str}{^*} |
|||||||
| 32 | \LetThereBe{\spv}{\mcal V} \LetThereBe{\civ}{\mcal U} |
|||||||
| 33 | \LetThereBe{\knvxProg}{\eqRefAt{4.1}{./nutne-a-postacujici-podminky-optimality} \, \and \, \eqRefAt{4.2}{./nutne-a-postacujici-podminky-optimality}} |
|||||||
| 34 | \letThereBe{\set}{1}{\left\{ #1 \right\}} |
|||||||
| 35 | ``` |
|||||||
| 36 | ||||||||
| 37 | </div> |
|||||||
| 38 | Budeme se věnovat úlohám (přesněji numerickým metodám jejich řešení) typu |
|||||||
| 39 | ||||||||
|
40 | ```math |
||||||
| 41 | f(x) \to \min, \quad x \in \R^n, \eqT{3.2.1} |
|||||||
| 42 | ``` |
|||||||
|
43 | |||||||
| 44 | kde $f:\R^n \to \R$ je *(jednou/dvakrát/třikrát)* **spojitě diferencovatelná** funkce. Obecně jsou metody numerické optimalizace založeny na **minimalizační posloupnosti** $\brackets{x^{[k]}}$ definované jako |
|||||||
| 45 | ||||||||
|
46 | ```math |
||||||
| 47 | x^{[k+1]} = x^{[k]} + \a_k h_k, |
|||||||
| 48 | ``` |
|||||||
|
49 | |||||||
| 50 | kde $\a_k \in \R$ se nazývá **délka** $k$**-tého kroku** a vektor $h_k \in \R^n$ je **směr** $k$**-tého vektoru**. |
|||||||
| 51 | ||||||||
| 52 | > Budeme uvažovat tzv. **přesnou minimalizaci**, kdy dílčí minimalizace řešíme přesně (nikoliv numerickými metodami) |
|||||||
| 53 | ||||||||
| 54 | > Všechny následující metody jsou **spádové** |
|||||||
| 55 | ||||||||
| 56 | ### Metoda největšího spádu |
|||||||
| 57 | U této metody volíme |
|||||||
| 58 | ||||||||
|
59 | ```math |
||||||
| 60 | h_k = - \grad f(x^{[k]}), |
|||||||
| 61 | ``` |
|||||||
|
62 | |||||||
| 63 | přičemž délku kroku volíme **přesným řešením** úlohy |
|||||||
| 64 | ||||||||
|
65 | ```math |
||||||
| 66 | f(x^{[k+1]}) = f(x^{[k]} - \a_k \grad f(x^{[k]})) = \min_{\a \geq 0} f(x^{[k]} - \a \cdot \grad f(x^{[k]})) |
|||||||
| 67 | ``` |
|||||||
|
68 | |||||||
| 69 | Dále bude platit, že vektory určené body $x^{[k+1]}, x^{[k]}$ a $x^{[k+2]}, x^{[k+1]}$ jsou na sebe **ortogonální**. Z tohoto dostáváme, že pro daný směr hledáme **nejblížší** vrstevnici, která bude **tečná** k tomuto vektoru. |
|||||||
| 70 | Tato metoda je **prvního řádu** (stačí nám pouze gradient). |
|||||||
| 71 | ||||||||
| 72 | > V některých případech dochází k tzv. "*cik-cak*" efektu (klikatěni), kdy se minimalizující posloupnost dostává k optimu velmi pomalu. Toto se děje například u **Rosenbrockovy (banánové) funkce** (jedna z *testovacích funkcí*) |
|||||||
| 73 | ||||||||
| 74 | #### Kvadratické funkce |
|||||||
| 75 | Nechť $f$ je kvadratická funkce tvaru |
|||||||
| 76 | ||||||||
|
77 | ```math |
||||||
| 78 | f(x) = \frac 1 2 \scal {Qx} x - x^T b \eqT{3.2.2}, |
|||||||
| 79 | ``` |
|||||||
|
80 | |||||||
| 81 | kde $Q = Q^T > 0$ je **symetrická** $n \times n$ matice a $b \in \R^n$. Taková funkce $f$ je **ostře** (i *silně*) konvexní. Z pozitivní definitnosti $Q$ dostáváme, že vlastní čísla matice $Q$ jsou **kladné** a můžeme je uspořádat následovně |
|||||||
| 82 | ||||||||
|
83 | ```math |
||||||
| 84 | 0 < \l_1 \leq \l_2 \leq \dots \leq \l_n |
|||||||
| 85 | ``` |
|||||||
|
86 | |||||||
| 87 | Díky tomu můžeme úlohu $\eqRef{3.2.1}$ vyřešit "přímo" jako $x^*= Q^{-1} b$, nicméně počítání inverze může být **velice náročné** (výpočetně). |
|||||||
| 88 | V tomto případě je gradient $g$ funkce $f$ dán jako |
|||||||
| 89 | ||||||||
|
90 | ```math |
||||||
| 91 | g(x) := \grad f(x) = Qx - b, |
|||||||
| 92 | ``` |
|||||||
|
93 | |||||||
| 94 | tedy v jednotlivých iteracích dostáváme $g_k := Qx^{[k]} - b$ a $\a_k$ můžeme určit jako |
|||||||
| 95 | ||||||||
|
96 | ```math |
||||||
| 97 | \a_k = {g_k^T g_k \over g_k^T Q g_k} \in [1/\l_n, 1/\l_1] |
|||||||
| 98 | ``` |
|||||||
|
99 | |||||||
| 100 | Nyní se zaměříme na konvergenci metody, kterou můžeme zkoumat pomocí |
|||||||
| 101 | ||||||||
|
102 | ```math |
||||||
| 103 | E(x) := f(x) - f(x^*) = \frac 1 2 (x - x^*)^T Q (x - x^*) |
|||||||
| 104 | ``` |
|||||||
|
105 | |||||||
| 106 | ##### **Lemma** $\secT{3.2.1}$ (Konvergence metody největšího spádu) |
|||||||
| 107 | Platí |
|||||||
| 108 | ||||||||
|
109 | ```math |
||||||
| 110 | E(x^{[k+1]}) = \left(1 - {(g_k^T g_k)^2 \over (g_k^T Q g_k)(g_k^T Q^{-1} g_k)} \right) E(x^{[k]}) |
|||||||
| 111 | ``` |
|||||||
|
112 | |||||||
| 113 | --- |
|||||||
| 114 | ||||||||
| 115 | Z Lemmatu $\secRef{3.2.1}$ okamžitě plyne, že pokud pro nějaké $k \in \N$ nastane |
|||||||
| 116 | ||||||||
|
117 | ```math |
||||||
| 118 | 1 = {(g_k^T g_k)^2 \over (g_k^T Q g_k)(g_k^T Q^{-1} g_k)}, \eqT{3.2.1-a} |
|||||||
| 119 | ``` |
|||||||
|
120 | |||||||
| 121 | tak v $k+1$ metoda největšího spádu nalezne řešení **přesně**. V opačném případě je metoda **nekonečně-kroková**. |
|||||||
| 122 | Rovnost $\eqRef{3.2.1-a}$ nastane v případě, že $g_k$ je **vlastním vektorem** matice $Q$, jinak řečeno gradient musí mířit **do středu** elipsy (*elipsoidu*). |
|||||||
| 123 | V případě, že $\l_1 = \dots = \l_n$ je konvergence **superlineární**. Naopak pokud $\l_1 = \dots = \l_{n-1} \neq \l_n$, tak může být konvergence **velice pomalá**. Ve skutečnosti ještě rychlost konvergence závisí na počátečním $x^{[0]}$ |
|||||||
| 124 | ||||||||
| 125 | #### Nekvadratické funkce |
|||||||
| 126 | V případě nekvadratické funkce je metoda největšího spádu schopna nalézt **pouze stacionární body**. |
|||||||
| 127 | ||||||||
| 128 | ##### **Lemma** $\secT{3.2.2iii}$ (Lokální konvergence) |
|||||||
| 129 | Nechť $f: \R^n \to \R$ je **spojitě diferencovatelná**. Jestliže bod $x^{[0]} \in \R^n$ je takový, že množina |
|||||||
| 130 | ||||||||
|
131 | ```math |
||||||
| 132 | \set{x \in \R^n \mid f(x) \leq f(x^{[0]})} |
|||||||
| 133 | ``` |
|||||||
|
134 | |||||||
| 135 | je **ohraničená**, pak posloupnost $\brackets{x^{[k]}}$ generovaná metodou největšího spádu konverguje k bodu $x^*$, kde $\grad f(x^*) = 0$. |
|||||||
| 136 | ||||||||
| 137 | --- |
|||||||
| 138 | ||||||||
| 139 | Pokud konverguje $\brackets{x^{[k]}}$ k bodu $x^*$ a funkce $f$ je **dvakrát** spojitě diferencovatelná **na okolí** $x^*$ a platí |
|||||||
| 140 | ||||||||
|
141 | ```math |
||||||
| 142 | aI \leq \hess f(x^*) \leq AI, |
|||||||
| 143 | ``` |
|||||||
|
144 | |||||||
| 145 | kde $a, A > 0$ (tedy $f$ je v okolí $x^*$ **silně konvexní**), pak metoda konverguje (**alespoň**) s rychlostí $\left(A - a \over A + a\right)^2$ |
|||||||
| 146 | ||||||||
| 147 | > Tedy i pro nekvadratické funkce hraje velkou roli podmíněnost matice $\hess f(x^*)$ |
|||||||
| 148 | ||||||||
| 149 | > Metoda největšího spádu se nejčastěji využívá v jiných metodách jako pomocné, když ony metody samotné v tu chvíli neposkytují dostatečné zlepšení |
|||||||
| 150 | Celkem můžeme *metodu největšího spádu* shrnout: |
|||||||
| 151 | - **globální** konvergence (pro nekvadratické metody za dalších předpokladů) |
|||||||
| 152 | - **pomalá** konvergence |
|||||||
| 153 | - mnohdy numericky ani nekonverguje |
|||||||
| 154 | - je základem pro další (lepší) metody |
|||||||
| 155 | ||||||||
| 156 | ### Newtonova metoda |
|||||||
| 157 | Hlavní myšlenkou Newtonovy metody je, že v $(k+1)$-kroku, kde $k \in \N_0$, funkci $f$ aproximujeme **Taylorovým polynomem druhého řádu** se středem v bodě $x^{[k]}$ a jako $x^{[k+1]}$ volíme bod, ve kterém tento polynom nabývá svého minima. |
|||||||
| 158 | ||||||||
| 159 | > Jinak řečeno místo **tečné nadroviny** k funkci konstruujeme **tečnou $n$-rozměrnou parabolu** |
|||||||
| 160 | Tedy místo funkce $f$ uvažujeme v $k$-tém kroku |
|||||||
| 161 | ||||||||
|
162 | ```math |
||||||
| 163 | T_k(x) := f(x^{[k]}) + \grad f(x^{[k]}) (x - x^{[k]}) + \frac 1 2 (x - x^{[k]})^T \hess f(x^{[k]}) (x - x^{[k]}) \approx f(x) |
|||||||
| 164 | ``` |
|||||||
|
165 | |||||||
| 166 | Jelikož hledáme řešení $T_k(x) \to \min$, tak výraz výše první zderivujme, z čehož dostaneme |
|||||||
| 167 | ||||||||
|
168 | ```math |
||||||
| 169 | \grad T_k(x) = \grad f(x^{[k]}) + \hess f(x^{[k]}) (x - x^{[k]}), |
|||||||
| 170 | ``` |
|||||||
|
171 | |||||||
| 172 | což v případě ***regulární*** matice $\hess f(x^{[k]})$ vede na |
|||||||
| 173 | ||||||||
|
174 | ```math |
||||||
| 175 | x^{[k+1]} = x^{[k]} - (\hess f(x^{[k]}))^{-1} \grad f(x^{[k]}) |
|||||||
| 176 | ``` |
|||||||
|
177 | |||||||
| 178 | > Pro $\hess f(x) > 0$ je funkce **konvexní** a nalezneme **minimum** |
|||||||
| 179 | Nicméně je důležité podotknout, že výpočet $(\hess f(x^{[k]}))^{-1}$ je **velmi výpočetně náročný**. Avšak v případě **kvadratické funkce** Newtonova metoda nalezne řešení **v jednom kroku**, tedy její rychlost konvergence je **superlineární** s řádem $\infty$. |
|||||||
| 180 | Regularita matice $\hess f(x^{[k]})$ je velmi důležitá pro konvergenci, viz následující věta. |
|||||||
| 181 | ||||||||
| 182 | ##### **Věta** $\secT{3.2.5}$ |
|||||||
| 183 | Nechť $f \in C^3$ v okolí bodu $x^*\in \R^n$, který je **nedegenerovaným minimem**, tj. $\grad f(x^*) = 0$ a $\hess f(x^*) > 0$. Potom pro $x^{[0]} \in \R^n$ dostatečně blízko $x^*$ konverguje $\brackets{x^{[k]}}$ generovaná Newtonovou metodou k bodu $x^*$ **superlineárně** s řádem (*alespoň*) $p = 2$ (tj. *kvadraticky*). |
|||||||
| 184 | ||||||||
| 185 | > Zde určit, co znamená "*dostatečně blízko* $x^*$" je obtížné |
|||||||
| 186 | Celkem můžeme *Newtonovu metodu* shrnout jako: |
|||||||
| 187 | - **velmi rychlá** konvergence |
|||||||
| 188 | - nutnost **dostatečně blízké počáteční aproximace** |
|||||||
| 189 | - velmi velká výpočetní náročnost při velkém $n$ (počtu dimenzí) |
|||||||
| 190 | ||||||||
| 191 | ### Metoda sdružených gradientů |
|||||||
| 192 | Uvažujme situaci v úloze $\eqRef{3.2.1}$, kdy máme funkci |
|||||||
| 193 | ||||||||
|
194 | ```math |
||||||
| 195 | f(x) = \frac 1 2 x^T Q x - b^T x \eqT{MSG}, |
|||||||
| 196 | ``` |
|||||||
|
197 | |||||||
| 198 | kde $Q = Q^T \in \R^{n \times n}, Q > 0$ je symetrická matice a $b \in \R^n$. |
|||||||
| 199 | Pak nalezení úlohy $\eqRef{3.2.1} \, \and \, \eqRef{MSG}$ je ekvivalentní s řešením úlohy |
|||||||
| 200 | ||||||||
|
201 | ```math |
||||||
| 202 | Qx = b \eqT{MSGa}, |
|||||||
| 203 | ``` |
|||||||
|
204 | |||||||
| 205 | kterou umíme řešit například Gaussovou eliminací. |
|||||||
| 206 | Metoda sdružených gradientů je v případě $Q > 0$ přímou metodou, která dojde k řešení $\eqRef{MSGa}$ po $n$ krocích. Nicméně tento fakt lze brát také jako, že je to iterační metoda s velmi rychlou konvergencí v případě pozitivně definitní matice. |
|||||||
| 207 | ||||||||
| 208 | ##### **Definice** $\secT{3.2.7}$ ($Q$-sdružené vektory) |
|||||||
| 209 | Nechť $Q = Q^T \in \R^{n \times n}$ je **pozitivně definitní**. Vektory $h_1, h_2 \in \R^n \setminus \set{0}$ se nazývají $Q$**-sdružené** (nebo také $Q$**-ortogonální**), jestliže |
|||||||
| 210 | ||||||||
|
211 | ```math |
||||||
| 212 | \scal {Qh_1} {h_2} = h_1^T Q h_2 = 0 |
|||||||
| 213 | ``` |
|||||||
|
214 | |||||||
| 215 | Systém vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n \setminus \set{0}$ pro $m \in \set{2, \dots, n}$ se nazývá $Q$**-sdružený**, jestliže |
|||||||
| 216 | ||||||||
|
217 | ```math |
||||||
| 218 | \scal {Q h_i} {h_j} = 0 \text{ pro } i \neq j |
|||||||
| 219 | ``` |
|||||||
|
220 | |||||||
| 221 | ##### **Věta** $\secT{3.2.8}$ |
|||||||
| 222 | Nechť systém vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n \setminus \set{0}$ s $m \in \set{2, \dots, n}$ je $Q$**-sdružený**. Potom jsou tyto vektory **lineárně nezávislé**. |
|||||||
| 223 | ||||||||
| 224 | ##### **Věta** $\secT{3.2.9}$ |
|||||||
| 225 | Nechť $m \in \set{2, \dots, n}$ a mějme systém $Q$*-sdružených* vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n$. Nechť $x \iter 0$ je **dáno** a body $x \iter 1, \dots, x \iter m$ jsou dány jako |
|||||||
| 226 | ||||||||
|
227 | ```math |
||||||
| 228 | x \iter {k+1} = x \iter k + \a_k h_k = x \iter 0 + \sum_{i = 0}^k \a_i h_i, \quad k \in \set{0, \dots, m-1}, \eqT{3.2.8} |
|||||||
| 229 | ``` |
|||||||
|
230 | |||||||
| 231 | kde $\a_k$ jsou volena tak, že $f(x \iter k + \a_k h_k) = \min_{\a \in \R} f(x \iter k + \a h_k)$ pro $k \in \set{0, \dots, m-1}$ (tj. jsou volena **přesnou minimalizací**). Pak pro kvadratickou funkci $f$ definovanou v $\eqRef{MSG}$ platí |
|||||||
| 232 | ||||||||
|
233 | ```math |
||||||
| 234 | f(x \iter m) = \min_{x \in X_m} f(x), |
|||||||
| 235 | ``` |
|||||||
|
236 | |||||||
| 237 | kde $X_m := \lin \set{h_0, \dots, h_{m-1}}$ (viz **Definice** $\secRefAt{2.1.6}{./Konvexní množiny}$ - lineární obal). Zejména pro $m = n$ dostáváme |
|||||||
| 238 | ||||||||
|
239 | ```math |
||||||
| 240 | f(x \iter n) = \min_{x \in \R^n} f(x), |
|||||||
| 241 | ``` |
|||||||
|
242 | |||||||
| 243 | tj. $x \iter n$ je řešením úlohy $\eqRef{3.2.1} \, \and \, \eqRef{MSG}$. |
|||||||
| 244 | ||||||||
| 245 | > Nalezení $Q$**-sdružených** vektorů lze provést zobecněným **Gramm-Schmidtovým ortogonalizačním procesem** (ten je uveden v Lin. Alg. ve speciálním tvaru pro $Q = I$). |
|||||||
| 246 | Explicitně můžeme odvodit délku $k$-tého kroku jako |
|||||||
| 247 | ||||||||
|
248 | ```math |
||||||
| 249 | \a_k = - {h_k^T \grad f(x \iter k) \over h_k^T Q h_k} \eqT{3.2.9} |
|||||||
| 250 | ``` |
|||||||
|
251 | |||||||
| 252 | Celkem můžeme metodu popsat následovně |
|||||||
| 253 | ||||||||
|
254 | ```math |
||||||
| 255 | h_0 := -\grad f(x \iter 0), \quad h_k := -\grad f(x \iter k) + \beta_{k-1} h_{k-1} \eqT{3.2.10} |
|||||||
| 256 | ``` |
|||||||
|
257 | |||||||
|
258 | ```math |
||||||
| 259 | \beta_{k-1} := {\gradT f(x \iter k) Q h_{k-1} \over h_{k-1}^T Q h_{k-1}} \eqT{3.2.11}, |
|||||||
| 260 | ``` |
|||||||
|
261 | |||||||
| 262 | přičemž body minimalizující posloupnosti jsou počítány podle **Věty** $\secRef{3.2.9}$. |
|||||||
| 263 | ||||||||
| 264 | > Tento výpočet lze "zjednodušit", viz $(3.2.12)$ v přednášce. |
|||||||
| 265 | Hlavní výhodou **metody sdružených gradientů** je její **snadná implementace**, naopak nevýhodou citlivost na podmíněnost matice $Q$. Také se daří říct, že metoda sdružených gradientů **konverguje nejrychleji** z metod založených pouze na *maticovém násobení*. |
|||||||
| 266 | Pro nekvadratické funkce používáme stejný algoritmus jako doteď až na volbu $\beta_k$, ale metodu restartujeme po $n$ krocích |
|||||||
| 267 | ||||||||
| 268 | ##### **Věta** $\secT{3.2.13}$ (Rychlost konvergence) |
|||||||
| 269 | Nechť $f \in C^3$ na $\R^n$, $x \iter 0 \in \R^n$ a $x^*$ je **nedegenerované lokální minimum**, tj. $\grad f(x^*) = 0$ a $\hess f(x^*) > 0$ Nechť $x \iter k$ je výsledek **metody sdružených gradientů** s cyklem délky $n$ a výchozím bodem $x \iter {k-1}$ a nechť $x \iter k \to x\str$ pro $k \to \infty$. Potom **minimalizující posloupnost** $\set{x \iter k}$ konverguje **superlineárně** s řádem **alespoň** $p = 2$. |
|||||||
| 270 | ||||||||
| 271 | > MSG souvisí s metodami *Krylovových podprostorů*. |
|||||||
