Blame

38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
1
# Numerické metody v Rⁿ
2
3
<div style="visibility:hidden;height:0;overflow:hidden;margin:0;padding:0">
4
5
```math
6
\newcommand{\LetThereBe}[2]{\newcommand{#1}{#2}} \newcommand{\letThereBe}[3]{\newcommand{#1}[#2]{#3}}
7
\letThereBe{\addTag}{2}{\cssId{#1-#2}{\tag{#2}}} \letThereBe{\addLabel}{2}{\cssId{#1-#2}{\text{#2}}} \letThereBe{\refTag}{2}{\href{###1-#2}{(\text{#2})}}
8
\letThereBe{\eqT}{1}{\addTag{eq}{#1}}\letThereBe{\secT}{1}{\addLabel{sec}{#1}}
9
\letThereBe{\eqRef}{1}{\refTag{eq}{#1}} \letThereBe{\secRef}{1}{\refTag{sec}{#1}}
10
\letThereBe{\eqRefAt}{2}{\href{#2\#eq-#1}{(\text{#1})}}
11
\letThereBe{\secRefAt}{2}{\href{#2\#sec-#1}{(\text{#1})}}
12
\LetThereBe{\R}{\mathbb{R}} \LetThereBe{\N}{\mathbb{N}}
13
\letThereBe{\rcases}{1}{\left.\begin{align}#1\end{align}\right\}}
14
\letThereBe{\rcasesAt}{2}{\left.\begin{alignat}{#1}#2\end{alignat}\right\}}
15
\letThereBe{\lcases}{1}{\begin{cases}#1\end{cases}}
16
\letThereBe{\lcasesAt}{2}{\left\{\begin{alignat}{#1}#2\end{alignat}\right.}
17
\letThereBe{\scal}{2}{\langle #1, #2 \rangle} \letThereBe{\norm}{1}{\left\lVert #1 \right\rVert} \LetThereBe{\dist}{\rho}
18
\LetThereBe{\and}{\&}\letThereBe{\brackets}{1}{\left\{ #1 \right\}}
19
\letThereBe{\parc}{2}{\frac {\partial #1}{\partial #2}}
20
\letThereBe{\mtr}{1}{\begin{pmatrix}#1\end{pmatrix}}
21
\letThereBe{\bm}{1}{\boldsymbol{#1}} \letThereBe{\mcal}{1}{\mathcal{#1}}
22
\letThereBe{\vv}{1}{\mathbf{#1}}\letThereBe{\vvp}{1}{\pmb{#1}}
23
\LetThereBe{\ve}{\varepsilon} \LetThereBe{\l}{\lambda} \LetThereBe{\th}{\vartheta} \LetThereBe{\a}{\alpha} \LetThereBe{\vf}{\varphi}
24
\letThereBe{\conv}{1}{\mathrm{conv}\, #1} \letThereBe{\cone}{1}{\mathrm{cone}\, #1}
25
\letThereBe{\aff}{1}{\mathrm{aff}\, #1} \letThereBe{\lin}{1}{\mathrm{Lin}\, #1} \letThereBe{\span}{1}{\mathrm{span}\, #1}
26
\LetThereBe{\O}{\mathcal O}
27
\letThereBe{\ri}{1}{\mathrm{ri}\, #1} \letThereBe{\rd}{1}{\mathrm{r}\partial\, #1} \letThereBe{\interior}{1}{\mathrm{int}\, #1}
28
\LetThereBe{\proj}{\Pi} \letThereBe{\epi}{1}{\mathrm{epi}\, #1}
29
\letThereBe{\grad}{1}{\mathrm{grad}\, #1} \letThereBe{\gradT}{1}{\mathrm{grad}^T #1} \letThereBe{\gradx}{1}{\mathrm{grad}_x #1} \letThereBe{\hess}{1}{\nabla^2\, #1} \letThereBe{\hessx}{1}{\nabla^2_x #1} \letThereBe{\jacobx}{1}{D_x #1} \letThereBe{\jacob}{1}{D #1}
30
\letThereBe{\subdif}{1}{\partial #1} \letThereBe{\co}{1}{\mathrm{co}\, #1}
31
\letThereBe{\iter}{1}{^{[#1]}} \LetThereBe{\str}{^*}
32
\LetThereBe{\spv}{\mcal V} \LetThereBe{\civ}{\mcal U}
33
\LetThereBe{\knvxProg}{\eqRefAt{4.1}{./nutne-a-postacujici-podminky-optimality} \, \and \, \eqRefAt{4.2}{./nutne-a-postacujici-podminky-optimality}}
34
\letThereBe{\set}{1}{\left\{ #1 \right\}}
35
```
36
37
</div>
38
Budeme se věnovat úlohám (přesněji numerickým metodám jejich řešení) typu
39
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
40
```math
41
f(x) \to \min, \quad x \in \R^n, \eqT{3.2.1}
42
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
43
44
kde $f:\R^n \to \R$ je *(jednou/dvakrát/třikrát)* **spojitě diferencovatelná** funkce. Obecně jsou metody numerické optimalizace založeny na **minimalizační posloupnosti** $\brackets{x^{[k]}}$ definované jako
45
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
46
```math
47
x^{[k+1]} = x^{[k]} + \a_k h_k,
48
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
49
50
kde $\a_k \in \R$ se nazývá **délka** $k$**-tého kroku** a vektor $h_k \in \R^n$ je **směr** $k$**-tého vektoru**.
51
52
> Budeme uvažovat tzv. **přesnou minimalizaci**, kdy dílčí minimalizace řešíme přesně (nikoliv numerickými metodami)
53
54
> Všechny následující metody jsou **spádové**
55
56
### Metoda největšího spádu
57
U této metody volíme
58
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
59
```math
60
h_k = - \grad f(x^{[k]}),
61
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
62
63
přičemž délku kroku volíme **přesným řešením** úlohy
64
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
65
```math
66
f(x^{[k+1]}) = f(x^{[k]} - \a_k \grad f(x^{[k]})) = \min_{\a \geq 0} f(x^{[k]} - \a \cdot \grad f(x^{[k]}))
67
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
68
69
Dále bude platit, že vektory určené body $x^{[k+1]}, x^{[k]}$ a $x^{[k+2]}, x^{[k+1]}$ jsou na sebe **ortogonální**. Z tohoto dostáváme, že pro daný směr hledáme **nejblížší** vrstevnici, která bude **tečná** k tomuto vektoru.
70
Tato metoda je **prvního řádu** (stačí nám pouze gradient).
71
72
> V některých případech dochází k tzv. "*cik-cak*" efektu (klikatěni), kdy se minimalizující posloupnost dostává k optimu velmi pomalu. Toto se děje například u **Rosenbrockovy (banánové) funkce** (jedna z *testovacích funkcí*)
73
74
#### Kvadratické funkce
75
Nechť $f$ je kvadratická funkce tvaru
76
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
77
```math
78
f(x) = \frac 1 2 \scal {Qx} x - x^T b \eqT{3.2.2},
79
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
80
81
kde $Q = Q^T > 0$ je **symetrická** $n \times n$ matice a $b \in \R^n$. Taková funkce $f$ je **ostře** (i *silně*) konvexní. Z pozitivní definitnosti $Q$ dostáváme, že vlastní čísla matice $Q$ jsou **kladné** a můžeme je uspořádat následovně
82
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
83
```math
84
0 < \l_1 \leq \l_2 \leq \dots \leq \l_n
85
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
86
87
Díky tomu můžeme úlohu $\eqRef{3.2.1}$ vyřešit "přímo" jako $x^*= Q^{-1} b$, nicméně počítání inverze může být **velice náročné** (výpočetně).
88
V tomto případě je gradient $g$ funkce $f$ dán jako
89
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
90
```math
91
g(x) := \grad f(x) = Qx - b,
92
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
93
94
tedy v jednotlivých iteracích dostáváme $g_k := Qx^{[k]} - b$ a $\a_k$ můžeme určit jako
95
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
96
```math
97
\a_k = {g_k^T g_k \over g_k^T Q g_k} \in [1/\l_n, 1/\l_1]
98
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
99
100
Nyní se zaměříme na konvergenci metody, kterou můžeme zkoumat pomocí
101
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
102
```math
103
E(x) := f(x) - f(x^*) = \frac 1 2 (x - x^*)^T Q (x - x^*)
104
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
105
106
##### **Lemma** $\secT{3.2.1}$ (Konvergence metody největšího spádu)
107
Platí
108
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
109
```math
110
E(x^{[k+1]}) = \left(1 - {(g_k^T g_k)^2 \over (g_k^T Q g_k)(g_k^T Q^{-1} g_k)} \right) E(x^{[k]})
111
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
112
113
---
114
115
Z Lemmatu $\secRef{3.2.1}$ okamžitě plyne, že pokud pro nějaké $k \in \N$ nastane
116
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
117
```math
118
1 = {(g_k^T g_k)^2 \over (g_k^T Q g_k)(g_k^T Q^{-1} g_k)}, \eqT{3.2.1-a}
119
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
120
121
tak v $k+1$ metoda největšího spádu nalezne řešení **přesně**. V opačném případě je metoda **nekonečně-kroková**.
122
Rovnost $\eqRef{3.2.1-a}$ nastane v případě, že $g_k$ je **vlastním vektorem** matice $Q$, jinak řečeno gradient musí mířit **do středu** elipsy (*elipsoidu*).
123
V případě, že $\l_1 = \dots = \l_n$ je konvergence **superlineární**. Naopak pokud $\l_1 = \dots = \l_{n-1} \neq \l_n$, tak může být konvergence **velice pomalá**. Ve skutečnosti ještě rychlost konvergence závisí na počátečním $x^{[0]}$
124
125
#### Nekvadratické funkce
126
V případě nekvadratické funkce je metoda největšího spádu schopna nalézt **pouze stacionární body**.
127
128
##### **Lemma** $\secT{3.2.2iii}$ (Lokální konvergence)
129
Nechť $f: \R^n \to \R$ je **spojitě diferencovatelná**. Jestliže bod $x^{[0]} \in \R^n$ je takový, že množina
130
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
131
```math
132
\set{x \in \R^n \mid f(x) \leq f(x^{[0]})}
133
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
134
135
je **ohraničená**, pak posloupnost $\brackets{x^{[k]}}$ generovaná metodou největšího spádu konverguje k bodu $x^*$, kde $\grad f(x^*) = 0$.
136
137
---
138
139
Pokud konverguje $\brackets{x^{[k]}}$ k bodu $x^*$ a funkce $f$ je **dvakrát** spojitě diferencovatelná **na okolí** $x^*$ a platí
140
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
141
```math
142
aI \leq \hess f(x^*) \leq AI,
143
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
144
145
kde $a, A > 0$ (tedy $f$ je v okolí $x^*$ **silně konvexní**), pak metoda konverguje (**alespoň**) s rychlostí $\left(A - a \over A + a\right)^2$
146
147
> Tedy i pro nekvadratické funkce hraje velkou roli podmíněnost matice $\hess f(x^*)$
148
149
> Metoda největšího spádu se nejčastěji využívá v jiných metodách jako pomocné, když ony metody samotné v tu chvíli neposkytují dostatečné zlepšení
150
Celkem můžeme *metodu největšího spádu* shrnout:
151
- **globální** konvergence (pro nekvadratické metody za dalších předpokladů)
152
- **pomalá** konvergence
153
- mnohdy numericky ani nekonverguje
154
- je základem pro další (lepší) metody
155
156
### Newtonova metoda
157
Hlavní myšlenkou Newtonovy metody je, že v $(k+1)$-kroku, kde $k \in \N_0$, funkci $f$ aproximujeme **Taylorovým polynomem druhého řádu** se středem v bodě $x^{[k]}$ a jako $x^{[k+1]}$ volíme bod, ve kterém tento polynom nabývá svého minima.
158
159
> Jinak řečeno místo **tečné nadroviny** k funkci konstruujeme **tečnou $n$-rozměrnou parabolu**
160
Tedy místo funkce $f$ uvažujeme v $k$-tém kroku
161
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
162
```math
163
T_k(x) := f(x^{[k]}) + \grad f(x^{[k]}) (x - x^{[k]}) + \frac 1 2 (x - x^{[k]})^T \hess f(x^{[k]}) (x - x^{[k]}) \approx f(x)
164
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
165
166
Jelikož hledáme řešení $T_k(x) \to \min$, tak výraz výše první zderivujme, z čehož dostaneme
167
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
168
```math
169
\grad T_k(x) = \grad f(x^{[k]}) + \hess f(x^{[k]}) (x - x^{[k]}),
170
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
171
172
což v případě ***regulární*** matice $\hess f(x^{[k]})$ vede na
173
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
174
```math
175
x^{[k+1]} = x^{[k]} - (\hess f(x^{[k]}))^{-1} \grad f(x^{[k]})
176
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
177
178
> Pro $\hess f(x) > 0$ je funkce **konvexní** a nalezneme **minimum**
179
Nicméně je důležité podotknout, že výpočet $(\hess f(x^{[k]}))^{-1}$ je **velmi výpočetně náročný**. Avšak v případě **kvadratické funkce** Newtonova metoda nalezne řešení **v jednom kroku**, tedy její rychlost konvergence je **superlineární** s řádem $\infty$.
180
Regularita matice $\hess f(x^{[k]})$ je velmi důležitá pro konvergenci, viz následující věta.
181
182
##### **Věta** $\secT{3.2.5}$
183
Nechť $f \in C^3$ v okolí bodu $x^*\in \R^n$, který je **nedegenerovaným minimem**, tj. $\grad f(x^*) = 0$ a $\hess f(x^*) > 0$. Potom pro $x^{[0]} \in \R^n$ dostatečně blízko $x^*$ konverguje $\brackets{x^{[k]}}$ generovaná Newtonovou metodou k bodu $x^*$ **superlineárně** s řádem (*alespoň*) $p = 2$ (tj. *kvadraticky*).
184
185
> Zde určit, co znamená "*dostatečně blízko* $x^*$" je obtížné
186
Celkem můžeme *Newtonovu metodu* shrnout jako:
187
- **velmi rychlá** konvergence
188
- nutnost **dostatečně blízké počáteční aproximace**
189
- velmi velká výpočetní náročnost při velkém $n$ (počtu dimenzí)
190
191
### Metoda sdružených gradientů
192
Uvažujme situaci v úloze $\eqRef{3.2.1}$, kdy máme funkci
193
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
194
```math
195
f(x) = \frac 1 2 x^T Q x - b^T x \eqT{MSG},
196
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
197
198
kde $Q = Q^T \in \R^{n \times n}, Q > 0$ je symetrická matice a $b \in \R^n$.
199
Pak nalezení úlohy $\eqRef{3.2.1} \, \and \, \eqRef{MSG}$ je ekvivalentní s řešením úlohy
200
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
201
```math
202
Qx = b \eqT{MSGa},
203
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
204
205
kterou umíme řešit například Gaussovou eliminací.
206
Metoda sdružených gradientů je v případě $Q > 0$ přímou metodou, která dojde k řešení $\eqRef{MSGa}$ po $n$ krocích. Nicméně tento fakt lze brát také jako, že je to iterační metoda s velmi rychlou konvergencí v případě pozitivně definitní matice.
207
208
##### **Definice** $\secT{3.2.7}$ ($Q$-sdružené vektory)
209
Nechť $Q = Q^T \in \R^{n \times n}$ je **pozitivně definitní**. Vektory $h_1, h_2 \in \R^n \setminus \set{0}$ se nazývají $Q$**-sdružené** (nebo také $Q$**-ortogonální**), jestliže
210
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
211
```math
212
\scal {Qh_1} {h_2} = h_1^T Q h_2 = 0
213
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
214
215
Systém vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n \setminus \set{0}$ pro $m \in \set{2, \dots, n}$ se nazývá $Q$**-sdružený**, jestliže
216
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
217
```math
218
\scal {Q h_i} {h_j} = 0 \text{ pro } i \neq j
219
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
220
221
##### **Věta** $\secT{3.2.8}$
222
Nechť systém vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n \setminus \set{0}$ s $m \in \set{2, \dots, n}$ je $Q$**-sdružený**. Potom jsou tyto vektory **lineárně nezávislé**.
223
224
##### **Věta** $\secT{3.2.9}$
225
Nechť $m \in \set{2, \dots, n}$ a mějme systém $Q$*-sdružených* vektorů $\set{h_0, \dots, h_{m-1}}$ v $\R^n$. Nechť $x \iter 0$ je **dáno** a body $x \iter 1, \dots, x \iter m$ jsou dány jako
226
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
227
```math
228
x \iter {k+1} = x \iter k + \a_k h_k = x \iter 0 + \sum_{i = 0}^k \a_i h_i, \quad k \in \set{0, \dots, m-1}, \eqT{3.2.8}
229
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
230
231
kde $\a_k$ jsou volena tak, že $f(x \iter k + \a_k h_k) = \min_{\a \in \R} f(x \iter k + \a h_k)$ pro $k \in \set{0, \dots, m-1}$ (tj. jsou volena **přesnou minimalizací**). Pak pro kvadratickou funkci $f$ definovanou v $\eqRef{MSG}$ platí
232
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
233
```math
234
f(x \iter m) = \min_{x \in X_m} f(x),
235
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
236
237
kde $X_m := \lin \set{h_0, \dots, h_{m-1}}$ (viz **Definice** $\secRefAt{2.1.6}{./Konvexní množiny}$ - lineární obal). Zejména pro $m = n$ dostáváme
238
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
239
```math
240
f(x \iter n) = \min_{x \in \R^n} f(x),
241
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
242
243
tj. $x \iter n$ je řešením úlohy $\eqRef{3.2.1} \, \and \, \eqRef{MSG}$.
244
245
> Nalezení $Q$**-sdružených** vektorů lze provést zobecněným **Gramm-Schmidtovým ortogonalizačním procesem** (ten je uveden v Lin. Alg. ve speciálním tvaru pro $Q = I$).
246
Explicitně můžeme odvodit délku $k$-tého kroku jako
247
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
248
```math
249
\a_k = - {h_k^T \grad f(x \iter k) \over h_k^T Q h_k} \eqT{3.2.9}
250
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
251
252
Celkem můžeme metodu popsat následovně
253
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
254
```math
255
h_0 := -\grad f(x \iter 0), \quad h_k := -\grad f(x \iter k) + \beta_{k-1} h_{k-1} \eqT{3.2.10}
256
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
257
1549fd Štěpán Zapadlo 2026-03-28 10:21:00
Fix display math
258
```math
259
\beta_{k-1} := {\gradT f(x \iter k) Q h_{k-1} \over h_{k-1}^T Q h_{k-1}} \eqT{3.2.11},
260
```
38e12f Štěpán Zapadlo 2026-03-27 23:43:23
Add numerics in Rn with the correct capitalization
261
262
přičemž body minimalizující posloupnosti jsou počítány podle **Věty** $\secRef{3.2.9}$.
263
264
> Tento výpočet lze "zjednodušit", viz $(3.2.12)$ v přednášce.
265
Hlavní výhodou **metody sdružených gradientů** je její **snadná implementace**, naopak nevýhodou citlivost na podmíněnost matice $Q$. Také se daří říct, že metoda sdružených gradientů **konverguje nejrychleji** z metod založených pouze na *maticovém násobení*.
266
Pro nekvadratické funkce používáme stejný algoritmus jako doteď až na volbu $\beta_k$, ale metodu restartujeme po $n$ krocích
267
268
##### **Věta** $\secT{3.2.13}$ (Rychlost konvergence)
269
Nechť $f \in C^3$ na $\R^n$, $x \iter 0 \in \R^n$ a $x^*$ je **nedegenerované lokální minimum**, tj. $\grad f(x^*) = 0$ a $\hess f(x^*) > 0$ Nechť $x \iter k$ je výsledek **metody sdružených gradientů** s cyklem délky $n$ a výchozím bodem $x \iter {k-1}$ a nechť $x \iter k \to x\str$ pro $k \to \infty$. Potom **minimalizující posloupnost** $\set{x \iter k}$ konverguje **superlineárně** s řádem **alespoň** $p = 2$.
270
271
> MSG souvisí s metodami *Krylovových podprostorů*.