Ortogonálna projekcia

Moderators: Martin Sleziak, Ludovit_Balko, Martin Niepel, Tibor Macko

Post Reply
Martin Sleziak
Posts: 5689
Joined: Mon Jan 02, 2012 5:25 pm

Ortogonálna projekcia

Post by Martin Sleziak »

Podobná úloha je vyriešená tu: viewtopic.php?t=824 (A viacero príkladov z tejto kapitoly je pozbieraných tu: viewtopic.php?t=993)

Ak ste zvedaví na príklady z písomiek z minulých rokov z takejto témy (=ortogonálna projekcia), tak sa môžete pozrieť sem:
viewtopic.php?t=1414
viewtopic.php?t=1214
viewtopic.php?t=1061
viewtopic.php?t=854

Zadanie
Nájdite maticu ortogonálnej projekcie na zadaný podpriestor $S$. (Pracujeme v $\mathbb R^4$ s~obvyklým skalárnym súčinom.)
A: $S=[(0,1,-1,-1),(1,0,-1,1),(1,1,1,-3)]$
B: $S=[(1,1,0,-2),(-1,0,1,-1),(-1,1,1,-3)]$
C: $S=[(1,-1,0,2),(-1,0,1,-1),(1,1,1,-3)]$
D: $S=[(1,-1,2,0),(0,1,-1,-1),(0,1,-3,1)]$

Výsledok

Vo všetkých skupinách je správny výsledok:
$$P=\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac13 &-\frac13 &-\frac13 \\
0 &-\frac13 & \frac56 &-\frac16 \\
0 &-\frac13 &-\frac16 & \frac56 \\
\end{pmatrix}$$

Môžeme si pripomenúť niektoré vlastnosti, ktoré vieme o matice ortogonálnej projekcie (pri štandardnom skalárnom súčine):
  • Matica $P$ je symetrická.
  • Stopa a hodnosť tejto matice je rovná $\dim(S)$.
  • Platí $P^2=P$.
Prvé dve vlastnosti sú také, že sa dajú skontrolovať veľmi ľahko. (Pripomeniem, že stopa štvorcovej matice je súčet jej diagonálnych prvkov.)
Pri tretej by bolo treba trochu počítať - ale azda je ju rozumné pripomenúť, nedávno bola aj bonusová prednášková úloha, ktorá sa týkala tejto vlastnosti.
Martin Sleziak
Posts: 5689
Joined: Mon Jan 02, 2012 5:25 pm

Re: Ortogonálna projekcia

Post by Martin Sleziak »

Napíšem sem výpočty pre skupinu A - ale ak by vám niečo nesedelo v riešeniach iných skupín, ktoré ste odovzdali, tak sa môžete ozvať mailom - buď skúsim vysvetliť v mailoch alebo sem dopísať niečo aj k niektorej z ostatných skupín.

Riešenie:
Najprv si môžeme zjednodušiť popis priestoru $S$:
$\begin{pmatrix}
0 & 1 &-1 &-1 \\
1 & 0 &-1 & 1 \\
1 & 1 & 1 &-3 \\
\end{pmatrix}\sim\dots\sim
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & 1 & 0 &-2 \\
0 & 0 & 1 &-1 \\
\end{pmatrix}
$
Spoiler:
$\begin{pmatrix}
0 & 1 &-1 &-1 \\
1 & 0 &-1 & 1 \\
1 & 1 & 1 &-3 \\
\end{pmatrix}\sim$ $
\begin{pmatrix}
1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 \\
1 & 1 & 1 &-3 \\
\end{pmatrix}\sim$ $
\begin{pmatrix}
1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 \\
0 & 1 & 2 &-4 \\
\end{pmatrix}\sim$ $
\begin{pmatrix}
1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 \\
0 & 0 & 3 &-3 \\
\end{pmatrix}\sim$ $
\begin{pmatrix}
1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 \\
0 & 0 & 1 &-1 \\
\end{pmatrix}\sim$ $
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & 1 & 0 &-2 \\
0 & 0 & 1 &-1 \\
\end{pmatrix}
$
Vidíme, že $\dim(S)=3$, súčasne z tohoto vieme vyčítať aj
$$S^\bot=[(0,2,1,1)].$$

Asi najjednoduchší postup je najprv vyrátať priemet na $S^\bot$, keďže maticu projekcie na jednorozmerný podpriestor vieme vypočítať ľahko.
Ak si vezmeme vektor jednotkovej dĺžky ktorý generuje $S$, t.j. $\vec u=u=\frac1{\sqrt6}(0,2,1,1)$, tak maticu projekcie dostaneme takto:
$P'=\vec u^T\vec u=
\frac16
\begin{pmatrix}
0 \\ 2 \\ 1 \\1 \\
\end{pmatrix}
\begin{pmatrix}
0 & 2 & 1 & 1 \\
\end{pmatrix}=
\frac16\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & 4 & 2 & 2 \\
0 & 2 & 1 & 1 \\
0 & 2 & 1 & 1 \\
\end{pmatrix}=
\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & \frac23 & \frac13 & \frac13 \\
0 & \frac13 & \frac16 & \frac16 \\
0 & \frac13 & \frac16 & \frac16 \\
\end{pmatrix}
$

Toto je zatiaľ projekcia na $S^\bot$, projekciu na $S$ dostaneme takto
$$P=I-P'=
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac13 &-\frac13 &-\frac13 \\
0 &-\frac13 & \frac56 &-\frac16 \\
0 &-\frac13 &-\frac16 & \frac56 \\
\end{pmatrix}.
$$

Skúška:
Ak to je správne, tak pre vektory z $S$ má platiť $\vec xP=\vec x$. Pre vektory z $S^\bot$ má platiť $\vec xP=\vec 0$.
Priamo výpočtom sa môžete presvedčiť, že
$(1,0,0,0)P=(1,0,0,0)$
$(0,1,0,-2)P=(0,1,0,-2)$
$(0,0,1,-1)P=(0,0,1,-1)$
$(0,2,1,1)P=(0,0,0,0)$
(Skúšať to môžete aj so zadanými vektormi - ja som zobral bázové vektory pre $S$, ktoré som dostal úpravou na redukovaný tvar.)
Martin Sleziak
Posts: 5689
Joined: Mon Jan 02, 2012 5:25 pm

Re: Ortogonálna projekcia

Post by Martin Sleziak »

Postup pomocou projekcie na jednorozmerný priestor $S^\bot$, ktorý som napísal vyššie, je asi najrýchlejší.
Skúsim ale napísať aj niečo k iným postupom, ktoré ste skúšali.

Riešenie pomocou matice zobrazenia.

Vieme, že
* pre $\vec x\in S$ platí $\vec xP=\vec x$;
* pre $\vec x\in S^\bot$ platí $\vec xP=\vec 0$.

Tieto informácie nám stačia na to, aby sme mohli použiť postup, ktorý sme sa naučili pri hľadaní matice zobrazenia.

$
\left(\begin{array}{cccc|cccc}
0 & 1 &-1 &-1 & 0 & 1 &-1 &-1 \\
1 & 0 &-1 & 1 & 1 & 0 &-1 & 1 \\
1 & 1 & 1 &-3 & 1 & 1 & 1 &-3 \\
0 & 2 & 1 & 1 & 0 & 0 & 0 & 0
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 &-1 & 1 & 1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 & 0 & 1 &-1 &-1 \\
1 & 1 & 1 &-3 & 1 & 1 & 1 &-3 \\
0 & 2 & 1 & 1 & 0 & 0 & 0 & 0
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 &-1 & 1 & 1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 & 0 & 1 &-1 &-1 \\
0 & 0 & 3 &-3 & 0 & 0 & 3 &-3 \\
0 & 0 & 3 & 3 & 0 &-2 & 2 & 2
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 &-1 & 1 & 1 & 0 &-1 & 1 \\
0 & 1 &-1 &-1 & 0 & 1 &-1 &-1 \\
0 & 0 & 1 &-1 & 0 & 0 & 1 &-1 \\
0 & 0 & 1 & 1 & 0 &-\frac23 & \frac23 & \frac23
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 & \frac13 &-\frac13 &-\frac13 \\
0 & 0 & 1 &-1 & 0 & 0 & 1 &-1 \\
0 & 0 & 1 & 1 & 0 &-\frac23 & \frac23 & \frac23
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 & \frac13 &-\frac13 &-\frac13 \\
0 & 0 & 2 & 0 & 0 &-\frac23 & \frac53 &-\frac13 \\
0 & 0 & 1 & 1 & 0 &-\frac23 & \frac23 & \frac23
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 & \frac13 &-\frac13 &-\frac13 \\
0 & 0 & 1 & 0 & 0 &-\frac13 & \frac56 &-\frac16 \\
0 & 0 & 1 & 1 & 0 &-\frac23 & \frac23 & \frac23
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 & \frac13 &-\frac13 &-\frac13 \\
0 & 0 & 1 & 0 & 0 &-\frac13 & \frac56 &-\frac16 \\
0 & 0 & 0 & 1 & 0 &-\frac13 &-\frac16 & \frac56
\end{array}\right)
$

Nájdenie ortogonálnej/ortonormálnej bázy.

Viacerí ste to rátali tak, že ste hľadali ortonormálnu bázu pre podpriestor $S$.

Ak sa nám už podarí nájsť ortonormálnu bázu $\vec u_1, \vec u_2, \vec u_3$ pre podpriestor $S$, tak maticu projekcie môžeme získať ako
$$P=\vec u_1^T\vec u_1+\vec u_2^T\vec u_2+\vec u_3^T\vec u_3$$
alebo
$$P=
\begin{pmatrix}\vec u_1^T & \vec u_2^T & \vec u_3^T \end{pmatrix}
\begin{pmatrix} \vec u_1 \\ \vec u_2 \\ \vec u_3 \end{pmatrix}
$$
(Môžete si skúsiť rozmyslieť, že aj jeden aj druhý výpočet musí dať to isté.)

Zdôrazním, že toto funguje iba pre ortonormálnu bázu - teda vektory musia byť na seba kolmé a musia mať jednotkovú dĺžku.

Nejaké príklady na fóre na nájdenie ortogonálnej resp. ortonormálnej bázy:
viewtopic.php?t=604
viewtopic.php?t=852

Ukazovali sme si dva štandardné postupy ako hľadať ortogonálnu bázu. (A z nej potom môžeme nájsť ortonormálnu bázu.)
Jeden je Gram-Schmidtov proces, druhý je pomocou sústavy rovníc.
Zopakujem, že pri GS mi môže pomôcť ak začnem s jednoduchšou bázou. (Napr. nejakou kde je viac núl, alebo tiež sa mi môže hodiť ak už mám v báze nejaké vektory, ktoré sú na seba kolmé.) Konkrétne v tomto príklade sa mi bude ľahšie počítať, ak vezmem vektory $(1,0,0,0)$, $(0,1,0,-2)$, $(0,0,1,-1)$, než keď by som začal s pôvodne zadanými vektormi.
Aj pri riešení pomocou sústav mám miesto, kde si môžem vyberať rôzne vektory - a tým si možno niekedy zjednoduším život, ale tam až taký diametrálny rozdiel nevznikne, keďže tam aj tak robím riadkové úpravy, takže by som mal dostať pomerne jednoduché matice.

Gram-Schmidtov proces.
Skúsme pomocou GS procesu z vektorov $\vec a_1=(1,0,0,0)$, $\vec a_2=(0,1,0,-2)$, $\vec a_3=(0,0,1,-1)$ vytvoriť ortogonálnu bázu $\vec b_1, \vec b_2, \vec b_3$.
Položíme $\vec b_1=\vec a_1=(1,0,0,0)$.
Hneď vidíme, že $\vec a_2$ je kolmý na $\vec b_1$, takže bez toho aby sme čokoľvek počítali, môžeme použiť $\vec b_2=\vec a_2=(0,1,0,-2)$.
Pri $\vec b_3$ musíme už počítať, ale keďže $\vec a_3$ je kolmý na $\vec a_1$, tak to vyjde jednoducho.
\begin{align*}
\vec b_3
&=\vec a_3-\frac{\langle \vec a_3, \vec b_1 \rangle}{\langle \vec b_1, \vec b_1 \rangle}\vec b_1 - \frac{\langle \vec a_3, \vec b_2 \rangle}{\langle \vec b_2, \vec b_2 \rangle}\vec b_2\\
&=\vec a_3-\frac25\vec a_2\\
&=(0,0,1,-1)-\frac25(0,1,0,-2)\\
&=\frac15(0,-2,5,-1)
\end{align*}
Ak tieto vektory ešte vynormujeme, tak dostaneme
\begin{align*}
\vec u_1&=(1,0,0,0)\\
\vec u_2&=\frac1{\sqrt5}(0,1,0,-2)\\
\vec u_3&=\frac1{\sqrt{30}}(0,-2,5,-1)
\end{align*}
Potom maticu projekcie môžeme vypočítať ako
\begin{align*}
P&=
\begin{pmatrix}
1 \\ 0 \\ 0 \\ 0 \\
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0 & 0 \\
\end{pmatrix}+
\frac15\begin{pmatrix}
0 \\ 1 \\ 0 \\ -2 \\
\end{pmatrix}
\begin{pmatrix}
0 & 1 & 0 &-2 \\
\end{pmatrix}+
\frac1{30}\begin{pmatrix}
0 \\ -2 \\ 5 \\ -1 \\
\end{pmatrix}
\begin{pmatrix}
0 &-2 & 5 &-1 \\
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
\end{pmatrix}+
\frac15\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & 1 & 0 &-2 \\
0 & 0 & 0 & 0 \\
0 &-2 & 0 & 4 \\
\end{pmatrix}+
\frac1{30}\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & 4 &-10& 2 \\
0 &-10& 25&-5 \\
0 & 2 &-5 & 1 \\
\end{pmatrix}\\
&=
\frac1{30}\begin{pmatrix}
30& 0 & 0 & 0 \\
0 & 10&-10&-10\\
0 &-10& 25&-5 \\
0 &-10&-5 &25 \\
\end{pmatrix}=
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac13 &-\frac13 &-\frac13 \\
0 &-\frac13 & \frac56 &-\frac16 \\
0 &-\frac13 &-\frac16 & \frac56 \\
\end{pmatrix}
\end{align*}

Ak sa vám viac pozdáva takýto zápis, môžete si vyskúšať že presne to isté dostaneme vynásobením matíc, ktoré dostaneme z vektorov v nájdenej ortonormálnej báze:
$$
\begin{pmatrix}
1 & 0 & 0 \\
0 & \frac1{\sqrt5} &-\frac2{\sqrt30} \\
0 & 0 & \frac5{\sqrt30} \\
0 &-\frac2{\sqrt5} &-\frac1{\sqrt30} \\
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac1{\sqrt5} & 0 & -\frac2{\sqrt5} \\
0 & -\frac2{\sqrt30} & \frac5{\sqrt30} & -\frac1{\sqrt30} \\
\end{pmatrix}
$$

Sústavy rovníc.
Už sme vyrátali, že náš podpriestor je množina $S=\{(x_1,x_2,x_3,x_4); 2x_2+x_3+x_4=0\}$.
Teda môžeme vytvárať ortogonálnu bázu tak, že uvedenou rovnicou zapíšeme to že vektor patrí do $S$ a pridáme podmienky hovoriace, že vektor má byť kolmý na doteraz zvolené vektory.

Môžeme znovu začať s vektorom
$\vec c_1=(1,0,0,0)$.

Vektory kolmé na tento vektor a patriace do $S$ sú riešenia sústavy
$$
\left(\begin{array}{cccc|c}
1 & 0 & 0 & 0 & 0 \\
0 & 2 & 1 & 1 & 0
\end{array}\right)
$$
Vyberme si z nich napríklad vektor
$\vec c_2=(0,0,1,-1)$.

Teraz hľadáme vektory kolmé na prvé dva a patriace do $S$, t.j. riešime sústavu
$$
\left(\begin{array}{cccc|c}
1 & 0 & 0 & 0 & 0 \\
0 & 2 & 1 & 1 & 0 \\
0 & 0 & 1 &-1 & 0 \\
\end{array}\right)
$$
Riešením je napríklad vektor
$\vec c_3=(0,-1,1,1)$.
Spoiler:
$\left(\begin{array}{cccc|c}
1 & 0 & 0 & 0 & 0 \\
0 & 2 & 1 & 1 & 0 \\
0 & 0 & 1 &-1 & 0 \\
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|c}
1 & 0 & 0 & 0 & 0 \\
0 & 2 & 0 & 2 & 0 \\
0 & 0 & 1 &-1 & 0 \\
\end{array}\right)\sim$ $
\left(\begin{array}{cccc|c}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 1 & 0 \\
0 & 0 & 1 &-1 & 0 \\
\end{array}\right)$
Po vynormovaní máme ortonormálnu bázu
\begin{align*}
\vec u_1&=(1,0,0,0)\\
\vec u_2&=\frac1{\sqrt2}(0,0,1,-1)\\
\vec u_3&=\frac1{\sqrt3}(0,-1,1,1)
\end{align*}
a z nej dostaneme

\begin{align*}
P&=
\begin{pmatrix}
1 \\ 0 \\ 0 \\ 0 \\
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0 & 0 \\
\end{pmatrix}+
\frac12\begin{pmatrix}
0 \\ 0 \\ 1 \\ -1 \\
\end{pmatrix}
\begin{pmatrix}
0 & 0 & 1 &-1 \\
\end{pmatrix}+
\frac13\begin{pmatrix}
0 \\ -1 \\ 1 \\ 1 \\
\end{pmatrix}
\begin{pmatrix}
0 &-1 & 1 & 1 \\
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
\end{pmatrix}+
\frac12\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 \\
0 & 0 & 1 &-1 \\
0 & 0 &-1 & 1 \\
\end{pmatrix}+
\frac13\begin{pmatrix}
0 & 0 & 0 & 0 \\
0 & 1 &-1 &-1 \\
0 &-1 & 1 & 1 \\
0 &-1 & 1 & 1 \\
\end{pmatrix}\\
&=\frac16\begin{pmatrix}
6 & 0 & 0 & 0 \\
0 & 2 &-2 &-2 \\
0 &-2 & 5 &-1 \\
0 &-2 &-1 & 5 \\
\end{pmatrix}
=\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac13 &-\frac13 &-\frac13 \\
0 &-\frac13 & \frac56 &-\frac16 \\
0 &-\frac13 &-\frac16 & \frac56 \\
\end{pmatrix}
\end{align*}

Chyby, ktoré sa vyskytovali:

Viacero z vás používalo nejaký postup, ktorý funguje pri ortonormálnu bázu - ale použili ste bázu, ktorá nie je ortonormálna (v niektorých riešeniach dokonca ani ortogonálna).
Martin Sleziak
Posts: 5689
Joined: Mon Jan 02, 2012 5:25 pm

Re: Ortogonálna projekcia

Post by Martin Sleziak »

Objavilo sa jedno pomerne originálne riešenie, ktoré si zaslúži komentár. (Keďže z neho možno vidieť nejaké zaujímavé veci, aj keď na túto konkrétnu úlohu by ich nebolo treba.)$\newcommand{\intrv}[2]{\langle #1,#2 \rangle}\newcommand{\skal}[2]{\intrv{\vec{#1}}{\vec{#2}}}\newcommand{\skl}[2]{\intrv{#1}{#2}}$

Riešenie v takej podobe ako bolo odovzdané som dal sem.

Ja ho to budem parafrázovať a niektoré veci poviem trošičku inak. (Pretože k niektorým krokom som chcel dopísať detailnejšie komentáre.)

Riešenie.

Označme si vektory, ktoré generujú $S$ ako $\vec u_1,\vec u_2,\vec u_3$. (Skontrolovali sme už, že sú lineárne nezávislé.)
Podpriestor $S^\bot$ je potom jednorozmerný, generátor označme $\vec v_4$.
Tieto štyri vektory tvoria bázu $\mathbb R^4$, každý vektor sa dá (jednoznačne) vyjadriť ako ich lineárne kombinácia, teda vieme takto vyjadriť aj vektory štandardnej bázy:
\begin{align*}
\vec e_1&=\alpha_1\vec u_1+\alpha_2\vec u_2+\alpha_3\vec u_3+\alpha_4\vec v_4\\
\vec e_2&=\beta_1\vec u_1+\beta_2\vec u_2+\beta_3\vec u_3+\beta_4\vec v_4\\
\vec e_3&=\gamma_1\vec u_1+\gamma_2\vec u_2+\gamma_3\vec u_3+\gamma_4\vec v_4\\
\vec e_4&=\delta_1\vec u_1+\delta_2\vec u_2+\delta_3\vec u_3+\delta_4\vec v_4\\
\end{align*}
Spoiler:
Keby som použil označenie
\begin{align*}
\vec e_1&=a_{11}\vec u_1+a_{12}\vec u_2+a_{13}\vec u_3+a_{14}\vec v_4\\
\vec e_2&=a_{21}\vec u_1+a_{22}\vec u_2+a_{23}\vec u_3+a_{24}\vec v_4\\
\vec e_3&=a_{31}\vec u_1+a_{32}\vec u_2+a_{33}\vec u_3+a_{34}\vec v_4\\
\vec e_4&=a_{41}\vec u_1+a_{42}\vec u_2+a_{43}\vec u_3+a_{44}\vec v_4\\
\end{align*}
tak by som možno vedel niektoré veci zapísať stručnejšie resp. naraz pre všetky štyri vektory.
Ale možno takto je to o kúsok prehľadnejšie.
Na nájdenie matice zobrazenia nás zaujímajú $f(\vec e_1),\dots,f(\vec e_4)$.
Z linearity a z toho, že $f(\vec u_i)=\vec u_i$ a $f(\vec v_i)=\vec 0$ dostaneme:
\begin{align*}
f(\vec e_1)&=\alpha_1\vec u_1+\alpha_2\vec u_2+\alpha_3\vec u_3\\
f(\vec e_2)&=\beta_1\vec u_1+\beta_2\vec u_2+\beta_3\vec u_3\\
f(\vec e_3)&=\gamma_1\vec u_1+\gamma_2\vec u_2+\gamma_3\vec u_3\\
f(\vec e_4)&=\delta_1\vec u_1+\delta_2\vec u_2+\delta_3\vec u_3\\
\end{align*}
Vidíme, že nám stačí nejako nájsť $\alpha_1,\dots\alpha_3$, podobne pre bety, gamy, delty.

Mohli by sme rátať sústavu, ktorú sme uviedli vyššie. Nevýhoda je, že by sme zbytočne počítali $\alpha_4$, $\beta_4$, $\gamma_4$, $\delta_4$, ktoré reálne nepotrebujeme.
Všimnime si, že ak rovnice ktoré sme si napísali vyššie vynásobíme skalárne s $\vec u_1$, $\vec u_2$, $\vec u_3$, tak člen obsahujúci $\vec v_4$ vypadne.
\begin{align*}
\skal{e_1}{u_1}&=\alpha_1\skal{u_1}{u_1}+\alpha_2\skal{u_2}{u_1}+\alpha_3\skal{u_3}{u_1}\\
\skal{e_1}{u_2}&=\alpha_1\skal{u_1}{u_2}+\alpha_2\skal{u_2}{u_2}+\alpha_3\skal{u_3}{u_2}\\
\skal{e_1}{u_3}&=\alpha_1\skal{u_1}{u_3}+\alpha_2\skal{u_2}{u_3}+\alpha_3\skal{u_3}{u_3}\\
\end{align*}
Takto sme dostali sústavu troch rovníc s tromi neznámymi, kde všetky koeficienty poznáme - a z nej môžeme vypočítať $\alpha_{1,2,3}$.
$$\left(\begin{array}{ccc|c}
\skal{u_1}{u_1} & \skal{u_2}{u_1} & \skal{u_3}{u_1} & \skal{e_1}{u_1} \\
\skal{u_1}{u_2} & \skal{u_2}{u_2} & \skal{u_3}{u_2} & \skal{e_1}{u_2} \\
\skal{u_1}{u_3} & \skal{u_2}{u_3} & \skal{u_3}{u_3} & \skal{e_1}{u_3} \\
\end{array}\right)$$
To isté môžeme urobiť pre bety, gamy i delty. Súčasne si môžeme všimnúť, že tieto sústavy majú rovnakú maticu, líšia sa len pravými stranami - vieme ich teda riešiť všetky štyri naraz.
$$\left(\begin{array}{ccc|cccc}
\skal{u_1}{u_1} & \skal{u_2}{u_1} & \skal{u_3}{u_1} & \skal{e_1}{u_1} & \skal{e_2}{u_1} & \skal{e_3}{u_1} & \skal{e_4}{u_1} \\
\skal{u_1}{u_2} & \skal{u_2}{u_2} & \skal{u_3}{u_2} & \skal{e_1}{u_2} & \skal{e_2}{u_2} & \skal{e_3}{u_2} & \skal{e_4}{u_2} \\
\skal{u_1}{u_3} & \skal{u_2}{u_3} & \skal{u_3}{u_3} & \skal{e_1}{u_3} & \skal{e_2}{u_3} & \skal{e_3}{u_3} & \skal{e_4}{u_3} \\
\end{array}\right)$$

Teraz keď už naozaj počítame so zadanými číslami (v tomto prípade zo skupiny D), tak dostaneme:
$$
\left(\begin{array}{ccc|cccc}
6 &-3 &-7 & 1 &-1 & 2 & 0 \\
-3 & 3 & 3 & 0 & 1 &-1 & 0 \\
-7 & 3 &11 & 0 & 1 &-3 & 1
\end{array}\right)\sim\dots\sim
\left(\begin{array}{ccc|cccc}
1 & 0 & 0 & 1 & 0 & 0 & 0 \\
0 & 1 & 0 & \frac12 & \frac13 &-\frac1{12} &-\frac7{12} \\
0 & 0 & 1 & \frac12 & 0 &-\frac14 & \frac14
\end{array}\right)
$$
Z výslednej matice vieme vyčítať $\alpha_1,\dots\alpha_3$ (z prvého stĺpca), podobne pre beta, gamy, delty.
T.j. máme napríklad $\alpha_1=1$, $\alpha_2=\frac12$, $\alpha_3=\frac12$ a pomocou týchto čísel dostaneme $f(\vec e_1)$.
Podobne $f(\vec e_2)$ môžeme dostať pomocou $\beta_1=\beta_3=0$, $\beta_2=\frac13$, ktoré sme vyčítali z druhého stĺpca.
(1,-1,2,0),(0,1,-1,-1),
\begin{align*}
f(\vec e_1)&=\vec u_1+\frac12\vec u_2+\frac12\vec u_3=(1,-1,2,0)+\frac12(0,1,-1,-1)+\frac12(0,1,-3,1)=(1,0,0,0)\\
f(\vec e_2)&=\frac13\vec u_2=\frac13(0,1,-1,-1)=(0,\frac13,-\frac13,-\frac13)\\
f(\vec e_3)&=-\frac1{12}\vec u_2-\frac14\vec u_3=-\frac1{12}(0,1,-1,-1)-\frac14(0,1,-3,1)=(0,-\frac13,\frac56,-\frac16)\\
f(\vec e_4)&=-\frac7{12}\vec u_2+\frac14\vec u_3=-\frac7{12}(0,1,-1,-1)+\frac14(0,1,-3,1)=(0,-\frac13,-\frac16,\frac56)\\
\end{align*}

Teda naozaj dostávame
$$P=\begin{pmatrix}
1 & 0 & 0 & 0 \\
0 & \frac13 &-\frac13 &-\frac13 \\
0 &-\frac13 & \frac56 &-\frac16 \\
0 &-\frac13 &-\frac16 & \frac56 \\
\end{pmatrix}.$$

Zovšeobecnenie.

Napriek tomu, že toto riešenie bolo zdĺhavejšie ako výpočet pomocou projekcie na $S^\bot$, zdalo sa mi zaujímavé, keďže na ňom môžeme ukázať nejaké veci, ktoré platia všeobecne.
Poďme sa zamyslieť nad tým, čo sme vlastne popritom vypočítali a či takéto niečo funguje všeobecne.
Označme si ako $A$ maticu, ktorej riadky sú $\vec u_1,\dots,\vec u_3$, t.j.
$$A=
\begin{pmatrix}
\vec u_1 \\ \vec u_2 \\ \vec u_3
\end{pmatrix}
$$
Všimnime si, že matica ktorá bola na ľavej strane predošlých výpočtov je matica kde prvok v $i$-tom riadku a $j$-tom stĺpci bol $\skal{u_i}{u_j}=\vec u_i \vec u_j^T$, čo je presne matica $AA^T$.
Spoiler:
$$AA^T=
\begin{pmatrix}
\vec u_1 \\ \vec u_2 \\ \vec u_3
\end{pmatrix}
\begin{pmatrix}
\vec u_1^T & \vec u_2^T & \vec u_3^T
\end{pmatrix}=
\begin{pmatrix}
\vec u_1\vec u_1^T & \vec u_1\vec u_2^T & \vec u_1\vec u_3^T \\
\vec u_2\vec u_1^T & \vec u_2\vec u_2^T & \vec u_2\vec u_3^T \\
\vec u_3\vec u_1^T & \vec u_3\vec u_2^T & \vec u_3\vec u_3^T \\
\end{pmatrix}
$$
Vpravo je priamo matica $A$.

Takže sme riadkovými úpravami urobili niečo takéto:
$$
\left(\begin{array}{c|c}
AA^T & A
\end{array}\right)\sim
\left(\begin{array}{c|c}
I & X
\end{array}\right)
$$
Pretože vieme, že riadkové úpravy zodpovedajú vynásobením nejakou maticou zľava, tak máme $BAA^T=I$, $BA=X$, čiže
$$X=(AA^T)^{-1}A.$$

Teraz sa pozrieme na to, čo sme s touto maticou urobili ďalej. Pozreli sme sa na stĺpce a tie nám poslúžili ako koeficienty také, že lineárne kombinácie riadkov $A$ nám dali hľadanú maticu.
Robíme lineárne kombinácie riadkov - čiže to je opäť násobenie zľava. Všimnime si ale, že násobíme maticou $X^T$, koeficienty sme totiž brali zo stĺpcov.
Táto matica je rovná $$X^T=A^T((A^T)^TA^T)^{-1}.$$
Spoiler:
\begin{align*}
X^T&=((AA^T)^{-1}A)^T\\
&=A^T((AA^T)^{-1})^T\\
&=A^T((AA^T)^T)^{-1}\\
&=A^T((A^T)^TA^T)^{-1}\\
\end{align*}
Dostávame teda
$$X^T=A^T(AA^T)^{-1}$$
a
$$P=X^TA=A^T(AA^T)^{-1}A.$$

Vidíme, že sme dostali nejaký vzťah pre maticu projekcie - prirodzená otázka je či to bude takto fungovať vždy.
K tomuto len sformulujem veci, ktoré o tom platia - a môže ich brať ako hviezdičkové cvičenia. (Niečo z toho by sa asi dalo zdôvodniť aj pomocou postupu uvedeného vyššie - ale možno nájdete aj jednoduchšie riešenia.)

V prvom rade, nie je jasné či v uvedenom postupe sa vždy dá matica doupravovať do takého tvaru, aby sme vľavo mali $I$.

Úloha 1. Nech $A$ je matica rozmerov $m\times n$, ktorá má hodnosť $h(A)=m$ (t.j. riadky sú lineárne nezávislé). Potom matica $AA^T$ je regulárna.

Ak vieme, že platí takéto tvrdenie, tak výraz $(AA^T)^{-1}$ v matici, ktorá nám vyšla, má zmysel.

Môžeme si tiež povedať, že toto tvrdenie platí nielen pre štandadrný skalárny súčin.

Úloha 2. Majme priestor so skalárnym súčinom a $\vec u_1, \vec u_2, \dots, \vec u_n$ nech je jeho báza. Zoberme maticu $n\times n$ takú, že $a_{ij}=\skal{u_i}{u_j}$, t.j.
$$A=
\begin{pmatrix}
\skal{u_1}{u_1} & \skal{u_1}{u_2} & \ldots & \skal{u_1}{u_n} \\
\skal{u_2}{u_1} & \skal{u_2}{u_2} & \ldots & \skal{u_2}{u_n} \\
\vdots & & \ddots & \vdots \\
\skal{u_n}{u_1} & \skal{u_n}{u_2} & \ldots & \skal{u_n}{u_n} \\
\end{pmatrix}.
$$
Dokážte, že $\det(A)\ge 0$ a že tieto vektory sú lineárne nezávislé práve vtedy, keď $\det(A)>0$.

Táto matica sa zvykne volať Gramova matica. Wikipédia: Gramian matrix.

Zatiaľ ignorujte časť o tom, že to je nezáporné - tú budete ľahšie vedieť vyriešiť, keď sa naučíme niečo o kvadratických formách.
Ale aspoň to, že $\det(A)\ne 0$ by ste asi vedeli ukázať aj teraz. Ak túto vec použijeme pre štandardný skalárny súčin, tak sme vlastne vyriešili úlohu 1.

Úloha 3. Nech $A$ je matica, ktorej riadky tvoria bázu podpriestoru $S$. Dokážte, že
$$P=X^TA=A^T(AA^T)^{-1}A.$$
je matica projekcie na podpriestor $S$.

Asi dosť často nájdete takýto vzorec pre ortogonálnu projekciu v inom tvare - závisí to od toho, či používame riadkové alebo stĺpcové vektory.
Napríklad Wikipédia (current revision).
Post Reply