Lineárna algebra a geometria (2) - Metóda najmenších štvorcov, vektorový a zmiešaný súčin | pred 17$\newcommand{\abs}[1]{|#1|}$
https://www.youtube.com/watch?v=6ZWXXLKU-GM
0:08 Venujeme sa téme afinno-euklidovské priestory
0:38 Pripomenutie: Afinno-euklidovský priestor
1:41 Pripomenutie: Vzájomné polohy AEP
2:20 Pripomenutie: Vzdialenosť AEP
2:45 Pripomenutie: Vzdialenosť bodu od AEP, kolmý priemet
4:10 Pripomenutie: Ako sa počítal kolmý priemet
5:31 Dnes chceme ukázať nejaké aplikácie
5:41 Metóda najmenších štvorcov
Poznámky: AEP5*.pdf
5:57 Nie je to v Korbaš-Gyurki.
6:10 1. "Približné" riešenie systému lineárnych rovníc
7:00 Riešenie systému $A\cdot X=B$ zodpovedá tomu, že $f_{A^T}(X^T)=B^T$.
10:04 Teda množina riešení je bodová zložka afinného podpriestoru $f_{A^T}^{-1}(B^T)$.
11:12 Systém nemá riešenie p.v.k. $B^T\notin\operatorname{Im}(f_{A^T})$
12:08 Čo ak neexistuje riešenie? Vedeli by sne nájsť aspoň približné riešenie?
13:11 Ilustrácia na obrázku
17:51 Otázka: Čo ak $R(S)=\emptyset$ (t.j. $B^T\notin\operatorname{Im}(f_{A^T})$)
18:25 Odpoveď: Uvažujeme $\alpha=\operatorname{Im}(f_{A^T})\subset \mathbb R^n$ ako afinný podpriestor a riešime systém $(S')$, kde pravá strana je kolmý priemet $B^\bot=(B^T)^\bot_\alpha$.
21:50 Toto je najbližšie riešenie v zmysle, že $(\forall K\in R(S')) d(AK,B)\le d(AX,B)$
24:00 Aproximácia lineárnou funkciou - metóda najmenších štvorcov
29:40 Chceme nájsť funkciu $f_\beta(x)=\beta_0+\beta_1x$, ktorá je (v nejakom zmysle) najbližšie k zadaným bodom.
33:05 Hľadáme $\beta=(\beta_0,\beta_1)$ také, že $$\sum\limits_{i=1}^m \abs{y_i-f_\beta(x_i)}^2=d(\vec y,f_\beta(\vec x))^2$$ je minimálne.
37:16 Máme zobrazenie \begin{align*}
L \colon \mathbb R^2 &\to \mathbb R^m\\
\vec \beta = (\beta_0,\beta_1) &\mapsto (\beta_0+\beta_1x_1,\dots,\beta_0+\beta_1x_m)
\end{align*} a hľadáme $m$-ticu v $\operatorname{Im}(L)$ najbližšie k zadanej.
40:08 T.j. od systému $(S)$ $M_L\cdot\vec\beta^T = (\vec y)^T$ prejdeme k systému $(S')$ $M_L\cdot\vec\beta^T = (\vec y)^\bot$
46:32 Toto sa nazýva aj lineárna regresia a má to veľký praktický význam.
47:09 Podobne sa to dá robiť pre iné funkcie (polynomiálne, exponenciálne, ...)
50:00 Nie je to v Korbaš-Gyurki, na konzultáciách spomenieme ďalšiu literatúru.
WP:
Least squares,
Ordinary least squares,
Simple linear regression
Uhly
Poznámky: AEP6*.pdf
50:27 Pre dve priamky by dostaneme dva rôzne uhly.
53:20 Uhol pre orientované priamky (z intervalu $\langle0,\pi\rangle$).
57:10 Uhol pre neorientované priamky (z intervalu $\langle0,\frac\pi2\rangle$).
1:00:58 Uhol pre nadroviny = uhol normálových vektorov
1:03:28 Ak $\gamma=\frac\pi2$, tak to nezodpovedá našej definícii kolmosti pre afinné podpriestory.
1:04:25 Normálovo kolmé nadroviny.
1:05:22 Vektorový súčin
Poznámky: AEP6*.pdf
WP:
Cross product
1:06:05 Budeme pracovať v $\mathbb R^3$ so štandardnou orientáciou, t.j. $(\vec e_1, \vec e_2, \vec e_3)$.
1:08:00 Definícia zo strednej školy.
1:09:40 Definícia 12.X.1: vektorový súčin $\vec a\times\vec b$ je vektor $\vec c$, ktorý je kolmý na $\vec a$ aj $\vec b$, $\abs{\vec c}=\sqrt{\langle\vec a,\vec a\rangle\langle\vec b,\vec b\rangle-\langle\vec a,\vec b\rangle^2}$ a $(\vec a,\vec b,\vec c)$ je kladná báza.
1:14:20 $|\vec a\times\vec b|$ je obsah rovnobežníka určeného vektormi $\vec a$, $\vec b$, máme $|\vec a\times\vec b|=|\vec a|\cdot|\vec b|\cdot|\sin\alpha|$
1:18:30 Veta 12.X.2: Vyjadrenie vektorového súčinu cez determinant a pomocou súradníc.
1:25:30 Veta 12.X.3: Vektorový súčin je antikomutatívny, t.j. $\vec a\times\vec b=-\vec b\times\vec a$
1:25:40 Zmiešaný súčin
WP:
Triple product
1:25:55 Definícia 12.X.4: zmiešaný súčin $\langle\vec a,\vec b,\vec c\rangle=\langle \vec a\times\vec b,\vec c\rangle$
1:26:55 Veta 12.X.5-1: $\langle\vec a,\vec b,\vec c\rangle=\det\begin{pmatrix}
a_1 & a_2 & a_3 \\
b_1 & b_2 & b_3 \\
c_1 & c_2 & c_3 \\
\end{pmatrix}$
1:27:24 Veta 12.X.5-2: Zmiešaný súčin je lineárny v každom argumente.
1:27:35 Veta 12.X.5-3: $\langle\vec a,\vec b,\vec c\rangle=\langle\vec c,\vec a,\vec b\rangle=\langle\vec b,\vec c,\vec a\rangle=-\langle\vec b,\vec a,\vec c\rangle$
1:28:30 Veta 12.X.6 $\langle\vec a,\vec b,\vec c\rangle=$objem rovnobežnostena (dôkaz v zelenej knižke)
1:29:25 Chceme sa pozrieť na to, či sa dá vektorový súčin definovať v iných dimenziách.
1:29:40 Veta 12.23: Zobrazenie s vlastnosťami z definície vektorového súčinu existuje iba pre $n=3$ a $n=7$.
1:34:10 Hurwitzova veta o lineárnych normovaných algebrách s delením
1:39:40 S týmto súvisí veľa zaujímavej matematiky.
Linky na Wikipédiu:
Lineárna algebra a geometria (2) - Lineárne transformácie, matica zobrazenia, podobnosť | pred 18
https://www.youtube.com/watch?v=tJe1mM5ffbg
0:20 XIII. Lineárne transformácie
Kapitola XIII v zelenej knižke, poznámky: LT1.pdf.
1:40 Príklad: Pre nejaké lineárne zobrazenie sme sa pozreli na obrazy vektorov vhodnej bázy, a zistili sme, že vyšli ich násobky. T.j. matica vzhľadom na túto bázu je diagonálna.
20:59 Otázky: Dá sa to urobiť vždy? V tejto kapitole budeme na ne vedieť odpovedať.
22:45 Súradnice vektora vzhľadom na danú bázu.
24:27 Matica $f$ vzhľadom na danú bázu: $M_{f,\langle\vec a_i\rangle}$
27:00 Veta 13.1: $Y=XA$ (súradnice obrazu vektora)
29:00 Dôkaz vety 13.1
33:30 Zobrazenia môžeme popisovať nielen pomocou matice vzhľadom na štandardnú bázu, ale aj na iné bázy - a násobenie stále hovorí o súradniciach obrazu.
34:20 V príklade, ktorý sme robili predtým vyšla pri inej báze iná matica.
35:24 Otázka: Aký je vzťah medzi maticou $A$ a maticou $B$?
36:40 Označenie pre maticu prechodu a súradnice v dvoch rôznych bázach.
40:56 Odvodenie $A=PBP^{-1}$ a $B=P^{-1}AP$
49:35 Veta 13.2: Pre matice toho istého zobrazenia vzhľadom na dve rôzne bázy platí: $B=P^{-1}AP$.
51:20 Overenie $B=P^{-1}AP$ na našom príklade.
57:48 Ak máme diagonálnu maticu, vieme, že ide o škálovanie v smere vektorov z bázy - ale ak sú násobky rôzne, tak v iných smeroch to nie je škálovanie.
1:03:00 Výpočet mocniny matice - je ľahký pre diagonálnu $A^n=(PAP^{-1})^n=PA^nP^{-1}$.
1:09:14 Pýtame sa, ako nájsť bázu, pre ktorú má daná lineárne transformácia čo najjednoduchšiu maticu. (V ideálnom prípade diagonálnu.)
1:11:04 Nie vždy sa dá nájsť báza, kde dostaneme diagonálnu maticu. Budeme vedieť ale aspoň dostať maticu, ktorá sa príliš nelíši od diagonálnej.
1:13:20 Definícia 13.3:
Podobné matice: $B=QAQ^{-1}$ (pre nejakú regulárnu maticu $Q$), označím $B\sim A$.
1:14:49 Veta 13.4: Podobnosť je relácia ekvivalencie.
1:17:35 Veta 13.5: Matice $f$ vzhľadom na rôzne bázy sú podobné.
1:19:25 Veta 13.6: Ak $A$ je podobná s $B$, a jedna z nich je matica $f$ pri nejakej báze, tak aj druhá je matica $f$ pri nejakej báze.
1:21:20 Dôkaz vety 13.6.
1:24:15 Matice jedného zobrazenia (pri rôznych bázach) tvoria presne triedu ekvivalencie.
1:24:57 Hľadáme bázu, kde bude matica jednoduchá/diagonálna.
1:26:20 Definícia 13.7: Vlastná hodnota a vlastný vektor. WP:
Eigenvalues and eigenvectors
1:28:50 Označenie: $VH(f)=\{\lambda\in\mathbb F; (\exists \vec x\ne\vec 0) f(\vec x)=\lambda\vec x\}$ a $VV(f)=\{\vec x\in V; \vec x\ne\vec 0, (\exists \lambda\in\mathbb F) f(\vec x)=\lambda\vec x\}$.
Pre konkrétnu vlastnú hodnotu označíme $VV_\lambda(f)=\{\vec x\in V; \vec x\ne\vec 0, f(\vec x)=\lambda\vec x\}$
1:32:38 Ukážeme si, ako tieto veci počítať.
1:33:00 Tieto veci majú rozsiahle praktické použitie, spomeňme napríklad Google
PageRank algoritmus:
http://msleziak.com/forum/viewtopic.php?t=1684