01MIP:Kapitola5: Porovnání verzí
Z WikiSkripta FJFI ČVUT v Praze
(Založena nová stránka s textem „\chapter{Charakteristiky hustoty pravděpodobnosti} Tato kapitola je věnována pojmům, které lze nyní pomocí hustoty pravděpodobnosti zavést. Řadí…“) |
|||
Řádka 1: | Řádka 1: | ||
+ | %\wikiskriptum{01MIP} | ||
+ | % | ||
\chapter{Charakteristiky hustoty pravděpodobnosti} | \chapter{Charakteristiky hustoty pravděpodobnosti} | ||
Tato kapitola je věnována pojmům, které lze nyní pomocí hustoty pravděpodobnosti zavést. Řadíme sem charakteristiky neintegrální, nezávislé na pojmu integrál, a~charakteristiky integrální, jež definujeme prostřednictvím Lebesgueova integrálu na prostoru s~pravděpodobnostní mírou. Konečně se tak seznámíme s~důležitými vlastnostmi rozdělení, jako jsou střední hodnota, rozptyl a~momenty vyšších řádů. | Tato kapitola je věnována pojmům, které lze nyní pomocí hustoty pravděpodobnosti zavést. Řadíme sem charakteristiky neintegrální, nezávislé na pojmu integrál, a~charakteristiky integrální, jež definujeme prostřednictvím Lebesgueova integrálu na prostoru s~pravděpodobnostní mírou. Konečně se tak seznámíme s~důležitými vlastnostmi rozdělení, jako jsou střední hodnota, rozptyl a~momenty vyšších řádů. |
Verze z 18. 9. 2020, 13:10
[ znovu generovat, | výstup z překladu ] | Kompletní WikiSkriptum včetně všech podkapitol. | |
PDF Této kapitoly | [ znovu generovat, | výstup z překladu ] | Přeložení pouze této kaptioly. |
ZIP | Kompletní zdrojový kód včetně obrázků. |
Součásti dokumentu 01MIP
součást | akce | popis | poslední editace | soubor | |||
---|---|---|---|---|---|---|---|
Hlavní dokument | editovat | Hlavní stránka dokumentu 01MIP | Vandenie | 18. 9. 2020 | 15:24 | ||
Řídící stránka | editovat | Definiční stránka dokumentu a vložených obrázků | Vandenie | 18. 9. 2020 | 12:56 | ||
Header | editovat | Hlavičkový soubor | Vandenie | 18. 9. 2020 | 13:28 | header.tex | |
Kapitola0 | editovat | Předmluva | Vandenie | 18. 9. 2020 | 12:19 | predmluva.tex | |
Kapitola1 | editovat | Náhodné jevy | Vandenie | 18. 9. 2020 | 12:23 | nahodne_jevy.tex | |
Kapitola2 | editovat | Náhodné veličiny | Vandenie | 18. 9. 2020 | 12:28 | nahodne_veliciny.tex | |
Kapitola3 | editovat | Rozdělení pravděpodobnosti, distribuční funkce | Vandenie | 18. 9. 2020 | 12:31 | rozdeleni.tex | |
Kapitola4 | editovat | Hustota pravděpodobnosti | Vandenie | 18. 9. 2020 | 13:06 | hustota.tex | |
Kapitola5 | editovat | Charakteristiky hustoty pravděpodobnosti | Vandenie | 4. 12. 2020 | 19:35 | charakteristiky.tex | |
Kapitola6 | editovat | Charakteristická funkce náhodné veličiny | Vandenie | 18. 9. 2020 | 13:12 | char_funkce.tex | |
Kapitola7 | editovat | Konvergence na prostoru náhodných veličin | Vandenie | 4. 12. 2020 | 19:36 | konvergence.tex |
Vložené soubory
soubor | název souboru pro LaTeX |
---|---|
Soubor:Fig1-uniformni-rozdeleni.png | Fig1-uniformni-rozdeleni.png |
Soubor:Fig2a-normalni-pdf.png | Fig2a-normalni-pdf.png |
Soubor:Fig2b-normalni-cdf.png | Fig2b-normalni-cdf.png |
Soubor:Fig3a-chi-kvadrat-pdf.png | Fig3a-chi-kvadrat-pdf.png |
Soubor:Fig3b-log-normalni-pdf.png | Fig3b-log-normalni-pdf.png |
Soubor:Fig4a-studentovo-pdf.png | Fig4a-studentovo-pdf.png |
Soubor:Fig4b-rozdeleniF-pdf.png | Fig4b-rozdeleniF-pdf.png |
Soubor:Fig5-kvantily.png | Fig5-kvantily.png |
Soubor:Fig6-grafy-skoro-jiste.png | Fig6-grafy-skoro-jiste.png |
Soubor:Fig7-graf-gn.png | Fig7-graf-gn.png |
Soubor:Fig8-volba-epsilon.png | Fig8-volba-epsilon.png |
Zdrojový kód
%\wikiskriptum{01MIP} % \chapter{Charakteristiky hustoty pravděpodobnosti} Tato kapitola je věnována pojmům, které lze nyní pomocí hustoty pravděpodobnosti zavést. Řadíme sem charakteristiky neintegrální, nezávislé na pojmu integrál, a~charakteristiky integrální, jež definujeme prostřednictvím Lebesgueova integrálu na prostoru s~pravděpodobnostní mírou. Konečně se tak seznámíme s~důležitými vlastnostmi rozdělení, jako jsou střední hodnota, rozptyl a~momenty vyšších řádů. \section{Neintegrální charakteristiky} \begin{defi} Nechť $ X \sim f_{X} $. \begin{itemize} \item \textbf{Nosičem} hustoty pravděpodobnosti nazveme množinu $ \supp f_X := \overline{\lbrace x \in \mathbb{R} \mid f_X(x) > 0 \rbrace} $. Ekvivalentně: Je to nejmenší uzavřená množina taková, že $ F_X(\supp f_X) = P(X \in \supp f) =~1 $. \item Množinou \textbf{módů} budeme rozumět $ \!\!\!\! \mod\! f_X := \lbrace x \in \mathbb{R} \mid f_X \text{ nabývá v } x \text{ maxima} \rbrace.$ Toto maximum může být lokální či globální. Má-li $ f_X $ jen jedno maximum, říkáme, že~$ X $ má \emph{unimodální rozdělení}. \item Veličina $ X $ má \textbf{symetrické rozdělení} okolo bodu $ x = 0 $, když platí: $ X \sim P^X \Leftrightarrow -X \sim P^X$. Symetrii okolo libovolného bodu $ x = a $ definujeme tak, že $ X - a $ je symetrická kolem $ x = 0 $. \end{itemize} \end{defi} \begin{defi}[Kvantilová funkce]\label{def-kvantilova-fce} Nechť $ X \sim F_X $. Funkci inverzní k~$ F_X $ nazýváme \textbf{kvantilovou funkcí} a~$ \forall \alpha \in (0,1) $ ji definujeme předpisem \begin{equation}\label{eq-kvantil} F^{-}_X(\alpha) := \inf\lbrace x \in \mathbb{R} \mid F_X(x) \geq \alpha \rbrace. \end{equation} \end{defi} \begin{pozn}\label{pozn-kvantil} Jak víme, distribuční funkce je s~pravděpodobností spojena vztahem $ F_X(x) =\linebreak= P(X \leq x) = \alpha \in [0,1]$. Ukázali jsme si, že $ F_X $ je monotónní (a sice rostoucí), takže k~ní v~bodech, kde je spojitá a~\emph{ryze} monotónní, existuje inverze\footnote{Nemusíme ji však najít v~elementárním tvaru, jako je tomu např. u~normálního rozdělení.}, tedy $ F_X^{-1}(\alpha) = x $. Kvantilová funkce je do jisté míry inverzní funkcí k~$ F_X $, značíme ji však $ F_X^{-} $, protože ne vždy může být o~inverzi řeč. Problém nastává např. v~případě diskrétního rozdělení, které není spojité a~ryze monotónní. Našli bychom mnoho bodů $ x $, pro něž je $ F_X(x) = \alpha $, takže musíme přikročit k~obecnější definici přes infimum~\eqref{eq-kvantil}. Toto infimum je vždy jednoznačně dáno, jelikož distribuční funkce $ F_X $ je z definice zprava spojitá. Můžeme však říci že $ F_X^{-} = F_X^{-1}$ v~případě, že $ F_X $ je spojitá a ryze monotónní. Je-li $ F_X $ pouze ostře rostoucí, splývají na definičním oboru $ F_X^{-1} $. Specifickým bodům (hodnotám kvantilové funkce), které rozdělují obor hodnot distribuční funkce na části, jejichž pravděpodobnostní míra je stejná, říkáme \textbf{kvantily}. \textbf{Alfa-kvantily} vymezují "přepážky", které dělí plochu pod grafem hustoty pravděpodobnosti na $ \alpha \in \mathbb{N}$ stejných částí (tedy je jich právě $ \alpha - 1 $), a~budeme je značit~$ x_\alpha $. Tyto přepážky získáme zapůsobením kvantilovou funkcí v~bodech $ j/\alpha $, kde $ 0 < j <\alpha $. Např. $ 4$-kvantily jsou body $ F_X^{-}(1/4) $, $ F_X^{-}(2/4) $, $ F_X^{-}(3/4) $ a~říká se jim \emph{kvartily}. Zmiňme dále třeba $ 5$-kvantily (\emph{kvintily}) či $ 100 $-kvantily (neboli \emph{percentily}). Jediný $ 2 $-kvantil (čili $ F_X^{-}(1/2) $) je tzv.~\emph{medián} -- prostřední hodnota statistického souboru. Je-li to z~nějakého důvodu nutné, lze v~definici kvantilové funkce uvažovat i~$ \alpha = 0 $ či $ \alpha = 1 $. \end{pozn} \begin{priklad} Graf distribuční funkce $ F_X $ na obrázku \ref{fig5-kvantily} názorně ilustruje nutnost obecné definice kvantilové funkce. \begin{enumerate}[(1)] \item Alfa-kvantil příslušný $ \alpha_1 $ zjistíme přímo pomocí \emph{inverzní} funkce $ F_X^{-1} $, jelikož na okolí $ x_{\alpha_1} $ je distribuční funkce ostře rostoucí. \item Alfa-kvantil příslušný $ \alpha_2 $ je dle definice nejbližší bod zprava $ x $ takový, že $ F_X(x) \geq \alpha_2 $, tudíž bod $ x_{\alpha_2} $. \item Alfa-kvantil příslušný $ \alpha_3 $ by byl nejednoznačný, kdybychom neměli obecnou definici alfa-kvantilu přes infimum; platí totiž $ \left(\forall x \in [x_{\alpha_3}, x_{\alpha_2})\right)\left(F_X(x) \geq \alpha_3\right) $. Infimem tohoto intervalu je bod $ x_{\alpha_3} $, tj. alfa-kvantil příslušný $ \alpha_3 $ je bod $ x_{\alpha_3} $. \end{enumerate} \begin{figure}[h] \centering % \begin{subfigure}[h] \includegraphics[width=0.65\textwidth]{Fig5-kvantily.png} \caption{Příklad nespojité distribuční funkce, kde je nutné hledat inverzi pomocí definice \eqref{eq-kvantil}.} \label{fig5-kvantily} % \end{subfigure} \end{figure} \end{priklad} \begin{veta} Mějme náhodnou veličinu $ X \sim F_X $, symetrickou okolo bodu $ a \in \mathbb{R} $ a nechť je $ F_X $ ostře rostoucí funkce. Pak platí: \begin{equation*} \left(\forall \alpha \in (0,1)\right)\left(x_{\alpha} = 2a - x_{1-\alpha}\right). \end{equation*} Speciálně pro volbu $ a = 0 $ platí $ x_{\alpha} = -x_{1-\alpha} $. \end{veta} \begin{proof} V důkazu se omezíme na spojité distribuční funkce $ F_X $. Buď $ F_X $ ostře rostoucí a navíc spojitá funkce. Pak můžeme využít poznámky \ref{pozn-kvantil} a psát $\left(\forall \alpha \in (0,1)\right) (x_{\alpha} = F_X^{-1}(\alpha) )$. \begin{align*} \alpha &= F_X(x_{\alpha}) \\ &= P(X-a \leq x_{\alpha} - a) \\ &\stackrel{\footnotemark}{=} P(-X+a \leq x_{\alpha} -a) \\ &= P(X \geq 2a - x_{\alpha}) \\ &\stackrel{\footnotemark}{=} 1 - P(X \leq 2a - x_{\alpha}) \\ &= 1 - F_X(2a - x_{\alpha}). \end{align*} \footnotetext[14]{Využili jsme symetrie $ X $ kolem bodu $ a $.} \footnotetext{Jelikož je $ F_X $ spojitá, nezáleží na volbě ostré nebo neostré nerovnosti. Formálně je správně ostrá nerovnost (jakožto doplněk neostré), ale nám se tu více hodí neostrá, abychom ihned dostali definici distribuční funkce.} Obdrželi jsme tedy rovnost $ F_X(2a-x_{\alpha}) = 1 - \alpha $. Z~definice inverzní funkce $ F_X^{-1} $ nám plyne tvrzení věty: $ 2a - x_{\alpha} = x_{1-\alpha} \Leftrightarrow x_{\alpha} = 2a - x_{1-\alpha}$. \end{proof} \section{Integrální charakteristiky} \begin{defi}\label{def-simple-func} Buď $ (\Omega, \sa, \mu) $ prostor s obecnou mírou $ \mu $, která je $ \sigma $-konečná. Pak funkci $ \varphi\colon \Omega \rightarrow \mathbb{R} $ tvaru \begin{equation} \varphi(\omega) = \sum_{j=1}^{k} a_j \chi_{A_j}(\omega), \end{equation} kde $(\forall j \in \hat{k})\left( a_j \in \mathbb{R} \text{, } A_j \in \sa \right) $, nazveme \textbf{jednoduchou} funkcí. Také se používá anglický termín \emph{simple function}. Její integrál na množině $ \Omega $ definujme následovně: \begin{equation*} \int_{\Omega} \varphi \dd \mu := \sum_{j=1}^k a_j \mu(A_j) . \end{equation*} \end{defi} \begin{pozn} Jednoduchá funkce je vlastně ekvivalentem stupňovité funkce z~MAA4, která byla využita při Daniellově konstrukci Lebesgueova integrálu. Nyní uvažujeme \emph{obecnou} míru~$ \mu $, takže pojem stupňovité funkce v~jistém smyslu zobecňujeme na pojem \emph{jednoduché} funkce. Všimněme si, že pokud zvolíme za $ \mu $ Lebesgueovu míru, tak nám přejde definice integrálu $ \varphi $ do již známého tvaru: \begin{equation*} \int_{\Omega} \varphi \dd \lambda := \sum_{j=1}^k a_j \lambda(A_j), \end{equation*} kde $ \lambda(A_j) $ je Lebesgueova míra množiny $ A_j $, neboli \emph{objem} z~MAA4. V~případě Lebesgueovy míry se tedy integrál přes $ \Omega $ shoduje s~integrálem vystavěným na stupňovitých funkcích. \end{pozn} \begin{defi} Buď $ X $ nezáporná funkce na $ (\Omega, \sa, \mu) $. Potom klademe \begin{equation} \int_{\Omega} X \dd \mu := \sup\left\{\int_{\Omega} \varphi \dd \mu \Bigm\vert \varphi \text{ je \emph{jednoduchá} funkce, } 0 \leq \varphi \leq X \right\}. \end{equation} \end{defi} \begin{pozn} V případě Lebesgueovy míry jsme zkonstruovali třídu $ \Lambda^+ $, kam patřily takové funkce, jež byly limitou nějaké rostoucí posloupnosti stupňovitých funkcí $ \varphi_n $. Pro $ X \in \Lambda^+ $ jsme číslo $ \int X := \lim_{n \rightarrow +\infty} \int\! \varphi_n$ nazvali \emph{integrálem funkce $ X $}, jestliže $ \left(\exists (\varphi_n)_1^{+\infty}\!\!, \ \varphi_n \text{ stupňovité}\right)\!(\varphi_n \nearrow~X) $. \end{pozn} \begin{defi} Buď $ X $ náhodná veličina a $ P $ pravděpodobnostní míra na $ (\Omega, \sa, P) $. Potom definujeme \begin{equation}\label{eq-def-E} \int_{\Omega} X \dd P := \int_{\Omega} X^+ \dd P - \int_{\Omega} X^- \dd P \end{equation} za předpokladu existence \emph{obou} a~konečnosti \emph{alespoň jednoho} z~integrálů na pravé straně. Funkce $ X^+ := \max\{ X, 0\}$ označuje kladnou část~$ X $ a $ X^- := \max\{-X, 0\}$ její zápornou část. Obě tyto funkce jsou nezáporné, takže je umíme integrovat podle předchozí definice. Je vidět, že $ X = X^+ - X^- $ a $ |X| = X^+ + X^- $. \end{defi} \begin{pozn} Tento krok je nápadně podobný konstrukci třídy $ \Lambda $ z~přednášky pana tajemníka. Takový integrál má samozřejmě smysl zavést i~pro libovolnou $ \sigma $-finitní míru $\mu $, ale obecně se hodnota tohoto integrálu nenazývá \emph{střední hodnotou}. Proč se v~případě pravděpodobnostní míry nazývá zrovna střední, se dozvíme později. \end{pozn} \subsection{Prostor $\mathcal{L}_1$ a střední hodnota} \begin{defi} Integrál z předchozí definice nazveme \textbf{střední hodnotou} náhodné veličiny~$ X $ a~značíme ji $ \E(X) $ či jen $ \E X $, tj. \begin{equation*} \E X := \int_{\Omega} X \dd P. \end{equation*} \end{defi} \paragraph{Úmluva.} \begin{itemize} \item Říkáme, že "$ \E X $ \emph{existuje}", jestliže integrál $ \int_{\Omega} X \dd P $ existuje. \item Říkáme, že "$ \E X $ \emph{existuje} a je \emph{konečná}", pokud je~$ X $ vzhledem k~míře $ P $ \emph{integrabilní} (integrál existuje a~je konečný). \end{itemize} \begin{defi} Mějme prostor $ (\Omega, \sa, P) $, $ n $-rozměrnou náhodnou veličinu $ \xx\!\colon \Omega \rightarrow \mathbb{R}^n $ a množinu $ A \in \sa $. Pak definujeme \textbf{střední hodnotu} náhodné veličiny $ \xx $ po složkách: \begin{equation*} \left(\forall j \in \hat{n}\right)\left(EX_j = \int_A X_j \dd P = \int_{\Omega} X \chi_A \dd P\right) \end{equation*} a píšeme $ \E \xx = (\E X_1, \ldots, \E X_n) $. \end{defi} \begin{defi} Množinu $ \mathcal{L}_1 = \mathcal{L}_1(\Omega, \sa, P) := \{ X \text{ náh. veličina na } (\Omega, \sa, P) \mid |\E X| < +\infty\}$ nazveme množinou náhodných veličin \textbf{integrabilních} vzhledem k míře $ P $. \end{defi} \begin{veta} $ \mathcal{L}_1 $ je vektorový prostor a střední hodnota $ \E $ je na tomto prostoru lineární funkcionál, tj. $ \E \left(\sum_1^n \alpha_j X_j\right) = \sum_1^n \alpha_j \E X_j $ . \end{veta} \begin{proof} Větu dokazovat nebudeme, jelikož jsme si ji ve speciálním případě Lebesgueovy míry dokázali v~rámci přednášek MAA4. \end{proof} \begin{veta} $ X \in \mathcal{L}_1 \Leftrightarrow |X| \in \mathcal{L}_1 $. Navíc platí, že $ |\E X| \leq \E|X| $. \end{veta} \begin{proof} Tuto větu také ponecháme bez důkazu. Jedná se vlastně o~větu o~absolutní konvergenci integrálu. \end{proof} \begin{dusl}\label{v-o-integrab-omez-vel} Mějme nyní již \emph{pravděpodobnostní} prostor, tj. $ (\Omega, \sa, P) $, kde $ P $ je pravděpodobnostní míra. Z předchozích vět dostáváme tvrzení, že každá omezená náhodná veličina $ X $ je integrovatelná vzhledem k pravděpodobnostní míře $ P $, tj. $ X \in \mathcal{L}_1(\Omega, \sa, P) $. \end{dusl} \begin{proof} Nechť je náhodná veličina $ X $ z předpokladu omezena konstantou $ K >0 $, tj. $ |X| \leq K $. Pak \begin{equation*} |\E X| \leq \E|X| \leq \E(K) = K\E(1) = K \int_{\Omega} 1 \dd P = KP(\Omega) = K < +\infty. \end{equation*} \end{proof} \begin{pozn} Uvědomme si, že předchozí tvrzení neplatí pro každou míru; např. pro míru Lebes\-gueovu $ \lambda $ tento výrok jistě neplatí. Konstantní funkce $ f(x) = 1 $ je na celém $ \mathbb{R} $ omezená, ale její integrál konečný není. \end{pozn} \begin{veta}\label{v-o-rovnosti-ex-ey} Nechť $ X,Y $ jsou náhodné veličiny na pravděpodobnostním prostoru $ (\Omega, \sa, P) $ takové, že $ \E X, \E Y$ existují a nechť dále $ P(X=Y) = 1 $. Pak $ \E X = \E Y $. \end{veta} \begin{proof} Ukážeme, že platí $ \E (X-Y) $. Množinu, kde $ X=Y $, označme $ A $. \begin{equation*} \E(X-Y) = \int_{\Omega} (X - Y) \dd P = \int_A (X - Y) \dd P + \int_{\comp{A}} (X-Y) \dd P = 0 + 0 = 0. \end{equation*} $ \int_A (X - Y) \dd P $ je roven nule, protože $ A = \{\omega \mid X(\omega) - Y(\omega) = 0\} $. Druhý integrál přes doplněk množiny $ A $, tj. $ \comp{A} $, je roven nule, jelikož z předpokladu víme, že $ P(A) = 1 $, tedy $ P(\comp{A}) = 0 $. Tímto je věta dokázána. \textsc{Pozor}, v~této větě se skrývá potíž, kterou popíšeme v~následující poznámce. \end{proof} \begin{pozn} Množina $ A $, kterou jsme zadefinovali v~důkazu věty, nemusí obecně splňovat $ A \in \sa $, tedy nemusí být $ \sa $-měřitelná. Tento fakt je implicitně zapsaný v~předpokladu $ P(X =~Y) = \linebreak = 1 = P(A) $. Tím, že měříme množinu mírou $ P $, už dáváme najevo, že to má smysl, tedy že $ A $ je elementem $ \sigma $-algebry $ \sa $. Věta je tedy správně vyslovená, ale předpoklady jsou zbytečně omezující. Abychom tuto větu dokázali v~obecnější podobě, musíme opět udělat malou odbočku do teorie míry. \end{pozn} \begin{defi} Mějme prostor $ (\Omega, \sa, P) $. Pak se množina $ N \subset \Omega $ nazývá \textbf{nulovou množinou} (vzhledem k~míře P), právě když existuje $ \sa $-měřitelná $ A \in \sa $ taková, že $ N \subset A \land P(A) = 0 $. Systém všech nulových množin označme $ \mathcal{N} := \{N \subset \Omega \mid N \text{ je nulová vzhledem k míře } P \} $. \end{defi} \begin{defi} Výrok $ V $ platí \textbf{skoro jistě} vzhledem k~míře~$ P $ (zkráceně s.~j. $ P $), právě když existuje $ N \in \mathcal{N} $ taková, že~$ V $ platí všude na množině $ \Omega \setminus N $. \end{defi} \begin{pozn} Termín \emph{skoro jistě} je vlastně zobecnění pojmu \emph{skoro všude}, který známe z~konstrukce Lebesgueova integrálu. Souvislost mezi \emph{skoro jistě} a~\emph{skoro všude} lze pregnantně vyjádřit následovně: "Pojem \emph{skoro jistě} vzhledem k Lebesgueově míře $ \lambda $ je ekvivaletní pojmu \emph{skoro všude}." \end{pozn} \begin{defi} Mějme prostor $ (\Omega, \sa, P) $. Systém množin $ \overline{\sa} = \sa \cup \mathcal{N} := \{A \cup N \mid A \in \sa, \ N \in \mathcal{N}\} $ nazveme \textbf{zúplněním $ \sigma $-algebry} $ \sa $. \end{defi} \begin{pozn} Zúplnění $ \overline{\sa} $ je $ \sigma $-algebra. Ponecháváme na čtenáři, aby se o~tom přesvědčil sám. \end{pozn} \begin{defi} Mějme prostor $ (\Omega, \sa, P) $. Rozšíření míry $ P $, značeno $ \P $, definujeme následovně: $ \left(\forall A \in \sa\right)\left(\forall N \in \mathcal{N}\right)\left(\P(A \cup N) := P(A)\right) $ \end{defi} Rozšířili jsme tedy pravděpodobnostní míru na $ \sigma $-algebru $ \overline{\sa} $. Umožňuje nám to poměřit i~množiny, na něž byla míra $P$ krátká, a to tak, že jsme jim přiřadili míru nula. V~následující větě se přesvědčíme, že $ \P $ je nejenom jednoznačná, ale dokonce pravděpodobnostní míra na $ (\Omega, \overline{\sa}) $. \begin{veta} Funkce $ \P\colon \overline{\sa} \rightarrow \mathbb{R} $ zkonstruovaná výše je jednoznačná pravděpodobnostní míra na rozšířeném prostoru $ (\Omega, \overline{\sa}) $. \end{veta} \begin{proof} Svůj postup rozdělíme do tří kroků. \begin{enumerate}[(a)] \item \textbf{Existenci} jsme ukázali tím, že jsme $ \P $ přímo sestrojili; dalšího důkazu tedy netřeba. \item \textbf{Jednoznačnost.} Aby byla definice $ \P $ korektní, je třeba ověřit, že nezáleží na rozkladu množiny $ C \in \overline{\sa} $. Předpokládejme tedy, že existují dva různé rozklady množiny $ C $: $ A_1 \cup N_1 = C = A_2 \cup N_2$, kde $ A_j \in \sa $, $ N_j \in \mathcal{N}$. Z~definice nulových množin však existují měřitelné nadmnožiny míry nula $ B_1 \in \sa $, resp. $ B_2 \in \sa$ takové, že $ (A_1 \cup N_1) \subset (A_1 \cup B_1) $, resp. $ (A_2 \cup N_2) \subset (A_2 \cup B_2) $. S~využitím definice $ \P $ a $ \sigma $-subaditivity \emph{pravděpodobnostní} míry~$ P $ můžeme psát \begin{align*} \P(A_1 \cup N_1) &\stackrel{\text{def.}}{=} P(A_1) \leq P(\underbrace{A_2 \cup B_2}_{\in \sa}) \leq P(A_2) + \underbrace{P(B_2)}_{=0} \stackrel{\text{def.}}{=} \P(A_2 \cup N_2),\\ \P(A_2 \cup N_2) &\stackrel{\text{def.}}{=} P(A_2) \leq P(\underbrace{A_1 \cup B_1}_{\in \sa}) \leq P(A_1) + \underbrace{P(B_1)}_{=0} \stackrel{\text{def.}}{=} \P(A_1 \cup N_1). \end{align*} Z~toho ale nutně plyne, že $ \P(A_1 \cup N_1) = \P(A_2 \cup N_2) $. Tím je jednoznačnost dokázána. \item \textbf{$ \P $ je pravděpodobnost.} Ukažme platnost Kolmogorovových axiomů: \begin{itemize} \item[K\ref{k1}.] Je $ \P(\Omega) = \P(\Omega \cup \emptyset) = P(\Omega) = 1$. \item[K\ref{k2}.] Pro všechny množiny $ C \in \overline{\sa} $ platí z~definice: $ \P(C) = P(A \cup N) = P(A) \geq 0$. \item[K\ref{k3}.] Zbývá dokázat $ \sigma $-aditivitu $ \P $ na disjunktních množinách. Nechť $ (\forall\, n \in \mathbb{N})(C_n \in \overline{\sa}) $. Utvořme jejich disjunktní sjednocení a~pišme: \begin{equation*} \P\Bigl( \sum_{n=1}^{+\infty} C_n \Bigr) = \P\Bigl( \sum_{n=1}^{+\infty} (A_n \cup N_n) \Bigr) = \P\Bigl( \sum_{n=1}^{+\infty} A_n \cup \sum_{n=1}^{+\infty} N_n \Bigr) = (*). \end{equation*} Potřebovali bychom vědět, zda je $ N \stackrel{\text{ozn.}}{=} \sum_{n=1}^{+\infty} N_n \in \mathcal{N}$. To je však snadno vidět, neboť $ (\forall n \in \mathbb{N})(\exists B_n \in \sa,\ P(B_n) = 0)(N_n \subset B_n) $, takže $ N \subset \bigcup_{n=1}^{+\infty} B_n $. Toto sjednocení ani nemusí být disjunktní, jelikož víme, že spočetné sjednocení množin míry nula je opět množinou míry nula, tj. $ N \in \mathcal{N} $. V~argumentu $ \P $ je tedy jednocení množin z~$ \sa $, resp.~$ \mathcal{N} $, takže dle definice $ \P $ a~$ \sigma $-aditivity $ P $ máme \begin{equation*} (*) = P\Bigl(\sum_{n=1}^{+\infty} A_n\Bigr) = \sum_{n=1}^{+\infty} P(A_n) = \sum_{n=1}^{+\infty} \P(A_n \cup N_n) = \sum_{n=1}^{+\infty} \P(C_n). \end{equation*} Tím je důkaz hotov. \qedhere \end{itemize} \end{enumerate} \end{proof} \begin{pozn} $ $ \begin{itemize} \item Podobné rozšíření lze provést i~z obecného měřitelného prostoru $ (\Omega, \sa, \mu) $ na $ (\Omega, \overline{\sa}, \overline{\mu}) $. Pak už ale neověřujeme axiom K1. \item Již z~dřívějška víme, že na měřitelném prostoru $ (\Omega, \sa, \mu) $ platí výrok~$ V $\emph{skoro všude} (s.~v.), jestliže množina, na níž neplatí, je nulové míry. Ve zcela stejném duchu jsme zavedli frázi \emph{skoro jistě}, a sice na \emph{pravděpodobnostním} prostoru $ (\Omega, \sa, P) $: Jev $ A \in \sa $ nastane \emph{skoro jistě} (s.~j.), jestliže $ P(A) = 1 $. Na pravděpodobnostním prostoru si jsou \emph{skoro všude} a \emph{skoro jistě} ekvivalentní: Víme-li, že~$ A $ nastává skoro jistě, pak pravděpodobnost, že \emph{ne}nastane, je $ P(\comp{A}) = 0 $ (ve shodě s~tím, že něco platí skoro všude). V~případě \emph{obecného} prostoru s~obecnou (např. neomezenou) mírou $ \mu $ už pojmy s.~v. a~s.~j. totožné nejsou. Nemůžeme totiž říci, že vlastnost $ V $ platí skoro všude vzhledem k~$ \mu $, jestliže platí na množině míry~$ \mu(\Omega) $ (což by odpovídalo plné pravděpodobnosti), protože mnohdy je $ \mu(\Omega) = +\infty $. Co bychom pak od tohoto nekonečna museli odečíst, abychom dostali nulovou míru? Proto je nutné definovat "skoro všude" přes doplňky. V~případě termínu "skoro jistě" jsme si to mohli odpustit díky omezenosti $ P $. Na $ (\Omega, \sa, P) $ budeme tedy říkat \emph{skoro jistě}, na $ (\Omega, \sa, \mu) $ \emph{skoro všude}. \item Jelikož význam s.~j. závisí na volbě $ P $, je vhodné tuto závislost zdůraznit psaním "skoro jistě (vzhledem k) $ P $". \end{itemize} \end{pozn} \begin{priklad} Obrázek~\ref{fig6-skoro-jiste} názorně ilustruje rozdíl mezi pojmy \emph{skoro všude} a \emph{skoro jistě}. Veličiny $ X $ a $ Y $ si nejsou rovny skoro všude $ \mu $, ale kupodivu $ X = Y $ \emph{skoro jistě} vzhledem k~Diracově rozdělení~$ \delta_c $, neboť všechna pravděpodobnost je koncentrována v~jediném bodě. Podobně je $ Z = W $ \emph{skoro jistě} vzhledem k~uniformnímu rozdělení $ \mathcal{U}(a,b) $, ale samozřejmě neplatí, že $ Z = W $ skoro všude $ \mu $. \end{priklad} \begin{figure}[h] \centering % \begin{subfigure}[h] \includegraphics[width=0.65\textwidth]{Fig6-grafy-skoro-jiste.png} \caption{Rozdíl mezi \emph{skoro všude} a \emph{skoro jistě}.} \label{fig6-skoro-jiste} % \end{subfigure} \end{figure} Problematickou větu \ref{v-o-rovnosti-ex-ey}, kvůli níž jsme podstupovali všechnu tuto mašinerii, můžeme nyní vyslovit v~novém, korektnějším znění. \begin{veta}[\ref{v-o-rovnosti-ex-ey}, verze 2] Buďte $ X,\ Y $ náhodné veličiny na $ (\Omega, \overline{\sa}, \P) $ takové, že $ X = Y $ \emph{skoro jistě}~$ \P $. Potom $ \E X = \E Y $. \end{veta} \begin{pozn} Nyní, i~když už se pohybujeme na rozšířeném prostoru $ (\Omega, \overline{\sa}, \P) $, budeme dále psát opět jenom $ (\Omega, \sa, P) $. Mějme však stále na paměti, že se jedná o~rozšíření. \end{pozn} \begin{defi}\label{def-L1} Na (rozšířeném) prostoru $ (\Omega, \sa, P) $ zavedeme následující ekvivalenci mezi náhodnými veličinami: \begin{equation*} X \sim Y \Longleftrightarrow X = Y \text{ s.~j. }P. \end{equation*} Chtěli bychom na $ \mathcal{L}_1(\Omega, \sa, P) $ definovat normu. Poučeni z~problémů v~zavádění normy na prostoru integrabilních funkcí nejprve rozložíme $ \mathcal{L}_1 $ na třídy ekvivalence podle relace $ \sim $. Formálně sestrojíme tzv.~faktorprostor $ \mathcal{L}_1\vert_\sim := \lbrace [X]_\sim \mid X \in \mathcal{L}_1\rbrace$, kde $ [X]_\sim = \lbrace Y \in \mathcal{L}_1 \mid X \sim Y \rbrace$ je třída ekvivalence veličiny~$ X $ podle $ \sim $. Na $ \mathcal{L}_1\vert_\sim $ definujeme sčítání tříd ekvivalencí a násobení číslem a~označíme tuto trojici $ L_1 $ -- dostáváme \textbf{lineární prostor integrabilních funkcí}. Prostor $ L_1 $ nyní můžeme vybavit \textbf{normou}. Pro všechny prvky $ [X]_\sim \in L_1 $ ji definujeme vztahem $ \lVert [X]_\sim \rVert_{L_1} := \E | Y | $, kde $ Y \in [X]_\sim $. Takto definovaná norma plní všechny axiomy normy, a to včetně ekvivalence $ \norm{[X]_\sim} = 0 \Leftrightarrow [X]_\sim = 0 $.\footnote{Na $ \mathcal{L}_1 $ by platilo pouze $ \lVert X \rVert = 0 \Leftrightarrow X = 0 $ \emph{skoro jistě} vzhledem k~$ P $. Pak se jedná pouze o~\emph{seminormu}.} Podle úzu však budeme třídu $ [X]_\sim $ ztotožňovat přímo s~jejími reprezentanty, a proto budeme dále psát jen $ \norm{X} := \E|X| $. \end{defi} \begin{veta} Buďte $ X, Y $ náhodné veličiny na $ (\Omega, \sa, P) $. Platí: \begin{enumerate} \item Je-li $ X \leq Y $ s.~j., pak $ \E X \leq \E Y $ (existují-li střední hodnoty). \item Je-li $ X \geq 0 $ s.~j., pak $ \E X \geq 0 $. \end{enumerate} \end{veta} V~následujících větách čtenář pozná tvrzení dokázaná během kurzu analýzy.\footnote{Odkážeme na přísušné věty z~MAA4. Béčkaři prominou; doufáme, že též naleznou ekvivalenty z~MAB4.} Tam zazněla ve verzi pro Lebesgueovu míru, ale platí dokonce obecně pro libovolnou $ \sigma $-finitní míru $ \mu $. Pro naše účely je však vyslovíme pro míru pravděpodobnostní, neboť celá přednáška směřuje ke statistice, kde si s~tímto vystačíme. Kdybychom chtěli jejich znění uvést v~nejobecnější podobě, pak bychom namísto "s.~j.~$ P $" psali "s.~v. $ \mu $". \begin{veta}[\emph{Monotone convergence theorem}\footnote{Srovnej s~rozšířenou Leviho větou 27.5.2, \emph{Turistický průvodce MAA4}. Tam předpokládáme rostoucí posloupnost funkcí \emph{majících} integrál (z~třídy $ \Lambda $) takových, že $\int \varphi_1 > -\infty$. Když tyto funkce budou navíc nezáporné, budou automaticky měřitelné (podle 27.2), takže dostáváme MCT (neplést s "množinovým" MCT \ref{MCT}).}]\label{v-MCT-integralni} Buď $ (X_n)_{n=1}^{+\infty}$ posloupnost $ \sa $-měřitelných jevů na $ (\Omega, \sa, P) $. Nechť platí: $(\forall n \in \mathbb{N})(X_n \geq 0 \text{ s.~j. } P)$ a $ X_n \nearrow X $ s.~j.~$ P $. Potom je $ X $ též $ \sa $-měřitelná a~platí: $\lim\limits_{n\rightarrow +\infty}\!\! \E X_n = \E X $. \end{veta} \begin{veta}[\emph{Lebesgue's dominated convergence theorem}\footnote{Srovnej s~rozšířenou Lebesgueovou větou 27.5.1 v~\emph{Průvodci}.}]\label{v-LDCT} Nechť $ (X_n)_{n=1}^{+\infty} $ je posloupnost \linebreak$ \sa $-měřitelných jevů na $ (\Omega, \sa, P) $. Nechť dále $ X_n \rightarrow X $ s.~j.~$ P $ a navíc $ (\exists Y \in \mathcal{L}_1)(\forall n \in \mathbb{N})(|X_n| \leq~Y) $ s.~j.~$ P $. Potom $ X \in \mathcal{L}_1 $ a $\! \lim\limits_{n\rightarrow +\infty}\!\! \E X_n = \E X $. \end{veta} \begin{veta}[Beppa Leviho]\label{v-beppo-levi} Nechť $ (X_n)_{n=1}^{+\infty} $ je posloupnost $ \sa $-měřitelných jevů na $ (\Omega, \sa, P) $. Nechť konverguje číselná řada $ \sum_{n=1}^{+\infty} \E|X_n| $. Pak konverguje i~řada funkcí $ \sum_{n=1}^{+\infty} X_n = X $ s.~j.~$ P $ a~platí: $ X \in \mathcal{L}_1 $ a~$ \E\left(\sum_{n=1}^{+\infty} X_n\right) = \sum_{n=1}^{+\infty} \E X_n $. \end{veta} \begin{proof} Studujme posloupnost částečných součtů: $ \left| \sum_{j=1}^n X_j \right| \leq \sum_{j=1}^n |X_j| \leq \sum_{j=1}^{+\infty} |X_j| \stackrel{\text{ozn.}}{=} S$. Rozhodneme o konečnosti $ S $. Dle předpokladu víme, že $ \E S = \E \left(\sum_{j=1}^{+\infty} |X_j|\right) \stackrel{\text{\ref{v-MCT-integralni}}}{=} \sum_{j=1}^{+\infty} \E |X_j| <~+\infty$. MCT \ref{v-MCT-integralni} jsme použili na rostoucí a~nezápornou posloupnost částečných součtů. Z~toho plyne, že $ S \in \mathcal{L}_1 $. Ukážeme, že konečnost $ \E S $ vynucuje absolutní konvergenci řady $ \sum_{n=1}^{+\infty} X_n $ Pro spor předpokládejme, že $ \E S = \int_{\Omega} S \dd P < +\infty$, ale přitom $ S = +\infty $ s.~j. To by znamenalo, že $ P\bigl(\lbrace \omega \in \Omega \mid S(\omega) = +\infty \rbrace\bigr)>0$.\footnote{Tato množina je měřitelná, protože $ P $ je ve skutečnosti $ \P $, která umí poměřit všechny množiny.} (Je dokonce rovna jedné.) Je-li ale $ S $ neomezená na množině nenulové míry, je nutně $ \int_{\Omega} S \dd P = +\infty$, což je spor. Tím jsme ukázali, že konverguje řada $ \sum_{n=1}^{+\infty} |X_n| $, tím pádem i $ \sum_{n=1}^{+\infty} X_n $. Tvrzení týkající se záměny dokážeme následovně: $ \E \left(\sum_{n=1}^{+\infty} X_n \right) = \E\Bigl(\lim\limits_{n \rightarrow +\infty} \sum_{j=1}^n X_j \Bigr) $. Posloupnost částečných součtů má integrabilní majorantu, a sice $ S \in \mathcal{L}_1$. Použijeme tedy LDCT \ref{v-LDCT} a máme $ \lim\limits_{n \rightarrow +\infty} \E\left(\sum_{j=1}^n X_j \right) = \sum_{n=1}^{+\infty} \E X_n $. \end{proof} \begin{defi} Posloupnost veličin $ (X_n)_1^{+\infty} \subset L_1(\Omega, \sa, P)$ \textbf{konverguje k~$ X \in L_1$}, právě když $ \norm{X_n - X} \rightarrow 0 $. \end{defi} \begin{veta}[Rieszova--Fischerova] Prostor $ L_1 $ je \textbf{Banachův} (normovaný lineární prostor, který je \textbf{úplný} vzhledem ke konvergenci v~$ L_1 $). \end{veta} \subsection{Integrální nerovnosti} \begin{veta}[Markovova nerovnost]\label{v-markov} Nechť $ X \in \mathcal{L}_1(\Omega, \sa, P) $. Pak platí: \begin{equation*} (\forall \varepsilon > 0)\Bigl(P(|X| \geq \varepsilon) \leq \frac{\E|X|}{\varepsilon}\Bigr). \end{equation*} \end{veta} \begin{proof} Označme $ A:= \lbrace \omega \in \Omega \mid |X(\omega)| \geq \varepsilon \rbrace$. Potom s~využitím charakteristické funkce a~linearity funkcionálu $ \E $ máme: \begin{equation*} \E|X| \geq E\left(|X|\chi_A \right) \geq \E(\varepsilon\chi_A) = \varepsilon \E(\chi_A) = \varepsilon \int_{\Omega}\chi_A(\omega) \dd P = \varepsilon\int_{A} \dd P = \varepsilon P(|X| \geq \varepsilon). \end{equation*} Jednoduchou algebraickou úpravou dostáváme hledanou nerovnost. \end{proof} \begin{veta}[Jensenova nerovnost]\label{v-jensen} Buďte $ X \in \mathcal{L}_1(\Omega, \sa, P) $ a $ \varphi\colon \mathbb{R} \rightarrow \mathbb{R} $ transformace, která je \emph{konvexní} na intervalu $ I \subset \mathbb{R} $ takovém, že $ P(X \in I) = 1 $ (celé rozdělení $ X $ je v~něm koncentrované). Nechť dále $ \varphi(X) \in \mathcal{L}_1 $. Potom $ \E(\varphi(X)) \geq \varphi(\E (X)). $ \end{veta} \begin{proof} Doporučujeme čtenáři, aby si nakreslil nějakou konvexní funkci. Na vodorovné ose vyneseme bod $ \E(X) $, na svislé $ \varphi(\E(X)) $. V~bodě $ [\E(X), \varphi(\E(X))] $ povedeme tečnu $ L $ (lineární funkci). V~tečném bodě platí $ \varphi(\E (X)) = L(\E (X)) $. Funkce $ \varphi $ je konvexní, takže se tečna nachází "pod grafem", tzn.: $ \E(\varphi(X)) \geq \E(L(X)) = L(\E(X)) = \varphi(\E(X))$, což jsme chtěli ukázat. Funkce~$ \E $ a~$ L $ komutují, protože jsou lineární a~jejich definiční obor a~obor hodnot se rovnají. \end{proof} \subsection{Součinová míra} Naší motivací nyní bude zavést takovou pravděpodobnostní míru, která by nám umožnila použít Fubiniho větu. Máme-li $ n $ prostorů $ (\Omega_j, \sa_j, P_j) $, kde $ j \in \hat{n} $, můžeme udělat jejich kartézský součin: $ \bigtimes_{j=1}^n \Omega_j$ a $ \bigtimes_{j=1}^n \sa_j := \bigl\{ \bigtimes_{j=1}^n A_j \mid (\forall j \in \hat{n})(A_j \in \sa_j) \bigr\}$. Obecně však nemáme zaručeno, že kartézský součin $ \sigma $-algeber je opět $ \sigma $-algebrou (není např. uzavřen na komplementy). Proto nad $ \bigtimes_{j=1}^n \sa_j $ sestrojíme minimální $ \sigma $-algebru, kterou budeme značit $ \bigotimes_{j=1}^n \sa_j := \sigma\bigl(\bigtimes_{j=1}^n \sa_j\bigr)$, a~na tomto systému se pokusíme zavést pravděpodobnost. \begin{defi}[Součinová míra]\label{def-soucin-mira} Na $ \sigma $-algebře $ \bigotimes_{j=1}^n \sa_j $ definujeme míru $ \bigotimes_{j=1}^n P_j $ pro všechny množiny (jevy) $ A_j \in \sa_j $ předpisem \begin{equation} \bigotimes_{j=1}^n P_j\bigl(\bigtimes_{j=1}^n A_j \bigr) := \prod_{j=1}^n P_j(A_j), \end{equation} a nazýváme ji \textbf{součinovou} nebo též \textbf{produktivní}. \end{defi} Nyní ověřme korektnost zavedení součinové míry. Přesvědčíme se, že tato míra existuje, že je pravděpodobnostní a že je určena jednoznačně. Zformulujme tento výrok do věty. \begin{veta}[Korektnost zavedení součinové míry] Součinová míra definovaná podle \ref{def-soucin-mira} \begin{enumerate}[(a)] \item existuje, \item je pravděpodobnostní, jestliže pro všechna $ j \in \hat{n} $ jsou míry $ P_j $ pravděpodobnostní, \item je jednoznačně dána. \end{enumerate} \end{veta} \begin{proof} Důkaz provedeme pro $ n = 2 $, abychom si usnadnili práci a vyhnuli se zdlouhavému zápisu. \begin{enumerate}[(a)] \item \textbf{Existence.} Mějme množinu $ C \in \sa_1 \otimes \sa_2 = \sigma\left(\sa_1 \times \sa_2\right)$ a definujme \begin{equation*} (P_1 \otimes P_2)(C) = \int_{\Omega_1} P_2(C(\omega_1)) \dd P_1, \end{equation*} kde $ C(\omega_1) = \{\omega_2 \mid (\omega_1, \omega_2) \in C\} $ je "řez" množiny $ C $ pro fixní elementární jev $ \omega_1 $. Ukažme o~této míře, že splňuje definici součinové míry. Nechť $ C = A_1 \times A_2 $, kde $ A_1 \in \sa_1 $ a $ A_2 \in \sa_2 $. Uvědomme si, že platí $ (\forall \omega_1 \in A_1) (C(\omega_1) = A_2)$ a $ (\forall \omega_1 \in \comp{A_1}) (C(\omega_1) = \emptyset) $ (obrázek pomůže). Pak můžeme psát: \begin{equation*} (P_1 \otimes P_2)(C) = (P_1 \otimes P_2)(A_1 \times A_2) = \int_{\Omega}\mkern-6mu P_2(C(\omega_1)) \dd P_1 = \int_{A_1}\mkern-10mu P_2(A_2) \dd P_1 = P_2(A_2) \int_{A_1}\mkern-10mu 1 \dd P_1 = P_2(A_2) P_1(A_1) \end{equation*} Z toho tedy dostáváme, že $ (P_1 \otimes P_2)(A_1 \times A_2) = P_2(A_2) P_1(A_1)$. To ale podle definice znamená, že míra $ P_1 \otimes P_2 $ je \emph{součinová}. \item \textbf{$ P_1 \otimes P_2 $ je pravděpodobnostní míra.} Chceme tedy ověřit tři axiomy pravděpodobnosti K\ref{k1}, K\ref{k2}, K\ref{k3}. \begin{enumerate}[(K1)] \item Je $ (P_1 \otimes P_2)(\Omega_1 \times \Omega_2) = P_1(\Omega_1)P_2(\Omega_2) = 1 $. \item Nechť $ C \in \sa_1 \otimes \sa_2 $. Potom jistě $ (P_1 \otimes P_2)(C) \geq 0 $, protože podle počítáme integrál nezáporné funkce, jak je vidět z~naší definice $ P_1 \otimes P_2 $. \item Zbývá nám ukázat $ \sigma $-aditivitu součinové míry. Buď $ (C_k)_{k=1}^{+\infty} \in \sa_1 \otimes \sa_2 $ systém navzájem disjunktních množin. Znovu si rozmysleme, že pro každé pevné $ \omega_1 \in \Omega_1 $ je $ (C_k(\omega_1))_{k=1}^{+\infty} $ systémem navzájem disjunktních "řezů".\footnote{Ve skutečnosti je za tím mnohem víc. Je totiž třeba pracně ukázat, že tyto řezy jsou náhodné veličiny a že jsou měřitelné, abychom je mohli vůbec integrovat.} Pak pišme: \begin{align*} (P_1 \otimes P_2)\Bigl(\sum_{k=1}^{+\infty} C_k\Bigr) &= \int_{\Omega_1} P_2\Bigl[ \Bigl(\sum_{k=1}^{+\infty} C_k\Bigr) (\omega_1) \Bigr] \dd P_1\\ &= \int_{\Omega_1} P_2\Bigl(\sum_{k=1}^{+\infty} C_k(\omega_1)\Bigr) \dd P_1 \\ &= \int_{\Omega_1} \Bigl(\sum_{k=1}^{+\infty} P_2(C_k(\omega_1))\Bigr) \dd P_1 \\ &\!\stackrel{\text{MCT}}{=} \sum_{k=1}^{+\infty} \int_{\Omega_1} P_2(C_k(\omega_1)) \dd P_1 \\ & \;= \sum_{k=1}^{+\infty} (P_1 \otimes P_2)(C_k). \end{align*} \end{enumerate} \item \textbf{Jednoznačnost.} Systém $ \sa_1 \times \sa_2 $ generuje $ \sa_1 \otimes \sa_2 $, přičemž systém $ \sa_1 \times \sa_2$ je zřejmě uzavřený na konečné průniky. Z věty (\ref{v-o-rovnosti-PQ}) plyne existence \emph{právě jedné} míry $ P_1 \otimes P_2 $.\qedhere \end{enumerate} \end{proof} \begin{veta}\label{v-o-nezav-soucinova-mira} Buďte $ (X_j)_{j=1}^n $ náhodné veličiny na pravděpodobnostním prostoru $ (\Omega, \sa, P) $ a nechť dále $ \xx \sim P^{\xx} $. Pak $ (X_j)_{j=1}^n $ jsou vzájemně nezávislé právě tehdy, když $ P^{\xx} = \bigotimes_{j=1}^n P^{X_j} $. \end{veta} \begin{proof} Víme, že náhodné veličiny $ (X_j)_{j=1}^n $ jsou nezávislé právě tehdy, když pro každou konečnou $ k $-tici vybranou z tohoto systému je pravděpodobnost sdružená rovna součinu marginálních pravděpodobností (viz~\ref{pozn-nez-nv}). Jelikož máme z~předpokladu konečný počet náhodných veličin, stačí ukázat nezávislost pro tuto $ n $-tici. Nezávislost každé konečné $ k $-tice už potom bude zřejmě splněna. Dokazujme tedy: \begin{itemize} \item[($\Rightarrow$)] Nechť jsou náhodné veličiny $ (X_j)_{j=1}^n $ nezávislé. Pak platí: \begin{equation*} \forall B_j \in \bb\colon \quad P(X_1 \in B_1, \ldots, X_n \in B_n) = \prod_{j=1}^{n} P(X_j \in B_j). \end{equation*} Přepišme tento výrok pomocí vektorové náhodné veličiny $ \xx = (X_1, \ldots, X_n) $ takto: \begin{equation*} P(\xx \in \bigtimes_{j=1}^n B_j) = P^{\xx}(\bigtimes_{j=1}^n B_j) = \prod_{j=1}^{n} P^{X_j}(B_j). \end{equation*} Toto je ale právě definice součinové míry. Z~její jednoznačnosti plyne, že $ P^{\xx} = \bigotimes_{j=1}^n P^{X_j} $, tj. $ P^{\xx} $ je součinová míra. \item[($ \Leftarrow $)] Tato implikace se ukazuje analogicky, ale jednotlivé kroky provádíme v~opačném pořadí.\qedhere \end{itemize} \end{proof} \begin{dusl} Předchozí výsledek lze zobecnit i~pro spočetně mnoho veličin: Mějme spočetný systém náhodných veličin $ (X_j)_{j=1}^{+\infty} $ a nechť $ (\forall n \in \mathbb{N})((X_1, \ldots, X_n) = \xx \sim~P^{\xx}) $. Pak platí: \begin{equation*} (X_j)_{j=1}^{+\infty} \text{ jsou nezávislé} \Longleftrightarrow (\forall n \in \mathbb{N})\Bigl(P^{\xx} = \bigotimes_{j=1}^n P^{X_j}\Bigl). \end{equation*} \end{dusl} \begin{pozn} Výše uvedený důsledek plyne z~definice nezávislosti náhodných veličin, která je definována přes konečné $ k $-tice. Každou konečnou $ k $-tici vybranou ze systému náhodných veličin $ (X_j)_{j=1}^{+\infty} $ jsme schopni pokrýt $ n $-ticí náhodných veličin $ X_1, \ldots, X_n $, o~nichž z~předpokladu věty víme, že mají rozdělení $ P^{\xx} $. \end{pozn} \begin{veta}[Tonelliho--Fubiniho\footnote{Leonida Tonelli (1885--1946); Guido Fubini (1879--1943). Věta je známější spíše pod Fubiniho jménem.}]\label{v-fubini} Mějme dva pravděpodobnostní prostory $ (\Omega_1, \sa_1, P_1), (\Omega_2, \sa_2, P_2) $ a~nechť $ \xx\!\colon \Omega_1 \times \Omega_2 \rightarrow \mathbb{R} $ je náhodná veličina na $ (\Omega_1 \times \Omega_2, \sa_1 \otimes \sa_2) $. Pak platí: \begin{equation*} \E^{P_1 \otimes P_2}(\xx) = \E^{P_2}[E^{P_1}(\xx)] \end{equation*} za předpokladu existence \emph{konečného} integrálu na levé straně (stačila by nám i~pouhá \emph{existence} integrálu na kartézském součinu, ale potom dostaneme vcelku nezajímavou rovnost $ +\infty = +\infty $). V~lépe rozpoznatelné podobě lze tvrzení věty zapsat následovně: \begin{equation*} \int_{\Omega_1 \times \Omega_2}\mkern-35mu \xx \dd (P_1 \otimes P_2) = \int_{\Omega_2}\left(\int_{\Omega_1} \xx \dd P_1\right) \dd P_2 = \int_{\Omega_1}\left(\int_{\Omega_2} \xx \dd P_2\right) \dd P_1. \end{equation*} \end{veta} \begin{proof} Větu ponecháme bez důkazu. \end{proof} \begin{pozn} Všimněme si, že předchozí věta je zobecněním Fubiniho věty, kterou známe z~matematické analýzy. Tam jsme ji vyslovili pro Lebesgueovu míru na prostorech $ \mathbb{R}^n $.\footnote{Srovnej s~větou 30.1 v~\emph{Průvodci MAA4}.} Je důležité, že toto tvrzení platí jen pro míry součinové! \end{pozn} \begin{veta} Nechť $ X \geq 0 $ je jednorozměrná náhodná veličina na prostoru $ (\Omega, \sa, P) $. Potom \begin{equation*} \E X = \int_{0}^{+\infty} (1-F_X(x)) \dd x. \end{equation*} \end{veta} \begin{proof} \begin{align*} \int_{0}^{+\infty} (1-\underbrace{F_X(x)}_{P(X \leq x)}) \dd x &= \int_{0}^{+\infty} P(X > x) \dd x \\ &= \int_{0}^{+\infty}\left( \int_{\{\omega \mid X(\omega) > x)\}}\mkern-40mu 1 \dd P\right) \dd x \\ &\stackrel{\text{F}}{=} \iint\limits_{\{(\omega, x) \mid X(\omega) > x > 0\}} \mkern-45mu 1 \dd(P \times \lambda_1) \\ &\stackrel{\text{F}}{=} \int_{\Omega} \left( \int_{0}^{X(\omega)} \dd x\right) \dd P \\ &= \int_{\Omega} X(\omega) \dd P = \E X. \end{align*} Ve třetím a čtvrtém kroku jsme využili Tonelliho--Fubiniho větu pro míru $ P \otimes \lambda_1 $, kde $ P $ je pravděpodobnostní a~$ \lambda_1 $ je Lebesgueova (obě jsou součinové, takže použití věty bylo oprávněné) \end{proof} \begin{pozn} Podobně bychom ukázali, že $ \E X = - \int_{-\infty}^{0} F_X(x) \dd x $ pro náhodné veličiny $ X \leq 0 $. \end{pozn} \begin{dusl} Víme-li, jak spočítat střední hodnotu kladné i záporné náhodné veličiny, můžeme libovolnou veličinu rozložit na její kladnou a zápornou část -- je totiž $ X = X^+ - X^- $, takže spočteme střední hodnotu obecné náhodné veličiny jednoduše jako \begin{equation*} \E X = \E X^+ - \E X^- = \int_{0}^{+\infty} (1-F_X(x)) \dd x - \int_{-\infty}^{0} F_X(x) \dd x, \end{equation*} ale za předpokladu konečnosti alespoň jedné z~hodnot $ \E X^+$, $\E X^-$. \end{dusl} Následující, důležitá věta nám umožní převést integraci z~abstraktního prostoru~$ \Omega $ do příjemnějšího $ \mathbb{R}^n $. Neboli, jak by řekl pan tajemník: "Z~buřtů přejdeme tam, kde žijeme." \begin{veta}[O přenosu integrace]\label{v-VPI} Buď $ \xx $ náhodná veličina na $ (\Omega, \sa, P) $, $ \xx \sim P^{\xx} $ a nechť dále $ g\colon \mathbb{R}^n \rightarrow \mathbb{R} $ je borelovsky měřitelná funkce. Pak platí: \begin{equation} \E(g \circ \xx) = \int_{\Omega} g \circ \xx \dd P = \int_{\mathbb{R}^n} g(\mx) \dd (\underbrace{P \circ \xx^{-1}}_{=P^{\xx}}) \end{equation} za předpokladu existence alespoň jednoho z integrálů. Malé proměnné na pravé straně píšeme proto, že zde už integrujeme na $ \mathbb{R}^n $, jak jsme zvyklí. Má-li $ \xx $ ASR vzhledem k~míře $ \lambda $ (Lebesgueově) s~hustotou pravděpodobnosti $ f_{\xx} = \dd P^{\xx}/\dd \lambda $, pak po "rozšíření" $ \dd \lambda $ máme z~R--N věty: \begin{equation} \int_{\Omega} g \circ \xx \dd P = \int g(\mx)f_{\xx}(\mx) \dd \lambda, \end{equation} je-li $ g(\xx) $ integrovatelná, tj. $ g(\xx) \in \mathcal{L}_1 $. V případě, že $ \xx $ má diskrétní rozdělení $ P(\xx = \mx_k) = p_k $, potom \begin{equation} \int_{\Omega} g \circ \xx \dd P = \sum_{k} g(\mx_k)p_k, \end{equation} jestliže suma $\sum_{k} g(\mx_k)p_k $ absolutně konverguje. (Z~míry $ P $ se v~takovém případě stává míra \emph{sčítací} či \emph{aritmetická}.) \end{veta} \begin{proof} Důkaz provedeme postupně od nejjednoduššího tvaru funkce $ g $ až do obecné podoby. \begin{enumerate}[(1)] \item Nechť $ g(\mx) = \chi_B(\mx) $, kde $ \chi_B $ je charakteristická funkce nějaké borelovsky měřitelné množiny~$ B $. Ukažme rovnost pro tento případ. \begin{align*} \E(\chi_B(\xx)) &= \int_{\Omega} \underbrace{\chi_B(\xx)}_{\neq 0 \text{ na } B} \dd P = \int_{\xx^{-1}(B)} \mkern-30mu 1 \dd P = P(\xx^{-1}(B)) = P^{\xx}(B) =\\ &= \int_B 1 \dd P^{\xx} = \int_{\mathbb{R}^n} \underbrace{\chi_B(\mx)}_{=g(\mx)} \dd (P \circ \xx^{-1}). \end{align*} \item Nechť $ g(\mx) = \sum_{j=1}^{k} b_j \chi_{B_j}(\mx) $, kde $ b_j $ jsou konstanty. Funkce $ g $ je tedy dle definice~\ref{def-simple-func} \emph{jednoduchá}. Ukažme tvrzení věty pro tuto speciální volbu $ g $. Díky tomu, že $ \E $ je lineární funkcionál, máme \begin{equation*} \E\Bigl[\sum_{j=1}^{k} b_j \chi_{B_j}(\xx)\Bigr] = \sum_{j=1}^{k} b_j \E(\chi_{B_j}(\xx)). \end{equation*} Střední hodnotu v~každém sčítanci umíme díky bodu~(1) spočítat, čímž je tento bod vyřešen. \item Nechť $ g $ je libovolná nezáporná funkce. Pak existuje posloupnost \emph{jednoduchých} funkcí $ (h_k)_{k=1}^{+\infty} $ taková, že $ h_k \nearrow g $. Pak můžeme díky MCT psát: \begin{equation*} \E(g(\xx)) = \E(\lim_{k \rightarrow +\infty}\!\! h_k(\xx)) \stackrel{\ref{v-MCT-integralni}}{=} \lim_{k \rightarrow +\infty}\! \E(h_k(\xx)). \end{equation*} Tímto jsme převedli bod (3) na bod (2). Zbývá nám tedy poslední krok k obecné funkci $ g $. \item Nechť $ g $ je libovolná funkce podle předpokladů věty. Pak ji lze jistě rozložit na kladnou a~zápornou část (obě jsou nezáporné), tj. $ g = g^+ - g^- $. Jednoduchým rozepsáním převedeme bod (4) na bod (3), a~sice \begin{equation*} \E(g(\xx)) = \E g^+(\xx) - \E g^-(\xx). \end{equation*} Tím je důkaz dokončen. \qedhere \end{enumerate} \end{proof} \begin{pozn} Díky větě o~přenosu integrace už nemusíme počítat střední hodnotu "na buřtech" (tedy na množině $ \Omega $), ale volbou identického $ g $, tj.~$ g(\xx) = \xx $, dostáváme \begin{equation*} \E \xx = \int_{\Omega} g \circ \xx \dd P = \int_{\Omega} \xx \dd P\stackrel{\text{VPI}}{=} \int_{\mathbb{R}^n} \mx \dd P^{\xx}, \end{equation*} což je pro nás při počítání mnohem příjemnější. Je-li navíc $ P^{\xx} \ll \lambda $, kde $ \lambda $ je Lebesgue\-ova, existuje hustota pravděpodobnosti a platí: $ \E(\xx) = \int_{\mathbb{R}^n} \mx f_{\xx}(\mx) \dd \mx$. \end{pozn} Následující věta nám ukáže spojitost mezi nezávislostí náhodných veličin a~jejich střední hodnotou -- dá nám však pouze \emph{nutnou} podmínku nezávislosti! \begin{veta}\label{v-o-nezavislosti-pro-E} Budťe $ (X_j)_1^{+\infty} $ nezávislé náhodné veličiny na $ (\Omega, \sa, P) $ a nechť $ (\forall\, j \in \mathbb{N})(X_j \in \mathcal{L}_1)$. Potom \begin{equation*} \forall n \in \mathbb{N}\colon\ \E\Bigl( \prod_{j=1}^n X_j \Bigr) = \prod_{j=1}^n \E X_j. \end{equation*} \end{veta} \begin{proof} Mějme libovolné pevné $ n \in \mathbb{N} $. Veličiny $ (X_j)_1^{+\infty} $ jsou vzájemně nezávislé, takže za konečnou $ k $-tici volme přímo $ k = n $. Na součin veličin $ \prod_{j=1}^n X_j := Y $ můžeme pohlížet jako na obraz při transformaci $ g\colon \mathbb{R}^n \rightarrow \mathbb{R} $, tedy $ g(\xx) = Y $, a na něj lze aplikovat větu o~přenosu integrace \ref{v-VPI} (dále jen VPI): \begin{equation*} \E Y =\int_{\Omega} Y \dd P = \int_{\Omega} g \circ \xx \dd P \stackrel{\text{VPI}}{=} \int_{\mathbb{R}^n} g(\mx) \dd P^{\xx} = \int\limits_{\mathbb{R}^n} \prod_{j=1}^n x_j\, \dd P^{\xx} = (*). \end{equation*} Zde přichází na řadu důležitý předpoklad nezávislosti veličin $ X_j $, protože podle věty~\ref{v-o-nezav-soucinova-mira} pak platí $ P^{\xx} = \bigotimes_{j=1}^n P^{X_j} $. Můžeme tedy pokračovat ve výpočtu integrálu (nyní již podle součinové míry), což nám umožní použít Fubiniho větu a dokončit důkaz. \begin{equation*} (*) = \int\limits_{\mathbb{R}^n} \prod_{j=1}^n x_j\, \dd\Bigl(\bigotimes_{j=1}^n P^{X_j}\Bigr) \stackrel{\text{F}}{=} \prod_{j=1}^n \int_{\mathbb{R}} x_j \dd P^{X_j} \stackrel{\text{VPI}}{=} \prod_{j=1}^n \int_{\Omega} X_j \dd P = \prod_{j=1}^n \E X_j. \end{equation*} Obecně nelze implikaci v~tvrzení věty obrátit! \end{proof} \subsection{Prostor $ \mathcal{L}_2 $ a rozptyl} Kromě střední hodnoty se ve statistice i~v~pravděpodobnostním počtu budeme často setkávat ještě s~jinými vlastnostmi náhodných veličin, které definujeme níže. Jejich závislost už je však kvadratického nebo vyššího řádu, a tak na ně budeme muset naložit přísnější požadavky, co se integrability týče. Proto podobně jako výše sestrojíme prostor $ L_2 $. \begin{defi}\label{def-L2} Množinou náhodných veličin \textbf{integrabilních s~kvadrátem} vzhledem k~míře~$ P $ rozumíme množinu $ \mathcal{L}_2(\Omega, \sa, P) := \lbrace X \text{ náh. vel. na } (\Omega, \sa, P) \mid \E X^2 < +\infty \rbrace = \lbrace X \mid X^2 \in \mathcal{L}_1 \rbrace$. Stejně jako v~konstrukci prostoru $ \mathcal{L}_1 $ (viz~\ref{def-L1}) zavedeme na $ \mathcal{L}_2 $ ekvivalenci $ \sim $ následovně: \begin{equation*} X \sim Y \Leftrightarrow X = Y \text{ s.~j. } P. \end{equation*} (Opět by bylo třeba ověřit, že jde o~ekvivalenci.) Množinu $ \mathcal{L}_2 $ rozložíme na třídy ekvivalence, tuto faktormnožinu vybavíme sčítáním a násobením a označíme ji $L_2(\Omega, \sa, P)$. Dostáváme \textbf{lineární prostor kvadraticky integrabilních funkcí}. \end{defi} \begin{defi}\label{def-skal-soucin} Nechť $ X,\ Y $ jsou náhodné veličiny na $ L_2(\Omega, \sa, P) $. Číslo \begin{equation} \ss{X}{Y} := \E(XY) \end{equation} je \textbf{skalárním součinem} veličin $ X $ a $ Y $ na $ L_2$. Skutečně, takto definované zobrazení $ \ss{\cdot}{\cdot} $ je symetrická\footnote{Celou dobu se pohybujeme nad $ \mathbb{R} $, proto hermitovskost splývá se symetrií.} bilineární forma s~pozitivně definitní diagonálou, neboť $(\forall X \in L_2)(\ss{X}{X} \geq 0) $ a~$ \ss{X}{X} = 0 \Leftrightarrow X = 0 $. Na $ \mathcal{L}_2 $ toto platí pouze tehdy, když $ X = 0 $ \emph{skoro jistě} vzhledem k~$ P $. Rozepišme, jak skalární součin působí: \begin{equation*} \E(XY) = \int_{\Omega} X Y \dd P \stackrel{\text{VPI}}{=} \int_{\mathbb{R}^2} xy \dd P^{(X,Y)} := \ss{X}{Y}. \end{equation*} Nakonec ověřme, zda je tato definice vůbec korektní. Z~nerovnosti\footnote{Jedná se o~obdobu Youngovy nerovnosti: $ (\forall a, b \in \mathbb{R})(2|ab| \leq a^2+b^2)$.} $ 2|XY| \leq X^2 + Y^2$, kde $ X, Y \in~L_2$, plyne, že potom $ 2|\E(XY)| \leq 2E|XY| \leq \E X^2 + \E Y^2 < +\infty$. Hodnota $ \E(XY) $ je tedy vždy konečná, neboli $ XY \in L_1 $. \end{defi} \begin{defi} Nechť $ X \in L_2(\Omega, \sa, P) $. Skalární součin přirozeným způsobem indukuje \textbf{normu} na prostoru $ L_2 $, a to vztahem \begin{equation*} \normm{X} := \sqrt{\ss{X}{X}}. \end{equation*} Dvojice $ \left(L_2, \normm{\cdot}\right) $ tvoří normovaný lineární prostor, $ \left(L_2, \ss{\cdot}{\cdot}\right) $ je lineární prostor se skalárním součinem. \end{defi} \begin{defi} Posloupnost veličin $ (X_n)_1^{+\infty} \subset L_2(\Omega, \sa, P)$ \textbf{konverguje k~$ X \in L_2$}, právě když $ \normm{X_n - X} \rightarrow 0 $. \end{defi} \begin{veta} Prostor $ (L_2, \ss{\cdot}{\cdot}) $ je \textbf{Hilbertův}, tedy \textbf{úplný} vzhledem k~normě indukované skalárním součinem. (Každý Hilbertův prostor je Banachův.) \end{veta} Stejně jako v~lineární algebře platí na Hilbertově prostoru Cauchyho--Schwarzova nerovnost. \begin{veta}[Cauchyho--Schwarzova\footnote{A.-L. Cauchy (1789--1857), čti [kóši]; H. A. Schwarz (1843--1921).} nerovnost]\label{Cauchy-Schwarz} Nechť $ X,\ Y \in L_2 $. Potom $ |\E(XY) | \leq \normm{X}\normm{Y}$ a rovnost nastává právě tehdy, když jsou $ X $ a $ Y $ lineárně závislé, tj. $ (\exists\, \alpha \in \mathbb{R})(Y = \alpha X \text{ s.~j.}) $. \end{veta} Skalární součin umožňuje zavést pojmy jako kolmost náhodných veličin či úhel mezi nimi. Poskytuje nám také ortogonální bázi, a tím pádem např. rozvoje do trigonometrických řad. Lze navíc ukázat, že jak norma, tak skalární součin jsou spojitá zobrazení (převádí konvergentní posloupnost na konvergentní). Konkrétně to znamená, že jakmile $ X_n \rightarrow X $ v~$ L_2$, potom $ \normm{X_n} \rightarrow \normm{X} $. To ale dle definice normy na $ L_2 $ není nic jiného nežli \begin{equation*} \int_{\Omega} X_n^2 \dd P \stackrel{\text{VPI}}{=} \int_{\mathbb{R}} x_n^2 \dd P^{X_n} \longrightarrow \int_{\mathbb{R}} x^2 \dd P^{X}. \end{equation*} \begin{veta} Pro \emph{omezenou} míru $ P $ platí: $ \mathcal{L}_2(\Omega, \sa, P) \subset \mathcal{L}_1(\Omega, \sa, P) $. \end{veta} \begin{proof} Zvolme $ X \in \mathcal{L}_2$, o níž chceme ukázat, že je integrabilní s~první mocninou. Proto vezměme $ Y \in \mathcal{L}_1 $ takovou, že $ Y = 1 $ s.~j.~$ P $. Veličina $ Y $ je jistě omezená, takže je podle věty \ref{v-o-integrab-omez-vel} integrabilní dokonce s~kvadrátem, tj.~$ Y \in \mathcal{L}_2 $. Nyní s~pomocí Cauchyho--Schwarzovy nerovnosti pišme: \begin{equation*} |\E(X)| = |\E(XY)| \stackrel{\text{C--S}}{\leq} \sqrt{\E X^2}\sqrt{\E 1^2} = \sqrt{\E X^2} < +\infty. \end{equation*} Využili jsme toho, že $ (\forall\, \alpha \in \mathbb{R})\left(\E(\alpha) = \int_{\Omega} \alpha \dd P = \alpha P(\Omega) = \alpha\right) $. To však platí jen díky tomu, že je pravděpodobnostní míra omezená! \end{proof} \begin{pozn} Na prostorech vybavených neomezenou mírou výše uvedené tvrzení neplatí; mezi prostory $ L_1(\mathbb{R}, \bb, \dd x) $ a $ L_2(\mathbb{R}, \bb, \dd x) $ obecně není žádná inkluze. Vezměme kupříkladu funkci $ f $ takovou, že $ f(x) = 1/x $ pro $ x \in [1, +\infty) $ a $ f(x) = 0 $ jinde. Jistě se shodneme, že $ \int_\mathbb{R} f(x) \dd x = +\infty$, ale $ \int_{\mathbb{R}} f^2(x) \dd x < +\infty$. Je tedy $ f \in L_2 \setminus L_1 $. Oproti tomu pro funkci $ g $ definovanou jako $ g(x) = 1/\sqrt{x}$ pro $ x \in (0,1] $ a $ g(x) = 0 $ jinde platí $ g \in L_1 \setminus L_2 $. Inkluzi mezi $ L_p $ a $ L_q $ lze ale dokázat na \emph{omezených} množinách: Je-li $ G = G^\circ$ taková, že $ \lambda(G) < +\infty $, potom $ L_q \subset L_p \Leftrightarrow q > p \geq 1$. \end{pozn} \begin{defi} Mějme náhodnou veličinu $ X \in \mathcal{L}_2 $. \begin{itemize} \item Jejím \textbf{rozptylem} nazveme číslo $ \D X $ definované jako $ \D X := \E(X-\E X)^2 $. Lze se (častěji) setkat se značením $ \Var X $ či $ \sigma^2(X) $. Vyjadřuje míru variability (\emph{disperze}) náhodné veličiny kolem její střední hodnoty. Říká se mu též střední kvadratická odchylka, anglicky \emph{variance}. \item \textbf{Směrodatnou odchylkou} (anglicky \emph{standard deviation}) budeme rozumět $ \sqrt{\D X} $, také \linebreak někdy značeno písmenem $ \sigma $. \end{itemize} \end{defi} \begin{pozn} $ $ \begin{itemize} \item Definice rozptylu (potažmo směrodatné odchylky) je korektní, neboť díky předchozí větě platí, že $ X \in \mathcal{L}_2 \Rightarrow X \in \mathcal{L}_1 $. Takto definovaný rozptyl bude tedy vždy konečný (stačilo by ale zeslabit požadavek na $ X \in \mathcal{L}_1 $, neboť $ (X-\E X)^2 $ je nezáporná funkce, tudíž její integrál jistě existuje, ale nemusí být konečný). \item Z~definičního vztahu je vidět, že počítáme kvadrát odchylky veličiny od její střední hodnoty. Čím je veličina dál od průměru, tím větší váha jí je přiřazena. Umocnění však změní jednotky a zdá se přirozené vyjádřit disperzi dat v~původních jednotkách, a proto je výhodné výsledek odmocnit. \item Pro výpočty se hodí danou veličinu $ X $ tzv. \emph{standardizovat} transformací do tvaru \linebreak$ Y := (X - \E X)/\sqrt{\D X}$. Lze snadno nahlédnout, že $ \E Y = 0 $ a $ \D Y = 1 $. \end{itemize} \end{pozn} \begin{veta}[Alternativní výpočet $ \D $] Nechť $ X \in \mathcal{L}_2 $. Potom $ \D X = \E X^2 - (\E X)^2 $. \end{veta} \begin{proof} Přímým výpočtem zjistíme, že \begin{equation*} \E\bigl[ X^2 - 2X \underbrace{\E (X)}_{\in \mathbb{R}} + \underbrace{(\E X)^2}_{\in \mathbb{R}}\,\bigr] = \E X^2 -2(\E X)(\E X) + (E X)^2 = \E X^2 - (\E X)^2.\qedhere \end{equation*} \end{proof} \begin{veta}\label{v-rozptyl-afinni-transf} Buď $ X \in \mathcal{L}_2 $. Potom \begin{enumerate} \item $ (\forall\, \alpha, \beta \in \mathbb{R})\left(\D(\alpha X + \beta) = \alpha^2 \D X \right)$. \item $(\forall\, \beta \in \mathbb{R})(\D(\beta) = 0).$ \end{enumerate} \end{veta} \begin{proof} Stačí dokázat pouze první bod, neboť druhý z~něho okamžitě vyplyne. Podle definice je \begin{equation*} \D(\alpha X + \beta) = \E\bigl[(\alpha X + \beta) - \E(\alpha X + \beta) \bigr]^2 = \E[\alpha(X-\E X)]^2 = \alpha^2 \E[X-\E X]^2 = \alpha^2 \D X. \end{equation*} \end{proof} \emph{Nutnou} podmínku nezávislosti veličin lze zformulovat i~pomocí jejich rozptylů. \begin{veta}\label{v-rozptyl-souctu} Nechť $ (X_j)_1^n $ jsou nezávislé náhodné veličiny a $ (\forall j \in \hat{n})(X_j \in \mathcal{L}_2) $. Potom platí: \begin{equation*} \D\Bigl(\sum_{j=1}^n X_j\Bigr) = \sum_{j=1}^n \D X_j. \end{equation*} \end{veta} \begin{proof} Rozepišme levou stranu. \begin{equation*} \D\Bigl(\sum_{j=1}^n X_j\Bigr) \stackrel{\text{def}}{=} \E\Bigl[\sum_{j=1}^n X_j - \E\Bigl( \sum_{j=1}^n X_j\Bigr)\Bigr]^2 = \E\Bigl[\sum_{j=1}^n(X_j - \E X_j) \Bigr]^2 = (*) \end{equation*} Nyní je potřeba umocnit součet $ n $ sčítanců. Indukcí lze ukázat, že \begin{equation*} \Bigl(\sum_{j=1}^n a_j\Bigr)^2 = \sum_{j=1}^n a_j^2 + \sum_{j=1}^n\sum_{\substack{i=1\\ i \neq j}}^n a_i a_j = \sum_{j=1}^n a_j^2 + \sum_{i \neq j} a_i a_j. \end{equation*} Po umocnění sumy můžeme díky linearitě vtáhnout $ \E $ dovnitř: \begin{equation*} (*) = \sum_{j=1}^n\E(X_j - \E X_j)^2 + \sum_{i \neq j} \underbrace{\E\bigl[(X_i - \E X_i)(X_j -\E X_j)\bigr]}_{\bigstar}. \end{equation*} Zbývá ukázat, že výraz označený $ (\bigstar) $, který za chvíli nazveme \emph{kovariancí}, je roven nule. Skutečně, díky nezávislosti veličin $ (X_j)_1^n $ platí podle věty \ref{v-o-nezavislosti-pro-E}, že $ \E(YZ) = \E(Y)\E(Z) $. Ve $ (\bigstar) $ můžeme tedy~$ \E $ umístit ke každému ze dvou činitelů, takže $ \forall\, i, j \in \hat{n} $ máme $ (\E X_i - \E X_i)(\E X_j - \E X_j) = 0$. Celý součet tím pádem vymizí a~obdržíme pouze \begin{equation*} \sum_{j=1}^n\E(X_j - \E X_j)^2 = \sum_{j=1}^n \D X_j.\qedhere \end{equation*} \end{proof} \begin{veta}[Čebyševova nerovnost]\label{v-cebysevova-nerovnost} Mějme náhodnou veličinu $ X \in \mathcal{L}_2 $. Pak \begin{equation*} (\forall\, \varepsilon > 0)\Bigl(P\bigl[\,|X - \E X| \geq \varepsilon\,\bigr] \leq \frac{\D X}{\varepsilon^2} \Bigr). \end{equation*} \end{veta} \begin{proof} V~důkazu využijeme Markovovy nerovnosti \ref{v-markov} pro funkci $ (X - \E X)^2 \in \mathcal{L}_1 $. Buď $ \varepsilon > 0$ libovolné. Potom je Markovova nerovnost splněna i~pro $ \varepsilon^2 $ a po odmocnění dostaneme tvrzení věty. \begin{equation*} P\bigl[(X-\E X)^2 \geq \varepsilon^2 \bigr] \leq \frac{\E(X-\E X)^2}{\varepsilon^2} \Longleftrightarrow P\bigl[\, |X - \E X| \geq \varepsilon\,] \leq \frac{\D X}{\varepsilon^2}. \end{equation*} \end{proof} \begin{defi} Buďte $ X, Y \in \mathcal{L}_2 $. Jejich \textbf{kovariancí} nazveme číslo \begin{equation*} \cov(X,Y) := \E\bigl[(X-\E X)(Y - \E Y)\bigr]. \end{equation*} Rozepsáním pravé stany zjistíme, že $ \cov(X,Y) = \E(XY) - (\E X)(\E Y)$. Kovariance vyjadřuje sílu vztahu mezi dvěma veličinami. \end{defi} \begin{veta}\label{vlastnosti-Cov} Nechť $ X, Y \in \mathcal{L}_2 $. Potom platí \begin{enumerate} \item $ \cov(X,X) = \D X \geq 0 $. \item $ \cov(X,Y) = \cov(Y, X) $. \item Jsou-li veličiny $ X, Y $ nezávislé, pak $ \cov(X,Y) = 0 $ a říkáme, že \textbf{nekorelují}. \end{enumerate} \end{veta} \begin{proof} První dva body jsou zcela zřejmé. Co se třetího tvrzení týče, je díky nezávislosti $ \E(XY) = \linebreak = (\E X)(\E Y)$, takže $ \cov(X,Y) = \E(XY) - (\E X)(\E Y) = (\E X)(\E Y) - (\E X)(\E Y) = 0$. Obecně nelze tuto implikaci obrátit. V~praxi se však používá její obměna: Jakmile je kovariance nenulová, nemohou být veličiny nezávislé. \end{proof} \begin{priklad} Ukažme si protipříklad, z~něhož bude jasné, proč nelze implikaci v~bodě~3 předchozí věty obrátit. Mějme náhodnou veličinu $ X $ symetrickou kolem nuly, tj. $ X \sim P^X \Leftrightarrow -X \sim P^X $, a~definujme náhodnou veličinu $ Y $ vztahem $ Y = X^2 $. Kovarianci veličin $ X,Y $ spočteme takto: \begin{equation*} \cov(X,Y) = \cov(X, X^2) = \E(X^3) - \E X \E X^2 = 0, \end{equation*} integrujeme totiž liché funkce $ X^3 $ a $ X $ přes \emph{symetrický} interval. Vyšlo nám tedy, že náhodné veličiny $ X$, $ Y $ nekorelují, ale přitom jsou na sobě přímo funkčně závislé! Nekorelovanost veličin tudíž \emph{neimplikuje} jejich nezávislost. \end{priklad} \begin{defi} Buďte $ X, Y $ nedegenerované (nejsou s.~j. nulové) náhodné veličiny z~$ L_2 $ a nechť $ \D X>0,\ \D Y >0 $. Potom reálné číslo \begin{equation*} \rho (X, Y) = \frac{\cov(X, Y)}{\sqrt{\D X} \sqrt{\D Y}} \end{equation*} nazveme \textbf{korelací} (též \textbf{korelačním koeficientem}) náhodných veličin $ X,Y $. \end{defi} \begin{veta} Nechť $ X,Y $ jsou náhodné veličiny a $ X, Y \in L_2 $. Pak platí: \begin{equation*} \rho(X, Y) \in [-1,1] \end{equation*} a navíc: \begin{align*} \rho(X, Y) = 1 &\Longleftrightarrow (\exists \beta >0)(Y - \E Y = \beta(X - \E X)) \\ \rho(X, Y) = -1 &\Longleftrightarrow (\exists \beta <0)(Y - \E Y = \beta(X - \E X)). \\ \end{align*} \end{veta} \begin{proof} \begin{equation*} |\rho(X, Y)| = \frac{|\cov(X, Y)|}{\sqrt{\D X} \sqrt{\D Y}} = \frac{|\ss{X - \E X}{Y - \E Y}_{L_2}|}{\normm{X - \E X} \normm{Y - \E Y}} \leq 1, \end{equation*} kde poslední odhad plyne ze Schwarzovy nerovnosti (viz \ref{Cauchy-Schwarz}). Zbývá ukázat speciální případ, kdy $ (\exists \beta \neq 0)(Y - \E Y = \beta(X - \E X)) $. \begin{equation*} \rho(X, Y) = \frac{\cov(X, Y)}{\sqrt{\D X} \sqrt{\D Y}} = \frac{\E[(X - \E X)(\beta(X - \E X))]}{\sqrt{\E(X - \E X)^2} \sqrt{\E[(\beta (X-\E X))^2]}} = \frac{\beta}{|\beta|}\frac{\D X}{\sqrt{\D X}\sqrt{\D X}} = \frac{1}{\sgn \beta}. \end{equation*} \end{proof} \begin{defi}\label{def-kovariancni-matice} Mějme vícerozměrnou náhodnou veličinu $ \xx = (X_1, \ldots, X_n) $, kde $(\forall j \in \hat{n})(X_j \in~\mathcal{L}_2)$. Matici $ \mathbb{C}(\xx) = (\cov(X_i, X_j))_{i,j = 1}^n $ nazveme \textbf{kovarianční maticí} náhodné veličiny $ \xx $. \end{defi} \begin{veta}\label{v-PSD-kovariancni-matice} Buď $ \xx = (X_1, \ldots, X_n) $ vektorová náhodná veličina. Pak platí: \begin{enumerate}[(1)] \item $ \mathbb{C}(\xx) $ je symetrická, \item $ \mathbb{C}(\xx) $ je pozitivně semidefinitní, \item na diagonále matice $ \mathbb{C}(\xx) $ jsou rozptyly jednotlivých $ X_j $, tj. $ \diag \mathbb{C}(\xx) = (\D X_1, \ldots, \D X_n) $. \end{enumerate} \end{veta} \begin{proof} Definujme náhodnou veličinu $ Y = \sum_{j=1}^n \alpha_j X_j $, pak platí: \begin{align*} 0 \leq \D Y &= \E\Bigl(\sum_{j=1}^n \alpha_j X_j - \E\bigl(\sum_{j=1}^n \alpha_j X_j\bigr)\Bigr)^2\\ &\stackrel{\footnotemark}{=}\E\Bigl(\sum_{j=1}^n \alpha_j(X_j - \E X_j)\Bigr)^2 \\ &= \E\Bigl(\sum_{j=1}^n \sum_{i=1}^n \alpha_j(X_j - \E X_j)(X_i - \E X_i) \alpha_i\Bigr) \\ &= \sum_{j=1}^n \sum_{i=1}^n \alpha_j \E[(X_j - \E X_j)(X_i - \E X_i)] \alpha_i \\ &= \sum_{j=1}^n \sum_{i=1}^n \alpha_j \cov(X_i, X_j) \alpha_i \\ &= \trans{\bm{\alpha}} \mathbb{C}(\xx) \bm{\alpha}. \end{align*} \footnotetext{Využili jsme linearity střední hodnoty uvnitř závorky a sloučili jsme sumy.}Máme tedy $ \forall \,\bm{\alpha} \in \mathbb{R}^n $ nerovnost $ 0 \leq \trans{\bm{\alpha}}\mathbb{C}(\xx) \bm{\alpha} $, z~níž plyne pozitivní semidefinitnost $ \mathbb{C}(\xx) $. Symetričnost matice $ \mathbb{C}(\xx) $ je zřejmá díky symetrii kovariance (viz \ref{vlastnosti-Cov}). Třetí bod věty plyne z~definice kovariance pro vektorovou náhodnou veličinu $ \xx $, jelikož $ \D X_j = \cov(X_j, X_j) $. \end{proof} \begin{defi} Mějme vícerozměrnou náhodnou veličinu $ \xx = (X_1, \ldots, X_n) $, kde $(\forall j \in \hat{n})(X_j \in~\mathcal{L}_2)$. Matici $ \mathbb{R}(\xx) = (\rho(X_i, X_j))_{i,j = 1}^n $ nazveme \textbf{korelační maticí} náhodné veličiny~$ \xx $. \end{defi} \begin{pozn} Na diagonále korelační matice jsou samé jedničky, tj. $ \diag\mathbb{R}(\xx) = (1,1, \ldots, 1) $. Jedná se o triviální fakt, jelikož $ (\forall i \in \hat{n})(\rho(X_i, X_i) = 1) $. \end{pozn} \subsection{$ \mathcal{L}_p $ prostory a vyšší momenty} \begin{defi}\label{def-Lp-norma} Nechť $ p \geq 1 $. Množinu $ \mathcal{L}_p = \{X \text{ náhodné veličiny na } (\Omega, \sa, P) \mid |X|^p \in \mathcal{L}_1\}$ nazveme prostorem náhodných veličin \textbf{integrovatelných s $ p $-tou mocninou} vzhledem k~míře~$ P $. Dále definujme na tomto prostoru seminormu $ \normp{X} = (\E |X|^p)^{\frac{1}{p}} $.\\ Stejně jako v případě prostoru $ \mathcal{L}_2 $ (viz \ref{def-L2}) zavedeme na $ \mathcal{L}_p $ ekvivalenci $ \sim $ následovně: \begin{equation*} X \sim Y \Longleftrightarrow X = Y \text{ s. j. } P. \end{equation*} Faktorprostor $ L_p = \mathcal{L}_p|_{\sim} $ s~normou $ \normp{X} = (\E |X|^p)^{\frac{1}{p}} $ tvoří \textbf{normovaný vektorový prostor}. \end{defi} \begin{veta}[Hölderova nerovnost] Buďte $ p,q \geq 1 $ takové, že $ \frac{1}{p} + \frac{1}{q} = 1 $. Mějme $ X \in \mathcal{L}_p $ a $ Y \in \mathcal{L}_q $. Pak $ XY \in \mathcal{L}_1 $ a platí: \begin{equation} |\E (XY)| \leq \E |XY| \leq \normp{X} \normq{Y}. \end{equation} \end{veta} \begin{proof} K důkazu budeme předpokládat platnost tzv. \emph{Youngovy nerovnosti}, která říká:\\ Nechť $ c, d \geq 0 $ a $ p,q \geq 1 $, kde $ \frac{1}{p} + \frac{1}{q} = 1 $. Pak platí: \begin{equation*} c^{\frac{1}{p}} d^{\frac{1}{q}} \leq \frac{1}{p}c + \frac{1}{q}d. \end{equation*} Ekvivalentně pro $ c = {c'}^p $ a $ d = {d'}^q $: \begin{equation*} c'd' \leq \frac{1}{p}{c'}^p + \frac{1}{q}{d'}^q. \end{equation*} Z volby $ c' = |X| $, $ d' = |Y| $ ihned plyne, že $ |XY| \in \mathcal{L}_1 $. Samotnou Hölderovu nerovnost dostaneme dosazením $ c = \frac{|X|^p}{\E |X|^p} $, $ d = \frac{|Y|^q}{\E |Y|^q} $: \begin{align*} c^{\frac{1}{p}} d^{\frac{1}{q}} &\leq \frac{1}{p}c + \frac{1}{q}d\\ \frac{|X||Y|}{\normp{X} \normq{Y}} &\leq \frac{1}{p}\frac{|X|^p}{\normp{X}^p} + \frac{1}{q}\frac{|Y|^q}{\normq{Y}^q} \qquad \big/ \E(\cdot)\\ \E|XY| &\leq \Bigl(\underbrace{\frac{1}{p} + \frac{1}{q}}_{=1}\Bigr)\normp{X}\normq{Y}.\qedhere \end{align*} Tím je tvrzení dokázáno. Důkaz obecné Hölderovy a~Youngovy nerovnosti bude proveden v~rámci předmětu \emph{Funkcionální analýza 1}. \end{proof} \begin{veta} Nechť $ 1 \leq p < q < \infty $. Pak $ \mathcal{L}_q(\Omega, \sa, P) \subset \mathcal{L}_p(\Omega, \sa, P) $. \end{veta} \begin{proof} Mějme náhodnou veličinu $ X \in \mathcal{L}_q $. Pak jistě platí, že \begin{equation*} |X|^p \leq 1 + |X|^q. \end{equation*} Jedničkou jsme odhadli případ, kdy $ |X| \leq 1 $, a výrazem $ |X|^q $ obsáhneme možnost, kdy $ |X|^p \geq 1 $, jelikož je dle předpokladu $ 1 \leq p < q < \infty$. Aplikací střední hodnoty dostaneme tuto nerovnost do tvaru \begin{equation*} \E |X|^p \leq \underbrace{\E 1}_{=1} + \E |X|^q. \end{equation*} Člen $ \E 1 $ je roven jedné, protože je míra~$ P $ \emph{pravděpodobnostní}. Poslední nerovností je tvrzení věty dokázáno. \end{proof} \begin{defi} Buď $ X $ náhodná veličina na pravděpodobnostním prostoru $ (\Omega, \sa, P) $. Pokud pro $ k \in \mathbb{N} $ existuje střední hodnota $ \E X^k $, nazveme ji \textbf{obecným $ k $-tým momentem} náhodné veličiny~$ X $ a~značíme $ {\mu'}_k = \E X^k$. \end{defi} \begin{defi} Buď $ X $ náhodná veličina na pravděpodobnostním prostoru $ (\Omega, \sa, P) $. Existuje-li pro $ k \in \mathbb{N} $ střední hodnota $ \E [(X - \E X)^k] $, nazveme ji \textbf{centrálním $ k $-tým momentem} náhodné veličiny $ X $, píšeme $ \mu_k = \E [(X - \E X)^k] $. \end{defi} \begin{pozn} V této poznámce uvedeme několik základních momentů. Mějme náhodnou veličinu $ X $. Pak: \begin{itemize} \item $ \mu_1' = \E X$ \item $ \mu_1 = \E(X - \E X) = \E X - \E (\E X) = \E X - \E X = 0 $ \item $ \mu_2 = \D X $ \item Nechť $ Y = \frac{X}{\sigma(X)} $. Pak $ \mu_3(Y) = \mu_3\left(\frac{X}{\sigma(X)}\right) = \frac{\mu_3(X)}{[\sigma(X)]^3}$. Tento moment se nazývá \textbf{šikmost}. Charakterizuje míru nesymetričnosti rozdělení kolem těžiště (tj. kolem $ \E X $) náhodné veličiny~$ X $. Pokud $ \mu_3(Y) = 0 $, pak je rozdělení $ X $ symetrické kolem $ \E X $. \item Při stejném značení nazveme moment $ \mu_4(Y) = \frac{\mu_4(X)}{[\sigma(X)]^4} $ \textbf{špičatostí} rozdělení náhodné veličiny~$ X $. Pro libovolné Gaussovo rozdělení $ X \sim \mathcal{N}(\mu, \sigma^2) $ platí $ \mu_4(\frac{X}{\sigma(X)}) = 3 $. Definuje se tak tzv. \textbf{koeficient špičatosti} $ \mu_e = \mu_4(Y) - 3 $, který charakterizuje špičatost vzhledem k~normálnímu rozdělení (laicky řečeno: říká, zda je hustota rozdělení $ X $ plošší nebo špičatější než u~rozdělení Gaussova). \end{itemize} \end{pozn} \begin{defi} Množinu $ \mathcal{L}_{\infty} = \{X \text{ náhodné veličiny na } (\Omega, \sa, P) \mid X \text{ je omezená s.~j. } P \}$ \linebreak nazveme prostorem náhodných veličin \textbf{omezených} vzhledem k~míře~$ P $. Na tomto prostoru definujeme normu $ \norminf{X} $ definovanou jako nejmenší konstantu $ c \in \mathbb{R} $ takovou, že $ |X| \leq c $ skoro jistě. Této normě se také říká \emph{esenciální supremum} veličiny $ X $ a značí se $ \esssup X $. \end{defi} \begin{veta} Mějme pravděpodobnostní prostor $ (\Omega, \sa, P) $. Pak platí, že $ \mathcal{L}_{\infty} \subset \mathcal{L}_{p \geq 1} $, a navíc $ \norminf{\cdot} = \lim_{p \rightarrow +\infty} \normp{\cdot} $. \end{veta} \begin{proof} Tuto větu ponecháváme bez důkazu; bude v~obecnějším znění dokázána na přednášce funkcionální analýzy. \end{proof} \begin{pozn} Předchozí věta nám říká, že $ \mathcal{L}_{\infty} $ je v~jistém smyslu limitou~$ \mathcal{L}_p $ prostorů. To ovšem platí pouze na prostoru s \emph{omezenou} mírou! \end{pozn}