02TSFsbirka:Kapitola1

Z WikiSkripta FJFI ČVUT v Praze
Verze z 1. 8. 2010, 10:58, kterou vytvořil Admin (diskuse | příspěvky) (Založena nová stránka: %\wikiskriptum{02TSFsbirka} \chapter{Základy teorie pravděpodobnosti a matematické statistiky} \section{Základní pojmy} \subsection{Náhodný jev, náhodná velič...)

(rozdíl) ← Starší verze | zobrazit aktuální verzi (rozdíl) | Novější verze → (rozdíl)
Přejít na: navigace, hledání
PDF [ znovu generovat, výstup z překladu ] Kompletní WikiSkriptum včetně všech podkapitol.
PDF Této kapitoly [ znovu generovat, výstup z překladu ] Přeložení pouze této kaptioly.
ZIPKompletní zdrojový kód včetně obrázků.

Součásti dokumentu 02TSFsbirka

součástakcepopisposlední editacesoubor
Hlavní dokument editovatHlavní stránka dokumentu 02TSFsbirkaSteffy 9. 2. 201115:06
Řídící stránka editovatDefiniční stránka dokumentu a vložených obrázkůAdmin 7. 9. 201513:48
Header editovatHlavičkový souborSteffy 12. 2. 201212:21 header.tex
Kapitola1 editovatZáklady teorie pravděpodobnosti a matematické statistikyHoskoant 22. 2. 201716:57 kapitola1.tex
Kapitola2 editovatNejpravděpodobnější rozděleníSteffy 12. 2. 201211:58 kapitola2.tex
Kapitola3 editovatTermodynamické potenciály a identitySteffy 12. 2. 201211:59 kapitola3.tex
Kapitola4 editovatIdeální a neideální plynyKubuondr 10. 4. 201721:25 kapitola4.tex
Kapitola5 editovatStatistické soubory - Hamiltonovské systémyHoskoant 4. 6. 201310:07 kapitola5.tex
Kapitola6 editovatFluktuaceSteffy 12. 2. 201212:01 kapitola6.tex
Kapitola7 editovatStatistické soubory - diskrétní hladinySteffy 11. 2. 201315:05 kapitola7.tex
Kapitola8 editovatPřesné statistikyKubuondr 28. 4. 201708:40 kapitola8.tex

Vložené soubory

soubornázev souboru pro LaTeX
Image:2part_U.pdf 2part_U.pdf
Image:binomial.pdf binomial.pdf
Image:blackbody2.pdf blackbody2.pdf
Image:gauss2.pdf gauss2.pdf
Image:maxwell.pdf maxwell.pdf
Image:poisson.pdf poisson.pdf
Image:spin_C.pdf spin_C.pdf
Image:spin_M.pdf spin_M.pdf
Image:spin_S.pdf spin_S.pdf

Zdrojový kód

%\wikiskriptum{02TSFsbirka}
\chapter{Základy teorie pravděpodobnosti a matematické statistiky}
 
\section{Základní pojmy}
 
\subsection{Náhodný jev, náhodná veličina}
 
{\bf Elementární náhodný jev} $\omega$ je výsledek nějakého náhodného pokusu. Množinu všech možných elementárních náhodných jevů označíme $\Omega$. Obecný náhodný jev $A$ je nějaká podmnožina $\Omega$.
 
Jev $A$ je {\bf částí} jevu $B$, pokud jev $A$ nastane tehdy a jen tehdy, nastane-li jev $B$, značíme
$$A\subset B.$$
 
Jev $C$ je {\bf sjednocení} jevů $A$ a $B$, pokud jev $C$ nastane tehdy, nastane-li jev $A$ nebo $B$:
$$C = A \cup B.$$
 
Jev $C$ je {\bf průnik} jevů $A$ a $B$, pokud jev $C$ nastane jen tehdy, nastanou-li jevy $A$ a $B$ současně:
$$C = A \cap B.$$
 
Jev {\bf opačný} k jevu $A$ značíme $\overline{A}$. Nastane vždy, když nenastane jev $A$. Opačný jev k~opačnému jevu je jev původní:
$$\overline{\overline{A}} = A .$$
 
Jev {\bf jistý} $S$ nastane při každém opakování náhodného pokusu. Opačný jev k $S$ je jev {\bf vyloučený} $\emptyset$. Pro každý jev $A$ platí
$$ A\cup\overline{A} = S,\qquad A\cap\overline{A} = \emptyset. $$
 
Jevy $A$ a $B$ jsou {\bf neslučitelné} (vzájemně se vylučující) právě tehdy když, jejich průnik je jev vyloučený,
$$A\cap B =\emptyset.$$
 
Jev $A$ je tedy elementární, pokud ho nelze zapsat jako sjednocení dvou jiných jevů. Jev $B$ je složený, pokud ho lze zapsat jako sjednocení několika elementárních jevů $\omega_i$,
$$ B = \bigcup\limits_i \omega_i. $$
Složený jev $B$ nastane pokud nastane některý z elementárních jevů $\omega_i$ v něm obsažených. $S$~obsahuje všechny elementární jevy, $\emptyset$ neobsahuje žádný.\\
 
\pr Šestistěnná kostka\\
Náhodný pokus je hod kostkou, elementární jevy $\omega_i$ jsou hodnoty možných výsledků $i = 1,\ldots,6$. Označme $B$ jev, kdy padne sudé číslo. Je to jev složený,
$$ B = \omega_2 \cup \omega_4 \cup \omega_6.$$ Platí že $\omega_2 \subset B$, čili dvojka může padnout jenom když padne sudé číslo. Jev opačný k jevu $B$ je jev kdy padne liché číslo
$$\overline{B} = \omega_1 \cup \omega_3 \cup \omega_5.$$
Jevy $B$ a $\omega_1$ se vzájemně vylučují, protože jednička není sudé číslo.\\
 
\subsection{Pravděpodobnostní rozdělení, hustota pravděpodobnosti}
 
Nechť $\Omega$ je množina všech jevů náhodného pokusu, $S$ jev jistý, $A$ libovolný jev a $\omega_i,\ i\in I$ jsou vzájemně se vylučující jevy.
{\bf Pravděpodobnostní rozdělení} náhodných jevů $P$ je zobrazení splňující vlastnosti
\begin{enumerate}
\item $P(A)\geq 0$ -- pravděpodobnost každého jevu je nezáporná,
\item $P(S) = 1$ -- jev jistý nastane s pravděpodobností jedna,
\item $P\left(\bigcup\limits_{i\in I} \omega_i\right) = \sum\limits_{i\in I} P(\omega_i)$ -- pravděpodobnost sjednocení vzájemně se vylučujících jevů je rovna součtu jejich pravděpodobností.
\end{enumerate}
Z těchto axiomů plynou následující vlastnosti:
\begin{itemize}
\item $\forall A\subset\Omega,\qquad 0\leq P(A) \leq 1, \qquad P(\emptyset) = 0$,
\item $P(A\cup B) = P(A) + P(B) - P(A\cap B)$,
\item $P(\overline{A}) = 1 - P(A)$,
\item $A\subset B \Longrightarrow P(A)\leq P(B)$.
\end{itemize}
Mějme jevy $A$ a $B$, $P(B)>0$. {\bf Podmíněná pravděpodobnost} jevu $A$, za předpokladu, že nastal jev $B$, je dána vztahem
$$P(A|B) = \frac{P(A\cap B)}{P(B)}.$$
Jevy $A$ a $B$ jsou {\bf nezávislé}, pokud
$$P(A|B) = P(A),\qquad P(B|A) = P(B).$$
Pro nezávislé jevy $A_i, i\in I$, je pravděpodobnost toho, že nastanou současně, dána součinem jejich pravděpodobností
$$P\left(\bigcap\limits_{i\in I} A_i\right) = \prod_{i\in I}P(A_i).$$
 
\pr Vyvážená šestistěnná kostka\\
Pravděpodobnosti všech hodů jsou stejné, $P(\omega_i) = \frac{1}{6},\ i=1,\ldots,6$. Pravděpodobnost toho, že padne sudé číslo, je
$$P(B) = P(\omega_2 \cup \omega_4 \cup \omega_6) = P(\omega_2) + P(\omega_4) + P(\omega_6) = \frac{1}{2},$$
protože jevy $\omega_i$ se vzájemně vylučují. Podmíněná pravděpodobnost toho, že padne šestka, za předpokladu, že padlo sudé číslo, je rovna
$$P(\omega_6|B) = \frac{P(\omega_6\cap B)}{P(B)} = \frac{P(\omega_6)}{P(B)} = \frac{\frac{1}{6}}{\frac{1}{2}} = \frac{1}{3}.$$\\
 
{\bf Náhodná veličina} je libovolná reálná funkce definovaná na množině elementárních jevů. Obor hodnot může být jak spočetný ({\bf diskrétní náhodná veličina}), tak nespočetný ({\bf spojitá náhodná veličina}). Náhodný jev můžeme chápat jako náhodnou veličinu, která může nabývat pouze dvou hodnot -- 1 (jev nastal) nebo 0 (jev nenastal).
 
Pravděpodobnostní rozdělení diskrétní náhodné veličiny $A$, která může nabývat hodnot $A = a_i, i\in I$, je funkce $P$, která splňuje vlastnosti
\begin{enumerate}
\item $0 \leq P(A = a_i) = p_i \leq 1$,
\item $\sum\limits_{i\in I} p_i = 1$.
\end{enumerate}
 
{\bf Hustota pravděpodobnosti} spojité náhodné veličiny $X$, která může nabývat hodnot $X = x\in\Omega$, je nezáporná funkce $w(x)$, splňující vlastnost
$$\forall A\subset\Omega, P(X\in A) = \int\limits_A w(x)dx.$$
 
Uvažujme nyní vektor náhodných veličin $\vec{x} = \left(x_1,\ldots,x_n\right)$, $x_i\in\Omega_i$, s pravděpodobnostním rozdělením $w(\vec{x})$. {\bf Marginální rozdělení} složky vektoru $x_i$ je dáno vystředováním rozdělení $w(\vec{x})$ přes složky $x_j,\ j\neq i$
$$
w_m(x_i) = \int\limits_{\Omega_1}dx_1\ldots \int\limits_{\Omega_{i-1}}dx_{i-1} \int\limits_{\Omega_{i+1}}dx_{i+1}\ldots \int\limits_{\Omega_n}dx_n w(\vec{x}).
$$
 
\subsection{Střední hodnoty, fluktuace, kovariance}
 
{\bf Střední hodnota} diskrétní náhodné veličiny $A$, která může nabývat hodnot $A = a_i,\ i\in I$ s pravděpodobností $P(A = a_i) = p_i$, je dána vztahem
$$\langle A\rangle =  \sum_{i\in I} a_i p_i.$$
Podobně, pro spojitou náhodnou veličinu $X$, která může nabývat hodnot $x\in \Omega \subseteq \mathds{R}$ a má hustotu pravděpodobnosti $w(x)$, je střední hodnota $X$ rovna
$$\langle X\rangle = \int\limits_\Omega x w(x)dx.$$
Střední hodnota náhodné veličiny je její průměrná hodnota po mnoha nezávislých opakování pokusu. Střední hodnota je lineární v následujícím smyslu:
$$
\langle aX + bY + c\rangle = a\langle X\rangle + b\langle Y\rangle + c,
$$
kde $X,Y$ jsou dvě náhodné veličiny a $a,b,c$ jsou reálná čísla. Nechť $F$ je funkce náhodné veličiny $X$, její střední hodnota je pak dána vztahem
$$\langle F\rangle = \sum_{i\in I}F(a_i)p_i \quad\left( = \int\limits_\Omega F(x)w(x)dx \right).$$
Speciálně, pro $F(x) = x^k$ se označuje $\langle x^k\rangle$ jako {\bf $k$-tý moment rozdělení}.
 
{\bf Střední kvadratická odchylka} $\Delta X$ náhodné veličiny $X$ je definována vztahem
$$\left(\Delta X\right) = \sqrt{\langle \left(X - \langle X\rangle\right)^2\rangle}.$$
{\bf Variance} se definuje jako kvadrát střední kvadratické odchylky. Snadno zjistíme, že platí
$$\left(\Delta X\right)^2 = \langle \left(X - \langle X\rangle\right)^2\rangle = \langle X^2 -2X\langle X\rangle + \langle X\rangle^2\rangle =\langle X^2\rangle -2\langle X\rangle \langle X\rangle + \langle X\rangle^2 = \langle X^2\rangle-\langle X\rangle^2.$$
{\bf Relativní fluktuací} náhodné veličiny $X$ se myslí střední kvadratická odchylka vztažená ke střední hodnotě, čili zlomek $\frac{\Delta X}{\langle X\rangle}$.
 
{\bf Kovariance} dvou náhodných veličin $X_1, X_2$ je definována vztahem
$$\left(\Delta X_1\Delta X_2\right) = \langle X_1 X_2\rangle - \langle X_1\rangle\langle X_2\rangle.$$
Kovariance indikuje závislost náhodných veličin. Jsou-li $X_1$ a $X_2$ nezávislé, je jejich rozdělení rovno $w(x_1,x_2) = w_1(x_1)\cdot w_2(x_2)$, takže platí $ \langle X_1 X_2\rangle = \langle X_1\rangle \cdot \langle X_2\rangle$ a jejich kovariance je rovna nule.
 
Nechť jsou $X_i,i=1,\ldots, n$ nezávislé náhodné veličiny, každá s oborem hodnot $\Omega_i$ a hustotou pravděpodobnosti $w_i(x_i)$. Vektor
$$\vec X = (X_1, X_2, \ldots, X_n)$$
je potom náhodná veličina s oborem hodnot
$$\Omega = \Omega_1\times\Omega_2\times\ldots\times\Omega_n$$
a hustotu pravděpodobnosti
$$w(\vec x) = w_1(x_1)\cdot w_2(x_2)\cdot\ldots\cdot w_n(x_n).$$
Pro střední hodnotu {\bf součtu} nezávislých náhodných veličin
$$S = \sum_{i=1}^n X_i$$
pak platí
\begin{eqnarray}
\label{ind:mean}
\nonumber \langle S\rangle & = & \int\limits_\Omega \sum_{i=1}^n x_i w(\vec x) dx = \int\limits_\Omega(x_1+\ldots + x_n)w_1(x_1)\ldots w_n(x_n) dx_1\ldots dx_n\\
 & = & \sum_{i=1}^n \left( \int\limits_{\Omega_i} x_i w_i(x_i)dx_i \prod_{j\neq i} \underbrace{\int\limits_{\Omega_j} w_j(x_j)dx_j}_1\right) = \sum_{i=1}^n \langle X_i\rangle.
\end{eqnarray}
Pro vyšší momenty podobné tvrzení neplatí, například pro druhý moment dostaneme
\begin{eqnarray}
\nonumber \langle S^2\rangle & = & \int\limits_\Omega \left( \sum_{i=1}^n x_i \right)^2 w(x) dx = \int\limits_\Omega(x_1+\ldots + x_n)^2w_1(x_1)\ldots w_n(x_n) dx_1\ldots dx_n\\
\nonumber & = & \sum_{i=1}^n \int\limits_{\Omega_i} x_i^2 w_i(x_i)dx_i \left(\prod_{j\neq i} \int\limits_{\Omega_j} w_j(x_j)dx_j\right) +\\
\nonumber & & + \sum_{i\neq j} \int\limits_{\Omega_i} x_i w_i(x_i)dx_i \int\limits_{\Omega_j} x_j w_j(x_j)dx_j \left(\prod_{k\neq i,j} \int\limits_{\Omega_k} w_k(x_k)dx_k\right)\\
\nonumber & = & \sum_{i=1}^n \langle X_i^2\rangle + \sum_{i\neq j} \langle X_i\rangle\langle X_j\rangle \neq \sum_i \langle X_i^2\rangle.
\end{eqnarray}
Nicméně, vztah analogický (\ref{ind:mean}) platí pro varianci
\begin{eqnarray}
\label{ind:var}
\nonumber \left(\Delta S\right)^2 & = & \langle S^2\rangle - \langle S\rangle^2 = \sum_{i=1}^n \langle X_i^2\rangle + \sum_{i\neq j} \langle X_i\rangle\langle X_j\rangle - \left(\sum_{i=1}^n \langle X_i\rangle\right)\left(\sum_{j=1}^n \langle X_j\rangle\right)\\
 & = & \sum_{i=1}^n \left(\langle X_i^2\rangle - \langle X_i\rangle^2\right) = \sum_{i=1}^n \left(\Delta X_i\right)^2.
\end{eqnarray}
 
\section{Binomické rozdělení}
 
Uvažujme náhodný pokus, který má dva možné výsledky -- ano/ne experiment. Kladný výsledek nastane s pravděpodobností $p$, záporný s pravděpodobností $1-p$. Pokus $N$-krát opakujeme, jednotlivá opakování jsou na sobě nezávislá. Pravděpodobnost, že z celkového počtu $N$ opakování bude $n$ pokusů úspěšných, je dána {\bf binomickým rozdělením}:
\begin{equation}
\label{binom}
p_n = {N\choose n}p^n(1-p)^{N-n},\qquad {N\choose n} = \frac{N!}{n!(N-n)!}.
\end{equation}
Normalizace rozdělení (\ref{binom}) je zřejmá z binomické věty
$$\sum_{n=0}^N p_n = \sum_{n=0}^N {N\choose n}p^n(1-p)^{N-n} = (p+1-p)^N = 1.$$
Střední hodnotu a varianci počtu kladných výsledků lze pro binomické rozdělení rozdělení snadno spočítat z definice (viz Příklad~\ref{pr:binom}):
\begin{equation}
\label{binom:mean:var}
\langle n\rangle = N p,\qquad \left(\Delta n\right)^2 = Np(1-p).
\end{equation}
Alternativně lze využít nezávislosti opakování pokusu. $j$-tému pokusu přiřadíme náhodnou veličinu $x_j$, která má dvě hodnoty: 1 pro kladný výsledek s pravděpodobností $p$, 0 pro záporný výsledek s pravděpodobností $1-p$. Střední hodnota a variance každé z náhodných veličin $x_i, i=1,\ldots, N$ jsou rovny
$$\langle x_i\rangle = p,\qquad \left(\Delta x_i\right)^2 = p(1-p).$$
Protože počet kladných výsledků $n$ můžeme napsat jako
$$ n = x_1 + x_2 + \ldots + x_N,$$
dostaneme s použitím tvrzení (\ref{ind:mean}) a (\ref{ind:var}) pro střední hodnotu a varianci součtu nezávislých veličin výsledek (\ref{binom:mean:var}).
 
 
\section{Poissonovo rozdělení, Stirlingova formule}
 
{\bf Poissonovo rozdělení} je limitní případ binomického rozdělení, kdy $p\rightarrow 0$, $N\rightarrow +\infty$, ale $p N =\lambda = \mathrm{konst}$. Vyjádříme-li $p = \frac{\lambda}{N}$, dostaneme binomické rozdělení ve tvaru
\begin{equation}
\label{binom:poisson}
p_n = {N\choose n}\left(\frac{\lambda}{N}\right)^n \left(1-\frac{\lambda}{N}\right)^{N-n}.
\end{equation}
Provedením limity $N\rightarrow +\infty$ získáme Poissonovo rozdělení
\begin{eqnarray}
\label{Poisson}
\nonumber p_n & = & \lim\limits_{N\rightarrow +\infty} \frac{N!}{n!(N-n)!} \left(\frac{\lambda}{N}\right)^n \left(1-\frac{\lambda}{N}\right)^{N-n}\\
\nonumber & = & \frac{\lambda^n}{n!}\lim\limits_{N\rightarrow +\infty} \left(\frac{N}{N}\right)\left(\frac{N-1}{N}\right)\ldots\left(\frac{N-n+1}{N}\right)\left(1-\frac{\lambda}{N}\right)^{N-n}\\
& = & \frac{\lambda^n}{n!}e^{-\lambda}.
\end{eqnarray}
Normalizace rozdělení (\ref{Poisson}) je zřejmá z Taylorova rozvoje exponenciely
$$\sum_{n=0}^{+\infty} p_n = e^{-\lambda} \sum_{n=0}^{+\infty} \frac{\lambda^n}{n!} = e^{-\lambda}e^{\lambda} = 1.$$
Jiné odvození Poissonova rozdělení získáme odhadem faktoriálu v binomickém rozdělení pomocí {\bf Stirlingovy formule}. Pro $N\rightarrow +\infty$ můžeme aproximovat
$$\ln N! = \sum_{k=1}^N \ln k \simeq \int\limits_1^N \ln kdk = N(\ln N-1) + 1 \simeq N\ln\frac{N}{e},$$
takže $N!$ se chová přibližně jako
$$N! \simeq \left(\frac{N}{e}\right)^N.$$
Dosazením do binomického rozdělení (\ref{binom:poisson}) a provedením limity $N\rightarrow +\infty$ dostaneme stejný výsledek jako (\ref{Poisson}).
 
Parametr $\lambda$ určuje střední hodnotu i varianci (viz Příklad~\ref{pr:Poisson}):
$$\langle n\rangle = \left(\Delta n\right)^2 = \lambda.$$
 
\section{Náhodné procházky}
 
Jako příklad náhodného (stochastického) jevu si rozebereme {\bf náhodnou procházku}. Uvažuj\-me částici, která v diskrétních časových krocích přeskakuje mezi body $m\in\mathds{Z}$ na ose $x$. V čase $t=0$ je částice v počátku $m=0$. V každém kroku může skočit s pravděpodobností $p$ o jedna doprava, nebo o jedna doleva s pravděpodobností $1-p$. Otázka zní, s jakou pravděpodobností $p(m,t)$ ji můžeme nalézt v bodě $m$ po $t$ krocích. Z definice je zřejmé, že $p(m,t) = 0$, pokud $m$ a $t$ mají jinou paritu (např. $m$ je sudé a $t$ liché). Uvažujme tedy jen $m,t$ se stejnou paritou. Označíme-li $r$ počet kroků doprava a $l$ počet kroků doleva, pak platí
$$
r+l = t,\quad r-l = m \quad \Longrightarrow\quad  r = \frac{t+m}{2},\quad l =\frac{t-m}{2}.
$$
Pro pravděpodobnost nalezení částice v bodě $m$ po $t$ krocích pak dostaneme
\begin{equation}
\label{chap1:rwdist}
p(m,t) = { t\choose r} p^r (1-p)^l = { t\choose\frac{t+m}{2}} p^\frac{t+m}{2} (1-p)^\frac{t-m}{2}.
\end{equation}
Jiný způsob odvození je pomocí binomické věty. Platí totiž
\begin{equation}
\label{chap1:rw}
1 = (p + (1-p))^t = \sum_{k=0}^t {t\choose k}p^k (1-p)^{t-k} = \sum_{m=-t}^t {t\choose\frac{t+m}{2}} p^{\frac{t+m}{2}} (1-p)^\frac{t-m}{2} = \sum_{m=-t}^t p(m,t).
\end{equation}
Přeškálujme nyní pravděpodobnosti skoku doprava a doleva nějakým parametrem $x$, umocněným na změnu pozice částice, která odpovídá danému skoku, tj.
$$
p \longrightarrow p x^1,\qquad (1-p) \longrightarrow (1-p) x^{-1}.
$$
Výraz (\ref{chap1:rw}) pak přejde do tvaru
$$
(px + (1-p)x^{-1})^t = \sum_{k=0}^t {t\choose k}p^k (1-p)^{t-k} x^{k-(t-k)} = \sum_{m=-t}^t {t\choose\frac{t+m}{2}} p^{\frac{t+m}{2}} (1-p)^\frac{t-m}{2} x^m = \sum_{m=-t}^t p(m,t) x^m.
$$
Vidíme, že koeficient u $x^m$ odpovídá pravděpodobnosti nalezení částice v bodě $m$ po $t$ krocích (\ref{chap1:rwdist}). Výhoda tohoto postupu spočívá v tom, že lze snadno zobecnit na procházky s jinými pravidly, více částicemi, ve vícerozměrných sítích atd.
 
Spočítáme nyní základní charakteristiky náhodné procházky -- střední hodnotu a varianci pozice částice po $t$ krocích. Můžeme využít toho, že jednotlivé kroky jsou nezávislé. Polohu částice po $t$ krocích tak můžeme zapsat jako součet
$$
x(t) = x_1 + x_2 + \ldots + x_t
$$
$t$ náhodných veličin $x_n$, které odpovídají změně pozice částice během $n$-tého kroku. V našem případě tedy platí, že každá z $x_n$ může nabývat hodnoty $+1$ s pravděpodobností $p$, nebo $-1$ s pravděpodobností $1-p$. Pro střední hodnotu a varianci posunutí během jednoho kroku $x_n$ snadno dostaneme
$$
\langle x_n\rangle = 2p-1,\quad \langle x_n^2\rangle = 1,\quad \left(\Delta x_n\right)^2 = \langle x_n^2\rangle - \langle x_n\rangle^2 = 4p(1-p).
$$
S použitím vztahů (\ref{ind:mean}) a (\ref{ind:var}) pak pro polohu částice po $t$ krocích dostaneme
$$
\langle x(t) \rangle = t\langle x_n\rangle = t (2p-1),\quad \left(\Delta x(t)\rangle\right)^2 = t \left(\Delta x_n\rangle\right)^2 = t 4p(1-p).
$$
Vidíme tedy, že střední kvadratická odchylka polohy částice roste s druhou odmocninou počtu kroků, což odpovídá difuzi.
 
\section{Gaussovo rozdělení, Gaussovy integrály}
 
\subsection{Gaussovo normální rozdělení}
 
{\bf Gaussovo normální rozdělení} spojité náhodné veličiny $X\in\mathds{R}$ má tvar
\begin{equation}
\label{Gauss}
w(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right),\quad \mu\in\mathds{R},\quad \sigma>0.
\end{equation}
Parametry rozdělení $\mu,\sigma$ mají jednoduchý význam -- bod $x = \mu$ je maximum rozdělení, body $x = \mu\pm\sigma$ jsou jeho inflexní body. Navíc platí, že $\mu$ je střední hodnota náhodné veličiny $X$, $\sigma$ je její střední kvadratická odchylka (viz Příklad~\ref{pr:Gauss})
\begin{equation}
\label{Gauss:mu:sigma}
\langle X\rangle = \mu,\qquad \Delta X = \sigma.
\end{equation}
 
\subsection{Gaussovy integrály}
 
Odvodíme vzorec pro integrál
$$I_n(a) = \int\limits_\mathds{R} x^n e^{-a x^2} dx, \quad a>0,\quad n = 0,1,2,\ldots$$
 
\begin{enumerate}
\item Integrál $I_0(1)$ spočítáme přechodem do polárních souřadnic
\begin{eqnarray}
\nonumber I^2_0(1) & = & \int\limits_{\mathds{R}^2} e^{-(x^2+y^2)}dxdy =\left\{\begin{array}{c}
                                                                                x = r\cos\varphi,\ y = r\sin\varphi \\
                                                                                dxdy = r drd\varphi
                                                                              \end{array}\right\} = \int\limits_0^{2\pi}d\varphi\int\limits_0^{+\infty} r dr e^{-r^2}\\
\nonumber & = & \left\{\begin{array}{c}
                  r^2 = t \\
                  2r dr = dt
                \end{array}\right\} = 2\pi\frac{1}{2}\int\limits_0^{+\infty} e^{-t} dt = \pi,\\
I_0(1) & = & \int\limits_\mathds{R} e^{-x^2}dx = \sqrt{\pi}.
\end{eqnarray}
\item Integrál $I_0(a)$ se převede substitucí $\sqrt{a}x = y$ na $I_0(1)$:
$$I_0(a) = \int\limits_\mathds{R} e^{-ax^2}dx = \frac{I_0(1)}{\sqrt{a}}  = \sqrt{\frac{\pi}{a}}.$$
\item Integrál $I_{2k}(a)$ se vyjádří derivací $I_0(a)$ podle parametru $a$
\begin{eqnarray}
\nonumber \frac{d^k}{da^k} \int\limits_\mathds{R} e^{-ax^2}dx & = & \int\limits_\mathds{R} \frac{\partial^k}{\partial a^k} e^{-ax^2}dx = (-1)^k \int\limits_\mathds{R} x^{2k} e^{-ax^2}dx\\
I_{2k}(a) & = & (-1)^n \frac{d^k}{da^k} I_0(a) = \sqrt{\frac{\pi}{a}}(2k-1)!! \left(\frac{1}{2a}\right)^k,
\end{eqnarray}
speciálně pro $k= 1,2$ dostaneme
$$I_2(a) = \int\limits_\mathds{R} x^{2} e^{-ax^2}dx = \sqrt{\frac{\pi}{a}} \frac{1}{2a},\qquad I_4(a) = \int\limits_\mathds{R} x^{4} e^{-ax^2}dx = \sqrt{\frac{\pi}{a}}\frac{3}{4a^2}.$$
Integrál $I_{2k+1}(a)$ je roven nule, protože integrand je lichá funkce.
\end{enumerate}
 
\subsection{Eulerovy integrály}
 
{\bf $\Gamma$-funkce} je definována vztahem
$$\Gamma(p) = \int\limits_0^{+\infty} x^{p-1} e^{-x}dx, \qquad p>0.$$
{\bf $\beta$-funkce} má tvar
$$\beta(p,q) = \int\limits_0^1 x^{p-1} (1-x)^{q-1} dx,\qquad p,q>0.$$
Pro Eulerovy integrály platí následující:
\begin{enumerate}
\item $\beta(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)},$
\item pro $p\in(0,1)$, $\beta(p,1-p) = \frac{\pi}{\sin(p\pi)}$; speciálně pro $p=\frac{1}{2}$ dostaneme
$$\beta\left(\frac{1}{2},\frac{1}{2}\right) = \pi = \frac{\Gamma\left(\frac{1}{2}\right)\Gamma\left(\frac{1}{2}\right)}{\Gamma(1)},$$
\item $\Gamma(p+1) = p\Gamma(p)$; speciálně pro $p=n\in\mathds{N}$ dostaneme $\Gamma(n) = (n-1)!$,
\item z bodů 2. a 3. získáme vztah $\Gamma\left(\frac{1}{2}\right) = \sqrt{\pi}$.
\end{enumerate}
Eulerovy integrály můžeme využít pro výpočet Gaussových integrálů v mezích $(0,+\infty)$
$$\int\limits_0^{+\infty} x^n e^{-ax^2}dx = \left\{
                                             \begin{array}{c}
                                               ax^2 = y, x = \sqrt{\frac{y}{a}}\\
                                               dx = \frac{dy}{2\sqrt{ay}}\\
                                             \end{array}
                                           \right\} = \frac{1}{2a^\frac{n+1}{2}}\int\limits_0^{+\infty} y^\frac{n-1}{2}e^{-y}dy = \frac{1}{2a^\frac{n+1}{2}}\Gamma\left(\frac{n+1}{2}\right),$$
speciálně pro $n = 1,2,3,4$ dostaneme
\begin{eqnarray}
\nonumber \int\limits_0^{+\infty} x e^{-ax^2}dx & = & \frac{1}{2a},\qquad \int\limits_0^{+\infty} x^2 e^{-ax^2}dx = \sqrt{\frac{\pi}{a}} \frac{1}{4a},\\
\nonumber \int\limits_0^{+\infty} x^3 e^{-ax^2}dx & = & \frac{1}{2a^2},\qquad \int\limits_0^{+\infty} x^4 e^{-ax^2}dx = \sqrt{\frac{\pi}{a}}\frac{3}{8a^2}.
\end{eqnarray}
 
\section{Příklady}
 
\bc
\label{pr:binom}
Přímým výpočtem určete střední hodnotu a varianci pro binomické rozdělení s pravděpodobností úspěchu $p$ a $N$ opakování.
\ec
\vysl $\langle n\rangle = N p,\qquad \langle n^2\rangle = N p((N-1)p + 1),\qquad \left(\Delta n\right)^2 = Np(1-p).$
 
\bc
\label{pr:Poisson}
Určete střední hodnotu a varianci pro Poissonovo rozdělení s parametrem $\lambda$.
\ec
\vysl $\langle n\rangle = \lambda,\qquad \langle n^2\rangle = \lambda(\lambda+1),\qquad \left(\Delta n\right)^2 = \lambda.$
 
\bc
Uvažujte náhodnou procházku na přímce, kde částice má tři možnosti -- může udělat krok doleva nebo doprava o jedna s pravděpodobností $1/4$, nebo může zůstat na místě s pravděpodobností $1/2$. Určete pravděpodobnost nalezení částice v bodě $m$ po $t$ krocích $p(m,t)$, střední hodnotu a varianci polohy částice.
\ec
\vysl $p(m,t) = \frac{1}{4^t} {2t\choose t+m},\quad \langle x(t)\rangle = 0,\quad \left(\Delta x(t)\right)^2 = \frac{t}{2}.$
 
\bc
\label{pr:Gauss}
Explicitním výpočtem ověřte normalizaci Gaussova rozdělení (\ref{Gauss}) a platnost vztahů (\ref{Gauss:mu:sigma}).
\ec
 
\bc
Určete povrch $S_n$ a objem $V_n$ jednotkové n-rozměrné koule $B_n$.
\ec
\navod Převeďte integrál $\int\limits_{\mathds{R}^n} e^{-\|\vec x\|^2}d^nx = \pi^\frac{n}{2}$ do sférických souřadnic. Integrál přes prostorový úhel je roven povrchu jednotkové koule $S_n$. Výsledek je
$$ S_n = \frac{2\pi^\frac{n}{2}}{\Gamma\left(\frac{n}{2}\right)}.$$
Objem $V_n$ se spočítá analogicky převodem integrálu $\int\limits_{B_n} 1d^nx$ do sférických souřadnic,
$$V_n = \int\limits_{B_n} 1d^nx =  S_n \int\limits_0^1 r^{n-1}dr = \frac{S_n}{n} = \frac{\pi^\frac{n}{2}}{\Gamma\left(\frac{n}{2}+1\right)}.$$
 
\bc
Určete fázový objem $V_{N,E}$ souboru $N$ jednorozměrných harmonických oscilátorů s hmotností $m$ a vlastní frekvencí $\omega$, je-li celková energie souboru shora omezená hodnotou $E$.
\ec
\navod Fázový objem souboru oscilátorů je dán integrálem
$$V_{N,E} = \int\limits_{H\leq E} d\Gamma,\qquad  H = \sum_i \frac{p_i^2}{2m} + \frac{1}{2} m\omega^2 q_i^2,\qquad d\Gamma = d^Nqd^Np.$$
Přeškálováním obecných souřadnic a hybností
$$q_i' = q_i \sqrt{\frac{m\omega^2}{2}},\qquad p_i' = \frac{p_i}{\sqrt{2m}},$$
převedeme integrál na objem $2N$-rozměrné koule o poloměru $\sqrt{E}$. Výsledek je
$$V_{N,E} = \frac{(2\pi)^N E^N}{N!\omega^N}.$$
 
\bc
Maxwellovo rozdělení rychlostí atomů plynu při teplotě $T$ má tvar
$$
w(\vec{v}) = \left(\frac{m}{2\pi kT}\right)^\frac{3}{2} \exp\left(-\frac{m \|\vec v\|^2}{2kT}\right),\quad \vec{v}\in\mathds{R}^3.
$$
Určete rozdělení velikosti rychlosti $v$.
\ec
\navod
Hledáme marginální rozdělení. Hustotu pravděpodobnosti $w(\vec{v})$ převedeme do sférických souřadnic $w(v,\theta,\varphi)$ a vyintegrujeme přes úhly $\theta,\varphi$, nesmíme zapomenout na jakobián. Výsledek je
$$
w(v) = 4\pi \left(\frac{m}{2\pi kT}\right)^\frac{3}{2} v^2 \exp\left(-\frac{m v^2}{2kT}\right).
$$