Součásti dokumentu 01PRA1_2
Zdrojový kód
%\wikiskriptum{01PRA1_2}
\section{Diskrétní náhodné veličiny}
\begin{define}
Náhodná veličina $X$ je diskrétní, právě když $\Ran X$ je nejvýše
spočetná množina.
\end{define}
\begin{define}
Pro diskrétní náhodnou veličinu definujeme
\[F_X(x)=P(X\le x)=\sum_{m:x_m\le x}P(X=x_m)=
\sum_{m=1}^{N,\infty}p_m\chf_{[x_m,+\infty)}(x)\]
\end{define}
\begin{define}
Frekvenční funkce (hustota pravděpodobnosti) je
\[
f(x)=\begin{cases}
p_m&x=x_m\\
0&\text{jinde}
\end{cases}.
\]
\end{define}
\begin{remark}
Platí
\[\sum_{m=1}^{N,\infty}p_m=1.\]
\end{remark}
\subsection{Alternativní (Bernoulliho) rozdělení}
Případ, kdy je
\[
X(\omega)=
\begin{cases}
1\\
0
\end{cases}
\]
a $P(X=0)=1-p$, $P(X=1)=p$.
\subsection{Diracovo rozdělení}
$P(X=c)=1$, $P(X\not=c)=0$.
\subsection{Binomické rozdělení}
Experiment se $n$-krát opakuje, přičemž pravděpodobnost úspěchu je
$P(A)=p$, neúspěchu $P(A\compl)=1-p$. Počet příznivých jevů při
$n$ opakováních je
\[X=\sum_{j=1}^n X_j.\]
Pro pravděpodobnost platí
\[
\begin{split}
P(X=k)&=P\left(
\sum_{\#(i_1,\dots,i_k)}
\{X_{i_1}=1,\dots,X_{i_k}=1,X_{i_{k+1}}=0,\dots,X_{i_n}=0\}
\right)=\\
&=\sum_{\#(i_1,\dots,i_k)}
P(X_{i_1}=1,\dots,X_{i_k}=1,X_{i_{k+1}}=0,\dots,X_{i_n}=0)=\\
&=\binom{n}{k}\prod_{i=1}^kP(x_i=1)\prod_{k=1}^n P(x_i=0)=
\binom{n}{k}p^k(1-p)^{n-k}.
\end{split}
\]
Z~binomické věty také plyne, že
\[
\sum_{k=0}^n
\binom{n}{k}p^k(1-k)^{n-k}=(p+1-p)^n=1.
\]
\subsection{Geometrické (Pascalovo) rozdělení}
Nekonečná posloupnost alternativních pokusů, $P(A)=p$,
$P(A\compl)=1-p$, $X$ je počet pokusů před prvním výskytem jevu
$A$. Platí, že
\[P(X=k)=p(1-p)^k.\]
Také platí, že
\[\sum_{k=0}^\infty p(1-p)^k=p\sum_{k=0}^\infty(1-p)^k
=p\frac{1}{1-(1-p)}=1.\]
\subsection{Negativně binomické rozdělení}
Nekonečné opakování, $Y$ je počet neúspěchů před $m$-tým úspěchem,
$P(A)=p$. Potom
\[P(Y=k)=\binom{k+m-1}{k}p^m(1-p)^k.\]
\subsection{Hypergeometrické rozdělení}
Model: zásobník :-), $r$ červených kuliček, $N-r$ bílých, $n$-krát
opakuji (bez vracení). $X$ je počet červených kuliček v~$n$-tici.
\[P(X=x)=\frac{\binom{r}{x}\binom{N-r}{n-x}}{\binom{N}{n}}.\]
\subsection{Poissonovo rozdělení}
\begin{define}
Náhodná veličina $X$ má Poissonovo rozdělení s~parametrem $\lambda$,
pokud
\[P(X=x)=\frac{\lambda^x}{x!}\e^{-\lambda}.\]
\end{define}
\begin{theorem}[Poisson]
Nechť $np_n\to\lambda$ (nebo $np_n=\lambda$), $\lambda>0$. Potom
\[
\lim_{n\to\infty}P_n(x)=\frac{\lambda^x}{x!}\e^{-\lambda}.
\]
\begin{proof}
\[
\begin{split}
\lim_{n\to+\infty}P_n(x)&=\lim_{n\to+\infty}\binom{n}{x}p_n^x(1-p_n)^{n-x}=\\
&=\lim_{n\to+\infty}\binom{n}{x}
\left(\frac\lambda n + o\left(\frac1n\right)\right)^x
\left(1-\frac\lambda n-o\left(\frac1n\right)\right)^{n-x}=\\
&=\lim_{n\to+\infty}\frac{\lambda^x}{x!}
\frac{n(n-1)\cdots(n-x+1)}{n^x}
\left(
1+\frac{n}\lambda o\left(\frac1n\right)
\right)^x\\
&\quad\left(
1-\frac\lambda n-o\left(\frac1n\right)
\right)^n
\left(
1-\frac\lambda n-o\left(\frac1n\right)
\right)^{-x}=
\frac{\lambda^x}{x!}\e^{-\lambda},
\end{split}
\]
neboť
\[
\lim_{n\to+\infty}\left(
1-\frac\lambda n-o\left(
\frac1n
\right)
\right)^n=\e^{-\lambda}.
\]
\end{proof}
\end{theorem}
\begin{remark}
\begin{enumerate}
\item
\[\sum_{x=0}^\infty P(X=x)=\sum_{x=0}^\infty
\frac{\lambda^x}{x!}\e^{-\lambda}=\e^{-\lambda}\e^\lambda=1
\]
\item
Poissonovo rozdělení pro velká $n$ a malá $p$ aproximuje
$\mathrm{Bi}(n,p)$.
\end{enumerate}
\end{remark}
\subsubsection{Zákon řídkých jevů}
\begin{theorem}
Nechť $0<t_1<t_2$ a nechť dále platí:
\begin{enumerate}
\item Počet výskytů jevu $A$ v~$[t_1,t_2)$ nezávisí na počtu výskytů v
$[0,t_1)$.
\item Pravděpodobnost výskytu jevu $A$ právě jednou v~$[t,t+h)$ je
$\lambda h+o(h)$ při $h\to 0+$.
\item Pravděpodobnost výskytu jevu $A$ více než jednou v~$[t,t+h)$ je
$o(h)$.
\item Pravděpodobnost $P_n(t)$ výskytu $n$ jevů do času $t$ je
diferencovatelná funkce $t$ pro každé $n$.
\end{enumerate}
Pak
\[P_n(t)=\frac{\e^{-\lambda t}(\lambda t)^n}{n!}.\]
Číslo $\lambda$ se nazývá {\bf intenzita Poissonovského procesu}.
\begin{proof}
Buď $X_t$ počet událostí v~časovém intervalu $[0,t)$,
$P(X_t=k)=p_k(t)$.
\[p_0(t+h)=P(X_t=0)P(X_{t+h}-X_t=0)=
p_0(t)(1-\lambda h+o(h))\]
\[\frac{\d p_0}{\d t}(t)=
\lim_{h\to 0+}\frac{p_0(t+h)-p_0(t)}{h}=\lim_{h\to 0+}
\left(-\lambda p_0(t)+p_0(t)\frac{o(h)}{h}\right)=
-\lambda p_0(t)\]
\[
\begin{split}
p_k(t+h)&=\sum_{j=0}^k P(X_t=j)P(X_{t+h}-X_t=k-j)=\\
&=\sum_{j=0}^{k-2} P(X_t=j)o(h)+P(X_t=k-1)
(\lambda h+o(h))+\\
&\quad+P(X_t=k)(1-\lambda h+o(h))
\end{split}
\]
\[
\frac{\d p_k}{\d t}(t)=
\lim_{h\to 0+}\frac{p_k(t+h)-p_k(t)}{h}=\lambda p_{k-1}(t)-\lambda p_k(t)
\]
\begin{align*}
p_0'(t)&=-\lambda p_0(t)\\
p_k'(t)&=\lambda(p_{k-1}(t)-p_k(t))\\
p_0(0)&=1\\
p_k(0)&=0
\end{align*}
\end{proof}
\end{theorem}