This commit is contained in:
Christian Bay 2015-10-02 11:07:21 +02:00
parent f87c58695a
commit 897d6e854a

View File

@ -2,7 +2,8 @@
\usepackage{amsmath} \usepackage{amsmath}
\usepackage{amssymb} \usepackage{amssymb}
% -------- Umlaute korrekt ---------------- % -------- Umlaute korrekt ----------------
\usepackage[utf8]{inputenc} \usepackage{ngerman}
\usepackage[latin1, utf8]{inputenc}
\usepackage[ngerman, english]{babel} \usepackage[ngerman, english]{babel}
%------------------------------------------- %-------------------------------------------
@ -32,7 +33,7 @@
\frac{x_{n/2} \;\; + x_{(n+1)/2}}{2} & \text{n gerade} \frac{x_{n/2} \;\; + x_{(n+1)/2}}{2} & \text{n gerade}
\end{cases} \end{cases}
\] \]
Wobei der Index fuer die n'te Zahl in einer Angabe in Stile von \{A,B,C,...\} steht. Wobei der Index f\"ur die n'te Zahl in einer Angabe in Stile von \{A,B,C,...\} steht.
\subsection{empirische Varianz} \subsection{empirische Varianz}
\[x_{var}=\frac{1}{n-1}\sum_{i=1}^n (x_i-x_{median})\] \[x_{var}=\frac{1}{n-1}\sum_{i=1}^n (x_i-x_{median})\]
\subsection{Gleichgewichtsverteilung} \subsection{Gleichgewichtsverteilung}
@ -60,11 +61,11 @@ Wobei der Index fuer die n'te Zahl in einer Angabe in Stile von \{A,B,C,...\} st
\end{pmatrix}\right ] \end{pmatrix}\right ]
^{-1} ^{-1}
\] \]
Wobei P die Uebergangsmatrix ist. Die Alternative ist die Matrix solang zu potentieren bis sie konvergiert. Wobei P die \"Ubergangsmatrix ist. Die Alternative ist die Matrix solang zu potentieren bis sie konvergiert.
\section{Regressionsgerade} \section{Regressionsgerade}
\subsection{Gauss'sche Normalengleichung} \subsection{Gauss'sche Normalengleichung}
Die Regressionsgerade wird mit der Gauss'schen Normalengleichung geloest. Die Regressionsgerade wird mit der Gauss'schen Normalengleichung gel\"ost.
\begin{align} \begin{align}
\begin{pmatrix} \begin{pmatrix}
\sum x_i^2 & \sum x_i \\ \sum x_i^2 & \sum x_i \\
@ -86,12 +87,12 @@ Die Regressionsgerade wird mit der Gauss'schen Normalengleichung geloest.
\end{align} \end{align}
\subsection{Maximum-Likelyhood Methode} \subsection{Maximum-Likelyhood Methode}
\textbf{Problembeschreibung}: Man moechte fuer einen unbekannten Parameter $\lambda$ \textbf{Problembeschreibung}: Man m\"ochte f\"ur einen unbekannten Parameter $\lambda$
einer Verteilung, die mindestens einen Paramter besitzt, einen Schaetzwert bestimmen einer Verteilung, die mindestens einen Paramter besitzt, einen Sch\"atzwert bestimmen
mithilfe einer konkreten Stichprobe $(x_1, \ldots, x_n)$. mithilfe einer konkreten Stichprobe $(x_1, \ldots, x_n)$.
\begin{enumerate} \begin{enumerate}
\item Likelihood-Funktion $L(\lambda)$ bilden fuer gegebene Verteilung \item Likelihood-Funktion $L(\lambda)$ bilden f\"ur gegebene Verteilung
\begin{align} \begin{align}
L(\lambda) = L(x_1, \ldots, x_n; \lambda) = = \prod_{i=1}^n L(\lambda) = L(x_1, \ldots, x_n; \lambda) = = \prod_{i=1}^n
\underbrace{f}_{\text{Dichtefunktion}}(x_i, \lambda)\\ \underbrace{f}_{\text{Dichtefunktion}}(x_i, \lambda)\\
@ -101,17 +102,17 @@ mithilfe einer konkreten Stichprobe $(x_1, \ldots, x_n)$.
\prod_{i=1}^n \lambda e^{-\lambda x_i} = \lambda^n * e^{-\lambda * \sum_{i=1}^{n}x_i} \prod_{i=1}^n \lambda e^{-\lambda x_i} = \lambda^n * e^{-\lambda * \sum_{i=1}^{n}x_i}
\end{align} \end{align}
\item Funktion $L(\lambda)$ mit $\ln$ multiplizieren\\ \item Funktion $L(\lambda)$ mit $\ln$ multiplizieren\\
Rechenregeln fuer $\ln$: Rechenregeln f\"ur $\ln$:
\begin{itemize} \begin{itemize}
\item $\ln a^b = b * \ln a$ \item $\ln a^b = b * \ln a$
\item $\ln (a*b) = \ln a + \ln b$ \item $\ln (a*b) = \ln a + \ln b$
\end{itemize} \end{itemize}
\item Ableiten nach $\lambda$: $\frac{\partial \ln * L(\lambda)}{\partial \lambda}$ \item Ableiten nach $\lambda$: $\frac{\partial \ln * L(\lambda)}{\partial \lambda}$
\item Funktion gleich $0$ setzen und nach $\lambda$ aufloesen. \item Funktion gleich $0$ setzen und nach $\lambda$ aufl\"osen.
\end{enumerate} \end{enumerate}
\subsection{Konfidenzintervalle} \subsection{Konfidenzintervalle}
Standartwerte fuer Konfidenz: Standartwerte f\"ur Konfidenz:
\begin{align*} \begin{align*}
90\%:z = 1.65\\ 90\%:z = 1.65\\
95\%:z = 1.96\\ 95\%:z = 1.96\\
@ -138,10 +139,10 @@ o-Algebra Menge = $\{\emptyset ,\{1,2\},\{3\},
\{1,2,3,4\},\{1,2,4\}\}$ \{1,2,3,4\},\{1,2,4\}\}$
\section{Wahrscheinlichkeiten} \section{Wahrscheinlichkeiten}
\subsection{Wuerfeln} \subsection{W\"urfeln}
\subsubsection{keine 6} \subsubsection{keine 6}
\[ \[
p_0 = \left( \frac{5}{6} \right)^n , n = \text{Anzahl der Wuerfe} p_0 = \left( \frac{5}{6} \right)^n , n = \text{Anzahl der W\"urfe}
\] \]
\subsubsection{mindestens 'x' 6er (Gegenereignis)} \subsubsection{mindestens 'x' 6er (Gegenereignis)}
\[ \[
@ -153,16 +154,16 @@ o-Algebra Menge = $\{\emptyset ,\{1,2\},\{3\},
\[ \[
p_x = 1 - \sum_{i=0}^{x-1} p_i p_x = 1 - \sum_{i=0}^{x-1} p_i
\] \]
\subsubsection{6er-Pasch bei 2 Wuerfeln} \subsubsection{6er-Pasch bei 2 W\"urfeln}
$Ereignisraum = 6^2 , \text{Anzahl guenstiger Ereignisse = 1 , naehmlich (6,6)}$\\ $Ereignisraum = 6^2 , \text{Anzahl g\"unstiger Ereignisse = 1 , n\"ahmlich (6,6)}$\\
dann wieder ueber Gegenereignis: \\ dann wieder \"uber Gegenereignis: \\
\[ p=1-\left(\frac{35}{36}\right)^n \] \[ p=1-\left(\frac{35}{36}\right)^n \]
\subsubsection{genau eine 6 bei n-Wuerfeln/Wuerfen} \subsubsection{genau eine 6 bei n-W\"urfeln/W\"urfen}
\[ p= \frac{n*5^{(n-1)}}{6^n}\]\\ \[ p= \frac{n*5^{(n-1)}}{6^n}\]\\
- $6^n $ ist wie immer die Anzahl der Gesamtmoeglichkeiten \\ - $6^n $ ist wie immer die Anzahl der Gesamtm\"oglichkeiten \\
- es gibt n-Moglichkeiten an der die 6 sein kann \\ - es gibt n-Moglichkeiten an der die 6 sein kann \\
- es bleiben bei den verbleibenden n-1 Wuerfen 5 Moeglichkeiten - es bleiben bei den verbleibenden n-1 W\"urfen 5 M\"oglichkeiten
\subsubsection{genau x-6er bei n-Wuerfeln/Wuerfen} \subsubsection{genau x-6er bei n-W\"urfeln/W\"urfen}
\[ p= \frac{\begin{pmatrix} \[ p= \frac{\begin{pmatrix}
x\\n x\\n
\end{pmatrix}5^{(n-x)}}{6^n}\]\\ \end{pmatrix}5^{(n-x)}}{6^n}\]\\
@ -170,7 +171,7 @@ dann wieder ueber Gegenereignis: \\
x\\n x\\n
\end{pmatrix}= \frac{n!}{k!(n-k)!} \end{pmatrix}= \frac{n!}{k!(n-k)!}
\]\\ \]\\
$\textbf{oder noch allgemeiner, mit Anzahl Moeglichkeiten 'z' (z.B. 6 bei Wuerfel):}$\[ $\textbf{oder noch allgemeiner, mit Anzahl M\"oglichkeiten 'z' (z.B. 6 bei W\"urfel):}$\[
p= \frac{\begin{pmatrix} p= \frac{\begin{pmatrix}
x\\n x\\n
\end{pmatrix}(z-1)^{(n-x)}}{z^n} \end{pmatrix}(z-1)^{(n-x)}}{z^n}
@ -219,25 +220,26 @@ Ereignis $B$: Test identifiziert Person als krank.\\
\vspace*{10pt} \vspace*{10pt}
Loesung mittels \textbf{Formel von Bayes}: L\"osung mittels \textbf{Formel von Bayes}:
\begin{align} \begin{align}
P(B_k/A) = \frac{P(A|B_k) * P(B_k)}{\sum_{j \in J} P(A|B_j) * P(B_j)} P(B_k/A) = \frac{P(A|B_k) * P(B_k)}{\sum_{j \in J} P(A|B_j) * P(B_j)}
\end{align} \end{align}
Dieser Vorgang wird auch \textbf{Rueckwaertsinduktion} genannt. Angenommen man Dieser Vorgang wird auch \textbf{R\"uckw\"artsinduktion} genannt. Angenommen man
kennt die Wahrscheinlichkeit eines Ereignis unter einer gewissen Bedingung (hier Test kennt die Wahrscheinlichkeit eines Ereignis unter einer gewissen Bedingung (hier Test
schlaegt zu $x\%$ an unter Bedingung Person ist krank $P(B|A_1)$ oder Person ist gesund schl\"agt zu $x\%$ an unter Bedingung Person ist krank $P(B|A_1)$ oder Person ist gesund
$P(B|A_2)$), dann kann man die umgekehrte bedingte Wahrscheinlichkeit $P(B|A_2)$), dann kann man die umgekehrte bedingte Wahrscheinlichkeit
mit dieser Formel berechnen. Hier: Wie wahrscheinlich ist es, dass Person krank ist, unter mit dieser Formel berechnen. Hier: Wie wahrscheinlich ist es, dass Person krank ist, unter
Bedingung, dass Test das gemeldet hat $P(A_1|B)$. Bedingung, dass Test das gemeldet hat $P(A_1|B)$.
\subsubsection{min. eine 6 unter Bedingung verschiedene Augenzahlen} \subsubsection{min. eine 6 unter Bedingung verschiedene Augenzahlen}
\[ \[
P(min. eine 6|verschiedene Augenzahlen) = \frac{\text{Moeglichkeiten verschiedene Augenzahlen UND min. eine 6}}{\text{Moeglichkeiten verschiedene Augenzahlen}} P(min. eine 6|verschiedene Augenzahlen) = \frac{\text{M\"oglichkeiten verschiedene Augenzahlen
UND min. eine 6}}{\text{M\"oglichkeiten verschiedene Augenzahlen}}
\]\\ \]\\
\[ \[
p=\frac{n*(6-1)!-(6-n)!}{6!-n!} p=\frac{n*(6-1)!-(6-n)!}{6!-n!}
\] \]
bei 3 Wuerfeln also z.B.:\[ bei 3 W\"urfeln also z.B.:\[
p=\frac{3*5!-3!}{6!-3!} = \frac{3*5*4}{6*5*4} = 0,5 p=\frac{3*5!-3!}{6!-3!} = \frac{3*5*4}{6*5*4} = 0,5
\] \]
@ -247,7 +249,7 @@ bei 3 Wuerfeln also z.B.:\[
und logischerweise: und logischerweise:
\[ \forall w\in\Omega . f(w)>=0 \text{ (keine negativen Wahrscheinlichkeiten)} \] \[ \forall w\in\Omega . f(w)>=0 \text{ (keine negativen Wahrscheinlichkeiten)} \]
\subsection{Absoluten Momente diskreter Verteilungen} \subsection{Absoluten Momente diskreter Verteilungen}
Ist fuer $k \in \{1,2,3,\ldots\}$ die Summe $\sum_{x \in X} |x|^kf(x) < \infty$, Ist f\"ur $k \in \{1,2,3,\ldots\}$ die Summe $\sum_{x \in X} |x|^kf(x) < \infty$,
so heisst so heisst
\begin{align} \begin{align}
m_k = m_k(P) = \sum_{x \in X} x^kf(x) m_k = m_k(P) = \sum_{x \in X} x^kf(x)
@ -264,7 +266,7 @@ das \textbf{k-te absolute Moment} der Verteilung P.
M(t)=\sum_{n\in\Omega}^{\infty}(e^t)^n * f(n) M(t)=\sum_{n\in\Omega}^{\infty}(e^t)^n * f(n)
\] \]
- f(n) ist die gegebene Wahrscheinlichkeitsfunktion\\ - f(n) ist die gegebene Wahrscheinlichkeitsfunktion\\
- 'n' koennte z.B. definiert sein als $n=\{1,2,3,...\}$ - 'n' k\"onnte z.B. definiert sein als $n=\{1,2,3,...\}$
\subsection{Erzeugende Funktion} \subsection{Erzeugende Funktion}
\subsubsection{Wahrscheinlichkeitsfunktion berechnen} \subsubsection{Wahrscheinlichkeitsfunktion berechnen}
\textbf{Gegegeben:} Eine erzeugende Funktion $\hat{f}(z)$ gegeben. \textbf{Gegegeben:} Eine erzeugende Funktion $\hat{f}(z)$ gegeben.
@ -273,13 +275,13 @@ das \textbf{k-te absolute Moment} der Verteilung P.
\end{align} \end{align}
\textbf{Gesucht:} Die Funktion $f(k)$ \textbf{Gesucht:} Die Funktion $f(k)$
Moeglichkeit 1: Taylorentwicklung M\"oglichkeit 1: Taylorentwicklung
\begin{align} \begin{align}
\hat{f}(z) = \sum_{k=0}^{\infty} \frac{1}{k!}\hat{f}^{(k)}(0)z^k\\ \hat{f}(z) = \sum_{k=0}^{\infty} \frac{1}{k!}\hat{f}^{(k)}(0)z^k\\
\Rightarrow f(k) = \frac{1}{k!} \hat{f}^{k}(0) \Rightarrow f(k) = \frac{1}{k!} \hat{f}^{k}(0)
\end{align} \end{align}
Moeglichkeit 2: Problem auf bekannte diskrete Verteilung zurueckfuehren (z.B. geometrische M\"oglichkeit 2: Problem auf bekannte diskrete Verteilung zur\"uckf\"uhren (z.B. geometrische
Reihe) Reihe)
\subsubsection{Mittelwert $m_1$} \subsubsection{Mittelwert $m_1$}
\begin{align} \begin{align}
@ -288,7 +290,7 @@ Reihe)
\end{align} \end{align}
\subsubsection{Varianz $\hat{m}_2$} \subsubsection{Varianz $\hat{m}_2$}
\begin{enumerate} \begin{enumerate}
\item Zuerst \textbf{zweites Moment} berechnen: \item Z\"urst \textbf{zweites Moment} berechnen:
\begin{align} \begin{align}
m_2 = \hat{f}''(1) + \hat{f}'(1)\\ m_2 = \hat{f}''(1) + \hat{f}'(1)\\
\end{align} \end{align}
@ -315,8 +317,8 @@ Reihe)
\text{mit k = 0,1,2,...,n} \] \text{mit k = 0,1,2,...,n} \]
- wobei diese Funktion die \textbf{kommulierte} Wahrscheinlichkeit angibt, also z.B. - wobei diese Funktion die \textbf{kommulierte} Wahrscheinlichkeit angibt, also z.B.
wobei k = 2 die Wahrscheinlichkeit "1 oder 2" wobei k = 2 die Wahrscheinlichkeit "1 oder 2"
\\ - p ist die Wahrscheinlichkeit fuer ein positives Ereigbnis \\ - p ist die Wahrscheinlichkeit f\"ur ein positives Ereigbnis
\\ - n ist Anzaehl wie oft wir ziehen \\ - n ist Anz\"ahl wie oft wir ziehen
\subsubsection{Beispiel: 500 Druckfehler auf 500 Seiten} \subsubsection{Beispiel: 500 Druckfehler auf 500 Seiten}
Wie hoch ist die Wahrscheinlichkeit, dass auf einer Seite mindestens 3 Druckfehler Wie hoch ist die Wahrscheinlichkeit, dass auf einer Seite mindestens 3 Druckfehler
@ -324,7 +326,7 @@ sind?
\[ \[
1- \sum_{k=0}^{2} \mathcal{B}(k,p,n) \enspace mit \enspace \] \\ 1- \sum_{k=0}^{2} \mathcal{B}(k,p,n) \enspace mit \enspace \] \\
k=0,1,2 (Gegenereignisse)\\ n = 500 k=0,1,2 (Gegenereignisse)\\ n = 500
(wir ziehen Fehler "ohne zuruecklegen") \\ p=1/500 (die Wahrscheinlichkeit dass (wir ziehen Fehler "ohne zur\"ucklegen") \\ p=1/500 (die Wahrscheinlichkeit dass
ein Fehler auf einer bestimmten Seite ist)\\ ein Fehler auf einer bestimmten Seite ist)\\
\begin{equation*} \begin{equation*}
\begin{split} \begin{split}
@ -337,7 +339,7 @@ ein Fehler auf einer bestimmten Seite ist)\\
\end{equation*} \end{equation*}
\subsection{Possion-Verteilung} \subsection{Possion-Verteilung}
\subsubsection{Allgemein} \subsubsection{Allgemein}
Ereignisse muessen mit konstanter Rate, unabhaengig voneinander und in einem festen Ereignisse m\"ussen mit konstanter Rate, unabh\"angig voneinander und in einem festen
Bereich (Modell) stattfinden! Bereich (Modell) stattfinden!
\[ \[
P_{\lambda}(n) = \frac{\lambda ^n}{n!} e ^{- \lambda} P_{\lambda}(n) = \frac{\lambda ^n}{n!} e ^{- \lambda}
@ -370,7 +372,7 @@ Zufallsexperimente, bei denen man die Ergebnisse als Anzahlen von schwarzen Kuge
$f(k) = H(N, K, n) = \frac{\binom{K}{k}*\binom{N-K}{n-k}}{\binom{N}{n}}$ $f(k) = H(N, K, n) = \frac{\binom{K}{k}*\binom{N-K}{n-k}}{\binom{N}{n}}$
\subsection{Geometrische Verteilung} \subsection{Geometrische Verteilung}
Die geometrische Verteilung beschreibt die Wartezeit für das erstmalige Eintreten eines Die geometrische Verteilung beschreibt die Wartezeit für das erstmalige Eintreten eines
Ereignisses unter der Annahme der Gedaechtnislosigkeit. \\ Ereignisses unter der Annahme der Ged\"achtnislosigkeit. \\
$G(p) = f(n) = p*q^{n-1} \quad \quad m_1 = \frac{1}{p}$ $G(p) = f(n) = p*q^{n-1} \quad \quad m_1 = \frac{1}{p}$
\subsection{Uniform-Verteilung $\mathcal{U}(a,b)$} \subsection{Uniform-Verteilung $\mathcal{U}(a,b)$}
\textbf{Dichtefunktion}: \textbf{Dichtefunktion}:
@ -391,7 +393,7 @@ $G(p) = f(n) = p*q^{n-1} \quad \quad m_1 = \frac{1}{p}$
\section{Zufallsvarriablen} \section{Zufallsvarriablen}
\subsection{Dichten von Verteilungen von Zufallsvariablen} \subsection{Dichten von Verteilungen von Zufallsvariablen}
siehe Loesungssammlung Aufgabe 98 ff. siehe L\"osungssammlung Aufgabe 98 ff.
\subsection{Erwartungswert $\varepsilon$ diskreter Zufallsvariablen} \subsection{Erwartungswert $\varepsilon$ diskreter Zufallsvariablen}
Falls der Erwartungswert einer diskreten Zufallsvariablen $X$ auf Falls der Erwartungswert einer diskreten Zufallsvariablen $X$ auf
@ -418,7 +420,7 @@ Marginaldichte:
& = ce^{-2x_1}\, \frac{1}{3} (1-e^{-3x_2} ) & = ce^{-2x_1}\, \frac{1}{3} (1-e^{-3x_2} )
\end{split} \end{split}
\] \]
Gegebenenfalls koennen wir das gleiche auch mit $dx_2$ tun wenn das einfach zur integrieren ist oder nach beiden Marginaldichten gefragt ist. Gegebenenfalls konnen wir das gleiche auch mit $dx_2$ tun wenn das einfach zur integrieren ist oder nach beiden Marginaldichten gefragt ist.
Damit $f(x_1,x_2)$ und $f_2(x_2)$ Dichten sind muss gelten: Damit $f(x_1,x_2)$ und $f_2(x_2)$ Dichten sind muss gelten:
\[ \[
\int f_2(x_2) dx_2 = 1 \int f_2(x_2) dx_2 = 1