Inlining mal gut gemacht

This commit is contained in:
Christian Bay 2015-10-01 12:06:44 +02:00
parent c03ca6a133
commit 13ca616b16

View File

@ -1,259 +1,259 @@
\documentclass{article} \documentclass{article}
\usepackage{amsmath} \usepackage{amsmath}
% -------- Umlaute korrekt ---------------- % -------- Umlaute korrekt ----------------
\usepackage[utf8]{inputenc} \usepackage[utf8]{inputenc}
\usepackage[ngerman, english]{babel} \usepackage[ngerman, english]{babel}
%------------------------------------------- %-------------------------------------------
% TikZ Library % TikZ Library
\usepackage{tikz} \usepackage{tikz}
\usetikzlibrary{arrows,backgrounds,positioning,fit,calc,petri} \usetikzlibrary{arrows,backgrounds,positioning,fit,calc,petri}
\usetikzlibrary{shapes, shapes.misc} \usetikzlibrary{shapes, shapes.misc}
\usetikzlibrary{decorations.markings,decorations.pathmorphing} \usetikzlibrary{decorations.markings,decorations.pathmorphing}
% ----------------------------------------- % -----------------------------------------
% Einrueckung unterbinden nach Absatz % Einrueckung unterbinden nach Absatz
\setlength{\parindent}{0pt} \setlength{\parindent}{0pt}
\DeclareMathSizes{10}{10}{10}{10} \DeclareMathSizes{10}{10}{10}{10}
\title{Mathe C4 Merz - Cheatsheet} \title{Mathe C4 Merz - Cheatsheet}
\author{Yannik Schmidt (Sheppy)\\September 2015} \author{Yannik Schmidt (Sheppy)\\September 2015}
\date{Diesen Zusammenfassung kann Fehler enthalten!} \date{Diesen Zusammenfassung kann Fehler enthalten!}
\begin{document} \begin{document}
\maketitle \maketitle
\section{Statistik} \section{Statistik}
\subsection{empirisches arithmetisches Mittel} \subsection{empirisches arithmetisches Mittel}
\[x_{arith}=\frac{1}{n}\sum_{i=1}^n x_i\] \[x_{arith}=\frac{1}{n}\sum_{i=1}^n x_i\]
\subsection{empirischer Median (Zentralwert)} \subsection{empirischer Median (Zentralwert)}
\[ \[
x_{median}= x_{median}=
\begin{cases} \begin{cases}
\frac{x_{n+1}}{2} & \text{n ungerade} \\ \frac{x_{n+1}}{2} & \text{n ungerade} \\
\frac{x_{n/2} \;\; + x_{(n+1)/2}}{2} & \text{n gerade} \frac{x_{n/2} \;\; + x_{(n+1)/2}}{2} & \text{n gerade}
\end{cases} \end{cases}
\] \]
Wobei der Index fuer die n'te Zahl in einer Angabe in Stile von \{A,B,C,...\} steht. Wobei der Index fuer die n'te Zahl in einer Angabe in Stile von \{A,B,C,...\} steht.
\subsection{empirische Varianz} \subsection{empirische Varianz}
\[x_{var}=\frac{1}{n-1}\sum_{i=1}^n (x_i-x_{median})\] \[x_{var}=\frac{1}{n-1}\sum_{i=1}^n (x_i-x_{median})\]
\subsection{Gleichgewichtsverteilung} \subsection{Gleichgewichtsverteilung}
\[ \[
G_{var} = G_{var} =
\begin{pmatrix} \begin{pmatrix}
1 \\ 1 \\
. \\ . \\
. \\ . \\
1 1
\end{pmatrix} \end{pmatrix}
*\left [ *\left [
\begin{pmatrix} \begin{pmatrix}
1&.&.& 0 \\ 1&.&.& 0 \\
. & 1 &.& . \\ . & 1 &.& . \\
. & . &1& . \\ . & . &1& . \\
0&.&.&1 0&.&.&1
\end{pmatrix}-P+ \end{pmatrix}-P+
\begin{pmatrix} \begin{pmatrix}
1&.&.&1 \\ 1&.&.&1 \\
.&.&.&. \\ .&.&.&. \\
.&.&.&. \\ .&.&.&. \\
1&.&.&1 1&.&.&1
\end{pmatrix}\right ] \end{pmatrix}\right ]
^{-1} ^{-1}
\] \]
Wobei P die Uebergangsmatrix ist. Die Alternative ist die Matrix solang zu potentieren bis sie konvergiert. Wobei P die Uebergangsmatrix ist. Die Alternative ist die Matrix solang zu potentieren bis sie konvergiert.
\section{Mengen} \section{Mengen}
\subsection{o-Algebra} \subsection{o-Algebra}
- leere Menge enthalten\\ - leere Menge enthalten\\
- alle Kombinationen der Elemente enthalten, die nicht bereits gemeinsamme Elemente haben also z.B. \textbf{NICHT} \{x,y\} und \{y,z\} zu \{x,y,z\} machen\\ - alle Kombinationen der Elemente enthalten, die nicht bereits gemeinsamme Elemente haben also z.B. \textbf{NICHT} \{x,y\} und \{y,z\} zu \{x,y,z\} machen\\
- alle Komplemente enthalten\\ \\ - alle Komplemente enthalten\\ \\
\textbf{Beispiel:}\\ \textbf{Beispiel:}\\
Grundmenge = $\{1,2,3,4\}$\\ Grundmenge = $\{1,2,3,4\}$\\
NICHT o-Algebra Menge = $\{\{1,2\},\{3\}\}$\\ NICHT o-Algebra Menge = $\{\{1,2\},\{3\}\}$\\
o-Algebra Menge = $\{\emptyset ,\{1,2\},\{3\}, o-Algebra Menge = $\{\emptyset ,\{1,2\},\{3\},
\underbrace{\{1,2,3\}}_{\substack{\{1,2\}\{3\}}}, \underbrace{\{1,2,3\}}_{\substack{\{1,2\}\{3\}}},
\underbrace{\{3,4\}}_{\substack{\neg \{1,2\}}}, \underbrace{\{3,4\}}_{\substack{\neg \{1,2\}}},
\underbrace{\{4\}}_{\substack{\neg \{1,2,3\}}}, \underbrace{\{4\}}_{\substack{\neg \{1,2,3\}}},
\{1,2,3,4\},\{1,2,4\}\}$ \{1,2,3,4\},\{1,2,4\}\}$
\section{Wahrscheinlichkeiten} \section{Wahrscheinlichkeiten}
\subsection{Wuerfeln} \subsection{Wuerfeln}
\subsubsection{keine 6} \subsubsection{keine 6}
\[ \[
p_0 = \left( \frac{5}{6} \right)^n , n = \text{Anzahl der Wuerfe} p_0 = \left( \frac{5}{6} \right)^n , n = \text{Anzahl der Wuerfe}
\] \]
\subsubsection{mindestens 'x' 6er (Gegenereignis)} \subsubsection{mindestens 'x' 6er (Gegenereignis)}
\[ \[
p_1 = 1 - \left( \frac{5}{6} \right)^n = 1 - p_0 p_1 = 1 - \left( \frac{5}{6} \right)^n = 1 - p_0
\] \]
\[ \[
p_2 = 1-\left(1 - \left( \frac{5}{6} \right)^n\right)-\left( \frac{5}{6} \right)^n = 1-p_1 -p_0 p_2 = 1-\left(1 - \left( \frac{5}{6} \right)^n\right)-\left( \frac{5}{6} \right)^n = 1-p_1 -p_0
\] \]
\[ \[
p_x = 1 - \sum_{i=0}^{x-1} p_i p_x = 1 - \sum_{i=0}^{x-1} p_i
\] \]
\subsubsection{6er-Pasch bei 2 Wuerfeln} \subsubsection{6er-Pasch bei 2 Wuerfeln}
$Ereignisraum = 6^2 , \text{Anzahl guenstiger Ereignisse = 1 , naehmlich (6,6)}$\\ $Ereignisraum = 6^2 , \text{Anzahl guenstiger Ereignisse = 1 , naehmlich (6,6)}$\\
dann wieder ueber Gegenereignis: \\ dann wieder ueber Gegenereignis: \\
\[ p=1-\left(\frac{35}{36}\right)^n \] \[ p=1-\left(\frac{35}{36}\right)^n \]
\subsubsection{genau eine 6 bei n-Wuerfeln/Wuerfen} \subsubsection{genau eine 6 bei n-Wuerfeln/Wuerfen}
\[ p= \frac{n*5^{(n-1)}}{6^n}\]\\ \[ p= \frac{n*5^{(n-1)}}{6^n}\]\\
- $6^n $ ist wie immer die Anzahl der Gesamtmoeglichkeiten \\ - $6^n $ ist wie immer die Anzahl der Gesamtmoeglichkeiten \\
- es gibt n-Moglichkeiten an der die 6 sein kann \\ - es gibt n-Moglichkeiten an der die 6 sein kann \\
- es bleiben bei den verbleibenden n-1 Wuerfen 5 Moeglichkeiten - es bleiben bei den verbleibenden n-1 Wuerfen 5 Moeglichkeiten
\subsubsection{genau x-6er bei n-Wuerfeln/Wuerfen} \subsubsection{genau x-6er bei n-Wuerfeln/Wuerfen}
\[ p= \frac{\begin{pmatrix} \[ p= \frac{\begin{pmatrix}
x\\n
\end{pmatrix}5^{(n-x)}}{6^n}\]\\
\[\begin{pmatrix}
x\\n x\\n
\end{pmatrix}5^{(n-x)}}{6^n}\]\\ \end{pmatrix}= \frac{n!}{k!(n-k)!}
\[\begin{pmatrix} \]\\
x\\n $\textbf{oder noch allgemeiner, mit Anzahl Moeglichkeiten 'z' (z.B. 6 bei Wuerfel):}$\[
\end{pmatrix}= \frac{n!}{k!(n-k)!} p= \frac{\begin{pmatrix}
\]\\ x\\n
$\textbf{oder noch allgemeiner, mit Anzahl Moeglichkeiten 'z' (z.B. 6 bei Wuerfel):}$\[ \end{pmatrix}(z-1)^{(n-x)}}{z^n}
p= \frac{\begin{pmatrix} \]
x\\n \subsubsection{Seiten mit verschiedenen Wahrscheinlichkeiten}
\end{pmatrix}(z-1)^{(n-x)}}{z^n} z.B. 6 Seiten mit normaler Wahrscheinlichkeit $(w_1)$, 8 Seiten mit 1/4 Wahrscheinlichkeit
\] $(w_2)$, wir exploiten die Tatsache, dass: \\ \[ \sum
\subsubsection{Seiten mit verschiedenen Wahrscheinlichkeiten} (Teil-)Wahrscheinlichkeiten = 1 \]\\
z.B. 6 Seiten mit normaler Wahrscheinlichkeit $(w_1)$, 8 Seiten mit 1/4 Wahrscheinlichkeit also:\\
$(w_2)$, wir exploiten die Tatsache, dass: \\ \[ \sum \begin{equation}
(Teil-)Wahrscheinlichkeiten = 1 \]\\ 6w_1 + 8w_2 = 1 \end{equation}
also:\\ \begin{equation}
\begin{equation} \frac{1}{4}w_1 = w_2
6w_1 + 8w_2 = 1 \end{equation} \end{equation}\\
\begin{equation} Zwei Gleichungen, zwei Unbekannte, easy mode.
\frac{1}{4}w_1 = w_2
\end{equation}\\ \section{Bedingte Wahrscheinlichkeiten}
Zwei Gleichungen, zwei Unbekannte, easy mode. \subsection{Beispiele}
\subsubsection{Krankheitstest}
\section{Bedingte Wahrscheinlichkeiten} 0,2\% Krank, 95\% der Kranken werden erkannt, 98\% der Gesunden werden richtig erkannt\\ \\
\subsection{Beispiele} \textbf{Wie viele als Krank erkannte wirklich krank?}\\
\subsubsection{Krankheitstest} \[
0,2\% Krank, 95\% der Kranken werden erkannt, 98\% der Gesunden werden richtig erkannt\\ \\ P(K | K_{ident} ) = \frac{P(K_{ident}|K)*P(K)}
\textbf{Wie viele als Krank erkannte wirklich krank?}\\ {P(K_{ident}|K)*P(K)+P(K_{ident}|K)*P(\neg K)} =
\[ \frac{0,95*0,002}{0,95*0,002+0,002*0,998} = 8,7\%
P(K | K_{ident} ) = \frac{P(K_{ident}|K)*P(K)} \]
{P(K_{ident}|K)*P(K)+P(K_{ident}|K)*P(\neg K)} = \subsubsection{min. eine 6 unter Bedingung verschiedene Augenzahlen}
\frac{0,95*0,002}{0,95*0,002+0,002*0,998} = 8,7\% \[
\] P(min. eine 6|verschiedene Augenzahlen) = \frac{\text{Moeglichkeiten verschiedene Augenzahlen UND min. eine 6}}{\text{Moeglichkeiten verschiedene Augenzahlen}}
\subsubsection{min. eine 6 unter Bedingung verschiedene Augenzahlen} \]\\
\[ \[
P(min. eine 6|verschiedene Augenzahlen) = \frac{\text{Moeglichkeiten verschiedene Augenzahlen UND min. eine 6}}{\text{Moeglichkeiten verschiedene Augenzahlen}} p=\frac{n*(6-1)!-(6-n)!}{6!-n!}
\]\\ \]
\[ bei 3 Wuerfeln also z.B.:\[
p=\frac{n*(6-1)!-(6-n)!}{6!-n!} p=\frac{3*5!-3!}{6!-3!} = \frac{3*5*4}{6*5*4} = 0,5
\] \]
bei 3 Wuerfeln also z.B.:\[
p=\frac{3*5!-3!}{6!-3!} = \frac{3*5*4}{6*5*4} = 0,5 \section{Wahrscheinlichkeitsfunktionen}
\] \subsection{Eigenschaften von Wahrscheinlichkeitsfunktionen}
\[ \sum_{w \in \Omega} f(w) = 1 \text{ (die Summe aller Wahrscheinlichkeiten ist 1)}\]
\section{Wahrscheinlichkeitsfunktionen} und logischerweise:
\subsection{Eigenschaften von Wahrscheinlichkeitsfunktionen} \[ \forall w\in\Omega . f(w)>=0 \text{ (keine negativen Wahrscheinlichkeiten)} \]
\[ \sum_{w \in \Omega} f(w) = 1 \text{ (die Summe aller Wahrscheinlichkeiten ist 1)}\] \subsection{Momenterzeugende Funktion}
und logischerweise: \[
\[ \forall w\in\Omega . f(w)>=0 \text{ (keine negativen Wahrscheinlichkeiten)} \] M(t)=\sum_{n\in\Omega}^{\infty}(e^t)^n * f(n)
\subsection{Momenterzeugende Funktion} \]
\[ - f(n) ist die gegebene Wahrscheinlichkeitsfunktion\\
M(t)=\sum_{n\in\Omega}^{\infty}(e^t)^n * f(n) - 'n' koennte z.B. definiert sein als $n=\{1,2,3,...\}$
\] \subsection{Erzeugende Funktion}
- f(n) ist die gegebene Wahrscheinlichkeitsfunktion\\ \subsubsection{Wahrscheinlichkeitsfunktion berechnen}
- 'n' koennte z.B. definiert sein als $n=\{1,2,3,...\}$ \subsubsection{Mitterlwert}
\subsection{Erzeugende Funktion} \subsubsection{Varianz}
\subsubsection{Wahrscheinlichkeitsfunktion berechnen} TODO
\subsubsection{Mitterlwert} \subsection{Mittelwert, Varrianz}
\subsubsection{Varianz} \begin{itemize}
TODO \item Mittelwert: $m_1 = \sum_{n=0}^\infty n*f(n)$
\subsection{Mittelwert, Varrianz} \item Varianz: $\widehat{m}_2 = m_2 - m_1^2$
\begin{itemize} \end{itemize}
\item Mittelwert: $m_1 = \sum_{n=0}^\infty n*f(n)$ \section{Verteilungen}
\item Varianz: $\widehat{m}_2 = m_2 - m_1^2$ \subsection{Allgemein}
\end{itemize} \subsubsection{Eigenschaften}
\section{Verteilungen} \begin{itemize}
\subsection{Allgemein} \item stetig
\subsubsection{Eigenschaften} \item monoton steigend
\begin{itemize} \item $\lim_{t \to \infty} G(t) = 1, \quad \lim_{t \to -\infty} G(t) = 0$
\item stetig \item Dichte $g(t) = G'(t)$
\item monoton steigend \item $m_1 = \int_{-\infty}^{\infty}t*g(t)dt$
\item $\lim_{t \to \infty} G(t) = 1, \quad \lim_{t \to -\infty} G(t) = 0$ \end{itemize}
\item Dichte $g(t) = G'(t)$ \subsection{Binominalverteilung}
\item $m_1 = \int_{-\infty}^{\infty}t*g(t)dt$ \subsubsection{Allgemein}
\end{itemize} \[
\subsection{Binominalverteilung} \mathcal{B}(k | p,n) \enspace \textbf{ oder auch } \enspace B(k;p,n) =
\subsubsection{Allgemein} \begin{pmatrix} n \\ k \end{pmatrix} p^k(1-p)^{n-k} \enspace \newline
\[ \text{mit k = 0,1,2,...,n} \]
\mathcal{B}(k | p,n) \enspace \textbf{ oder auch } \enspace B(k;p,n) = - wobei diese Funktion die \textbf{kommulierte} Wahrscheinlichkeit angibt, also z.B.
\begin{pmatrix} n \\ k \end{pmatrix} p^k(1-p)^{n-k} \enspace \newline wobei k = 2 die Wahrscheinlichkeit "1 oder 2"
\text{mit k = 0,1,2,...,n} \] \\ - p ist die Wahrscheinlichkeit fuer ein positives Ereigbnis
- wobei diese Funktion die \textbf{kommulierte} Wahrscheinlichkeit angibt, also z.B. \\ - n ist Anzaehl wie oft wir ziehen
wobei k = 2 die Wahrscheinlichkeit "1 oder 2"
\\ - p ist die Wahrscheinlichkeit fuer ein positives Ereigbnis \subsubsection{Beispiel: 500 Druckfehler auf 500 Seiten}
\\ - n ist Anzaehl wie oft wir ziehen Wie hoch ist die Wahrscheinlichkeit, dass auf einer Seite mindestens 3 Druckfehler
sind?
\subsubsection{Beispiel: 500 Druckfehler auf 500 Seiten} \[
Wie hoch ist die Wahrscheinlichkeit, dass auf einer Seite mindestens 3 Druckfehler 1- \sum_{k=0}^{2} \mathcal{B}(k|p,n) \enspace mit \enspace \] \\
sind? k=0,1,2 (Gegenereignisse)\\ n = 500
\[ (wir ziehen Fehler "ohne zuruecklegen") \\ p=1/500 (die Wahrscheinlichkeit dass
1- \sum_{k=0}^{2} \mathcal{B}(k|p,n) \enspace mit \enspace \] \\ ein Fehler auf einer bestimmten Seite ist)\\
k=0,1,2 (Gegenereignisse)\\ n = 500 \begin{equation*}
(wir ziehen Fehler "ohne zuruecklegen") \\ p=1/500 (die Wahrscheinlichkeit dass \begin{split}
ein Fehler auf einer bestimmten Seite ist)\\ 1- \sum_{k=0}^{2} \mathcal{B}(k|1/500,500)& = 1 - \mathcal{B}(0|1/500,500) - \mathcal{B}(1|1/500,500) - \mathcal{B}(2|
\begin{equation*} 1/500,500) \\
\begin{split} & = 1 - \mathcal{B}(0|1/500,500) - \mathcal{B}(1|1/500,500) - \mathcal{B}(2|
1- \sum_{k=0}^{2} \mathcal{B}(k|1/500,500)& = 1 - \mathcal{B}(0|1/500,500) - \mathcal{B}(1|1/500,500) - \mathcal{B}(2| 1/500,500) \\
1/500,500) \\ & = 1 - \left( \frac{499}{500} \right) ^{500} - 500\frac{1}{500}\left(\frac{499}{500}\right)^{499} - \frac{500*499}{1*2}\left( \frac{1}{500} \right) ^2 \left( \frac{499}{500} \right) ^{498} \\ & = 0,08
& = 1 - \mathcal{B}(0|1/500,500) - \mathcal{B}(1|1/500,500) - \mathcal{B}(2| \end{split}
1/500,500) \\ \end{equation*}
& = 1 - \left( \frac{499}{500} \right) ^{500} - 500\frac{1}{500}\left(\frac{499}{500}\right)^{499} - \frac{500*499}{1*2}\left( \frac{1}{500} \right) ^2 \left( \frac{499}{500} \right) ^{498} \\ & = 0,08 \subsection{Possion-Verteilung}
\end{split} \subsubsection{Allgemein}
\end{equation*} Ereignisse muessen mit konstanter Rate, unabhaengig voneinander und in einem festen
\subsection{Possion-Verteilung} Bereich (Modell) stattfinden!
\subsubsection{Allgemein} \[
Ereignisse muessen mit konstanter Rate, unabhaengig voneinander und in einem festen P_{\lambda}(n) = \frac{\lambda ^n}{n!} e ^{- \lambda}
Bereich (Modell) stattfinden! \]
\[
P_{\lambda}(n) = \frac{\lambda ^n}{n!} e ^{- \lambda}
\]
\subsection{N(0,1)-Verteilung} \subsection{N(0,1)-Verteilung}
$f(x) = \frac{1}{\sqrt{2\pi}}*e^{-0.5x^2}$ $f(x) = \frac{1}{\sqrt{2\pi}}*e^{-0.5x^2}$
\subsection{Normal-Verteilung} \subsection{Normal-Verteilung}
$f(x) = N(\mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}}*e^{-\frac{1}{2\sigma^2}(x- $f(x) = N(\mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}}*e^{-\frac{1}{2\sigma^2}(x-
\mu)^2} \quad \quad m_1 = \mu \quad \quad \widehat{m}_2=\sigma^2$ \mu)^2} \quad \quad m_1 = \mu \quad \quad \widehat{m}_2=\sigma^2$
\subsection{Exponentiallverteilung} \subsection{Exponentiallverteilung}
$f(\lambda) = \lambda*e^{-\lambda t}$ $f(\lambda) = \lambda*e^{-\lambda t}$
\subsection{Laplace-Verteilung} \subsection{Laplace-Verteilung}
Zufallsexperimente, bei denen jedes Ergebnis die gleiche Chance hat. \\ Zufallsexperimente, bei denen jedes Ergebnis die gleiche Chance hat. \\
$f(w) = L(\Omega) = \frac{1}{|\Omega|}$ $f(w) = L(\Omega) = \frac{1}{|\Omega|}$
\subsection{Hypergeometrische Verteilung} \subsection{Hypergeometrische Verteilung}
Zufallsexperimente, bei denen man die Ergebnisse als Anzahlen von schwarzen Kugeln unter n gezogenen interpretieren kann. \\ Zufallsexperimente, bei denen man die Ergebnisse als Anzahlen von schwarzen Kugeln unter n gezogenen interpretieren kann. \\
$f(k) = H(N, K, n) = \frac{\binom{K}{k}*\binom{N-K}{n-k}}{\binom{N}{n}}$ $f(k) = H(N, K, n) = \frac{\binom{K}{k}*\binom{N-K}{n-k}}{\binom{N}{n}}$
\subsection{Geometrische Verteilung} \subsection{Geometrische Verteilung}
Die geometrische Verteilung beschreibt die Wartezeit für das erstmalige Eintreten eines Die geometrische Verteilung beschreibt die Wartezeit für das erstmalige Eintreten eines
Ereignisses unter der Annahme der Gedaechtnislosigkeit. \\ Ereignisses unter der Annahme der Gedaechtnislosigkeit. \\
$G(p) = f(n) = p*q^{n-1} \quad \quad m_1 = \frac{1}{p}$ $G(p) = f(n) = p*q^{n-1} \quad \quad m_1 = \frac{1}{p}$
\section{Zufallsvarriablen} \section{Zufallsvarriablen}
\subsection{Verteilungen von Zufallsvariablen} \subsection{Verteilungen von Zufallsvariablen}
Wir benoetigen mehrdimensionale integration, d.h. wir \textbf{muessen} wissen von Wir benoetigen mehrdimensionale integration, d.h. wir \textbf{muessen} wissen von
wo bis wo wir integrieren wollen \\ \\ wo bis wo wir integrieren wollen \\ \\
\subsubsection{Beispiel, Ereignis gegeben + Verteilungsfunktion gegeben:} \subsubsection{Beispiel, Ereignis gegeben + Verteilungsfunktion gegeben:}
$Ereignis: \: X_2 > 2X_1 \: => \: \underbrace{\int_{-\infty}^{+\infty}}_{X_1} $Ereignis: \: X_2 > 2X_1 \: => \: \underbrace{\int_{-\infty}^{+\infty}}_{X_1}
\underbrace{\int_{2X_1}^{+\infty}}_{X_2}$\\ \\ \\ \underbrace{\int_{2X_1}^{+\infty}}_{X_2}$\\ \\ \\
$Verteilung: \: expotentiell \: => \: f(\lambda) = \lambda e^{-\lambda t}$ \\ $Verteilung: \: expotentiell \: => \: f(\lambda) = \lambda e^{-\lambda t}$ \\
$Ausserdem \: sei: \: \lambda_1 = 1 \:\, und \:\, \lambda_2 =2 $\\ \\ $Ausserdem \: sei: \: \lambda_1 = 1 \:\, und \:\, \lambda_2 =2 $\\ \\
Wir integrieren zunaechst ueber $X_2$ d.h. wir sezten $\lambda = 2$ Wir integrieren zunaechst ueber $X_2$ d.h. wir sezten $\lambda = 2$
\[ \[
\begin{split} \begin{split}
\int_{-\infty}^{+\infty} \int_{2X_1}^{+\infty} 2 e^{-2 X_2} \: dX_2 dX_1 \int_{-\infty}^{+\infty} \int_{2X_1}^{+\infty} 2 e^{-2 X_2} \: dX_2 dX_1
\end{split} \end{split}
\] \]
Fuer $X_1$ setzen wir dann dementsprechend $\lambda e^{-\lambda t}$ mit $\lambda = 1$ ein, dann nur noch das 2te Integral ausrechnen. Fuer $X_1$ setzen wir dann dementsprechend $\lambda e^{-\lambda t}$ mit $\lambda = 1$ ein, dann nur noch das 2te Integral ausrechnen.
% \\ \\ \textbf{Moeglichkeit b) - Nach $x_1$ oder $x_2$ umstellen} \\ (ggf. mit Koordinatentransformation) % \\ \\ \textbf{Moeglichkeit b) - Nach $x_1$ oder $x_2$ umstellen} \\ (ggf. mit Koordinatentransformation)
\subsubsection{Alternatives Beispiel:} \subsubsection{Alternatives Beispiel:}
X,Y stochastisch unabhaengige, mit Parameter 'p' geometrisch verteilte Zufallsvarriablen in Wahrscheinlichkeitsraum $(\varOmega , \mathcal{A},P)$. Welche Verteilung besitzt X,Y stochastisch unabhaengige, mit Parameter 'p' geometrisch verteilte Zufallsvarriablen in Wahrscheinlichkeitsraum $(\varOmega , \mathcal{A},P)$. Welche Verteilung besitzt
Zufallsvarriable $Z = min(X,Y)$, definiert durch $Z( \omega ) = min \{X(\omega),Y(\omega)\}$.\\ Zufallsvarriable $Z = min(X,Y)$, definiert durch $Z( \omega ) = min \{X(\omega),Y(\omega)\}$.\\
\section{Marginaldichte - Beispielrechnung} \section{Marginaldichte - Beispielrechnung}
\[ \[
f(x_z,x_2)= f(x_z,x_2)=
\begin{cases} \begin{cases}
ce^{-(2x_1+3x_2)} & x_1 > 0 \: und \: 0 < x_2 <x_1 \\ ce^{-(2x_1+3x_2)} & x_1 > 0 \: und \: 0 < x_2 <x_1 \\
0 & sonst 0 & sonst
@ -263,9 +263,9 @@ Marginaldichte:
\[ \[
\begin{split} \begin{split}
f_1(x_1) & = \int_{0}^{x_1} f(x_1,x_2) dx_2 \\ f_1(x_1) & = \int_{0}^{x_1} f(x_1,x_2) dx_2 \\
& = \int_{0}^{x_1} ce^{-2x_1}e^{-3x_2} \: dx_2 \\ & = \int_{0}^{x_1} ce^{-2x_1}e^{-3x_2} \: dx_2 \\
& = \underbrace{c*e^{-2x_1}}_{\text{Konstante, da Integration nach} \: x_2} \overbrace{\int_{0}^{x_1} e^{-3x_2} \: dx_2}^{mit \: 0 \: und \: x_1 \: einsetzen \: integrieren} \\ & = \underbrace{c*e^{-2x_1}}_{\text{Konstante, da Integration nach} \: x_2} \overbrace{\int_{0}^{x_1} e^{-3x_2} \: dx_2}^{mit \: 0 \: und \: x_1 \: einsetzen \: integrieren} \\
& = ce^{-2x_1}\, \frac{1}{3} (1-e^{-3x_2} ) & = ce^{-2x_1}\, \frac{1}{3} (1-e^{-3x_2} )
\end{split} \end{split}
\] \]
Gegebenenfalls koennen wir das gleiche auch mit $dx_2$ tun wenn das einfach zur integrieren ist oder nach beiden Marginaldichten gefragt ist. Gegebenenfalls koennen wir das gleiche auch mit $dx_2$ tun wenn das einfach zur integrieren ist oder nach beiden Marginaldichten gefragt ist.
@ -280,21 +280,21 @@ und:
\section{Koordinatentransformation} \section{Koordinatentransformation}
\section{Komposition von Zufallsvektoren} \section{Komposition von Zufallsvektoren}
\begin{center} \begin{center}
\begin{tikzpicture}[ \begin{tikzpicture}[
bend angle=45, bend angle=45,
scale = 1.5, scale = 1.5,
pre/.style={<-,shorten <=1pt,>=stealth',semithick}, pre/.style={<-,shorten <=1pt,>=stealth',semithick},
post/.style={->,shorten >=1pt,>=stealth',semithick}, post/.style={->,shorten >=1pt,>=stealth',semithick},
mid/.style={-,shorten >=1pt,>=stealth',semithick}, mid/.style={-,shorten >=1pt,>=stealth',semithick},
place/.style={circle,draw=red!50,fill=red!20,thick}] place/.style={circle,draw=red!50,fill=red!20,thick}]
\node[place] (A) at ( 0,0)[label=above:Before] {$(\Omega, A, P) $}; \node[place] (A) at ( 0,0)[label=above:Before] {$(\Omega, A, P) $};
\node[place] (B) at ( 2,0) {$(R^n, B_n, P^X)$} \node[place] (B) at ( 2,0) {$(R^n, B_n, P^X)$}
edge [pre] node [auto] {X} (A); edge [pre] node [auto] {X} (A);
\node[place, align=center] (C) at ( 2,-3) {$(R^m, B_m, P^G$} \node[place, align=center] (C) at ( 2,-3) {$(R^m, B_m, P^G$}
edge [pre] node [auto] {$Y = G \circ X$} (A) edge [pre] node [auto] {$Y = G \circ X$} (A)
edge [pre] node [auto] {$G$} (B); edge [pre] node [auto] {$G$} (B);
\end{tikzpicture} \end{tikzpicture}
\end{center} \end{center}
\vspace*{7pt} \vspace*{7pt}
\textbf{Gegeben:} Man hat stochastisch unabhängige Zufallsvariablen $X_1, \ldots , X_n$ gegeben mit \textbf{Gegeben:} Man hat stochastisch unabhängige Zufallsvariablen $X_1, \ldots , X_n$ gegeben mit
@ -331,7 +331,7 @@ unabhängig sind.
J_{G}(x_1,x_2) = J_{G}(x_1,x_2) =
\text{det} \begin{pmatrix} \text{det} \begin{pmatrix}
\frac{x_2}{(x_1 + x_2)^2} & * \\ \frac{x_2}{(x_1 + x_2)^2} & * \\
0 & 1 \\ 0 & 1 \\
\end{pmatrix} = \frac{x_2}{(x_1 + x_2)^2} \end{pmatrix} = \frac{x_2}{(x_1 + x_2)^2}
\end{align} \end{align}
\item Umkehrabbildung $G^*$ berechnen. Alle Zufallsvariablen werden \item Umkehrabbildung $G^*$ berechnen. Alle Zufallsvariablen werden