mirror of
https://gitlab.cs.fau.de/ik15ydit/latexandmore.git
synced 2024-12-25 01:26:06 +01:00
1038 lines
66 KiB
TeX
1038 lines
66 KiB
TeX
\documentclass[12pt,a4paper]{article}
|
|
\usepackage[utf8]{inputenc}
|
|
\usepackage{amsmath}
|
|
\usepackage{amsfonts}
|
|
\usepackage{amssymb}
|
|
\usepackage{graphicx}
|
|
\parindent0pt
|
|
\usepackage{thmbox}
|
|
\usepackage[left=1.00cm, right=1.00cm, top=1.00cm, bottom=1.00cm]{geometry}
|
|
\begin{document}
|
|
\newtheorem[S,bodystyle=\normalfont]{defi}{Definition}
|
|
\newtheorem[S,bodystyle=\normalfont]{satz}{Satz}
|
|
\newtheorem[S,bodystyle=\normalfont]{bew}{Beweis}
|
|
\renewcommand{\thedefi}{\hspace{-0.5em}}
|
|
\renewcommand{\thesatz}{\hspace{-0.5em}}
|
|
\renewcommand{\thebew}{\hspace{-0.5em}}
|
|
\pagestyle{empty}
|
|
\section{Grundlagen}
|
|
\subsection{Aussagenlogik}
|
|
\begin{defi}[Bivalenzprinzip]
|
|
Jede Aussage ist entweder wahr oder falsch $\Rightarrow$ extreme Präzision gefordert\\
|
|
Aussagen können Variablen enthalten
|
|
\end{defi}
|
|
\begin{defi}[Aussagen]
|
|
definierende Gleichheit: $:=$\\
|
|
$A\wedge B$ (A und B)ist genau dann wahr, wenn beide wahr sind.\\
|
|
$A\vee B$ (A oder B) ist genau dann wahr, wenn eins von beiden wahr ist.\\
|
|
$A\Leftrightarrow B$ (A äquivalent B) ist genau dann wahr, wenn beide denselben Wahrheitswert besitzen.\\
|
|
$A\Rightarrow B$ (Implikation, aus A folgt B) ist genau dann wahr, wenn beide Werte gleich sind oder A falsch ist.
|
|
\end{defi}
|
|
|
|
\begin{defi}[Äquivalenzen]
|
|
\begin{tabular}{@{}llcll}
|
|
(i)& A $\vee$ B& $\Rightarrow$& B $\vee$ A& Kommutativgesetz\\
|
|
(ii)& A $\wedge$ B& $\Rightarrow$& B $\wedge$ A& Kommutativgesetz\\
|
|
(iii)& (A $\vee$ B) $\vee$ C& $\Rightarrow$& A $\vee$ (B $\vee$ C)& Assoziativgesetz\\
|
|
(iv)& (A $\wedge$ B) $\wedge$ C& $\Rightarrow$& A $\wedge$ (B $\wedge$ C)& Assoziativgesetz\\
|
|
(v)& (A $\vee$ B) $\wedge$ C& $\Rightarrow$& (A $\wedge$ C) $\vee$ (B $\wedge$ C)& Distributivgesetz\\
|
|
(vi)& (A $\wedge$ B) $\vee$ C& $\Rightarrow$& (A $\vee$ C) $\wedge$ (B $\vee$ C)& Distributivgesetz\\
|
|
(vii)& $\neg$(A $\vee$ B)& $\Rightarrow$& $\neg$A $\wedge$ $\neg$B& de Morgan - Regel\\
|
|
(viii)& $\neg$(A $\wedge$ B)& $\Rightarrow$& $\neg$A $\vee$ $\neg$B& de Morgan - Regel\\
|
|
(ix)& $\neg$ $\neg$A& $\Rightarrow$& A& doppelte Negation\\
|
|
(x)& (A $\Rightarrow$ B)& $\Rightarrow$& ($\neg$A $\vee$ B)& Charakterisierung der Implikation\\
|
|
(xi)& (A $\Rightarrow$ B)& $\Rightarrow$& ($\neg$B $\Rightarrow$ $\neg$A)& Prinzip der Kontraposition/Widerspruchsbeweis\\
|
|
(xii)& A $\vee$ $\neg$A& $\Rightarrow$& wahr& Tertium non datur\\
|
|
(xiii)& A $\wedge$ $\neg$A& $\Rightarrow$& falsch& Tertium non datur\\
|
|
(xiv)& A $\vee$ wahr& $\Rightarrow$& wahr& Absorption\\
|
|
(xv)& A $\vee$ falsch& $\Rightarrow$& A & Absorption\\
|
|
(xvi)& A $\wedge$ wahr& $\Rightarrow$& A & Absorption\\
|
|
(xvii)& A $\wedge$ falsch& $\Rightarrow$& falsch & Absorption\\
|
|
\end{tabular}
|
|
\end{defi}
|
|
\begin{defi}[Quantoren]
|
|
$\forall$: Allquantor, dh. für alle gilt, $\neg \forall$ entspricht $\exists\neg$\\
|
|
$\exists$: Existenzquantor, dh. es existiert ein..., sodass, $\neg \exists$ entspricht $\forall\neg$\\
|
|
Bei gleichartigen Quantoren darf die Reihenfolge vertauscht werden, sonst nicht.\\
|
|
Bei Negation ändert sich immer die Art des Quantors:\\
|
|
$\neg(\forall x\in M: A(x))\Leftrightarrow \exists x\in M: \neg A(x)$\\
|
|
$\neg(\exists x\in M: A(x))\Leftrightarrow \forall x\in M: \neg A(x)$
|
|
\end{defi}
|
|
\subsection{Mengen}
|
|
\begin{defi}[Mengendefinition nach Cantor]
|
|
Eine Menge ist eine Zusammenfassung von wohlbestimmten und wohlunterschiedenen Objekten zu einem Ganzen. Die Objekte heißen Elemente der Menge.\\
|
|
Ist $a$ ein Element der Menge $M$, so schreiben wir $a\in M$, anderenfalls $a\notin M$.
|
|
\end{defi}
|
|
\begin{defi}[Teilmengen]
|
|
$M \ N :\Leftrightarrow \forall a \in M: a \in N \Leftrightarrow \forall a: (a\in M \Rightarrow a \in N)$
|
|
\end{defi}
|
|
\begin{defi}[Gleichheit von Mengen]
|
|
$M=N :\Leftrightarrow M \ N \wedge N \ M$
|
|
\end{defi}
|
|
\begin{defi}[Potenzmenge]
|
|
Menge aller Teilmengen von M:\\
|
|
$P(M):=\{U|U\subseteq M\}$
|
|
\end{defi}
|
|
\begin{defi}[Verknüpfung von Mengen]
|
|
$A \cup B := [x|x\in A \vee x\in B]$ (Vereinigung)\\
|
|
$A\cap B := [x|x\in A \wedge x\in B]$ (Schnitt)\\
|
|
$A\setminus B := [x|x\in A \wedge x\notin B]$ (Differenz, A ohne B)
|
|
\end{defi}
|
|
\begin{defi}[Paarmenge (Cartesisches Produkt)]
|
|
$A\times B := \{(a,b)|a\in A \wedge b \in B\}$
|
|
\end{defi}
|
|
\begin{defi}[Verknüpfungsregeln für Mengen]
|
|
\begin{tabular}{@{}llcl}
|
|
(i)& A $\cap$ B& =& B $\cap$ A\\
|
|
(ii)& A $\cup$ B& =& B $\cup$ A\\
|
|
&&&\\
|
|
(iii)& (A $\cap$ B) $\cap$ C&=& A $\cap$ (B $\cap$ C)\\
|
|
(iv)& (A $\cup$ B) $\cup$ C&=& A $\cup$ (B $\cup$ C)\\
|
|
&&&\\
|
|
(v)& (A $\cap$ B) $\cup$ C&=& (A $\cup$ C) $\cap$ (B $\cup$ C)\\
|
|
(vi)& (A $\cup$ B) $\cap$ C&=& (A $\cap$ C) $\cup$ (B $\cap$ C)\\
|
|
&&&\\
|
|
(vii)& $\mathcal{C}$(A $\cup$ B)&=& $\mathcal{C}$A $\cap$ $\mathcal{C}$B\\
|
|
(viii)& $\mathcal{C}$(A $\cap$ B)&=& $\mathcal{C}$A $\cup$ $\mathcal{C}$B\\
|
|
&&&\\
|
|
(ix)& $\mathcal{C}$$\mathcal{C}$A&=& A\\
|
|
&&&\\
|
|
(x)& A $\cup$ $\mathcal{C}$A&=& $\Omega$\\
|
|
(xi)& A $\cap$ $\mathcal{C}$A&=& $\emptyset $\\
|
|
&&&\\
|
|
(xii)& A $\cup$ $\Omega $&=& $\Omega$\\
|
|
(xiii)& A $\cup$ $\emptyset$&=& A\\
|
|
(xiv)& A $\cap$ $\Omega$&=& A\\
|
|
(xv)& A $\cap$ $\emptyset$&=& $\emptyset$\\
|
|
&&&\\
|
|
(xvi)& A $\cup$ A&=& A \\
|
|
(xvii)& A $\cap$ A&=& A \\
|
|
\end{tabular}
|
|
\end{defi}
|
|
\subsection{Relationen}
|
|
\begin{defi}[Relation]
|
|
Eine Relation auf einer Menge M ist nichts weiter als eine Menge von Paaren, also eine Teilmenge von $M x M$. Statt $(a,b)\in R$ schreibt man $aRb$ oder $a \sim b$
|
|
\end{defi}
|
|
\begin{defi}[Eigenschaften von Relationen]
|
|
\begin{tabular}{@{}ll}
|
|
(i)& reflexiv, falls $\forall x\in M : x \sim x$\\
|
|
(ii)& symmetrisch, falls $\forall x, y\in M: (x \sim y \Rightarrow y \sim x)$\\
|
|
(iii)& transitiv, falls $\forall x, y, z\in M : (x\sim y \wedge y\sim z \Rightarrow x\sim z)$\\
|
|
(iv)& antisymmetrisch, falls $\forall x, y\in M : (x\sim y \wedge y\sim x \Rightarrow x = y)$\\
|
|
(v)& alternativ, falls $\forall x, y\in M : (x\sim y\vee y\sim x )$
|
|
\end{tabular}
|
|
\end{defi}
|
|
Äquivalenzrelation: genau dann wenn - reflexiv, symmetrisch und transitiv\\
|
|
Ordnungsrelation: genau dann wenn - reflexiv, antisymmetrisch und transitiv. \\
|
|
\hspace*{10mm}Wenn zusätzlich alternativ, heißt sie vollständig.
|
|
\begin{defi}[Partition]
|
|
Sei $M \neq \emptyset$ und seien $A_i, i\in I$ ein System von Teilmengen von M (I ist Indexmenge). Es seien die beiden folgenden Eigenschaften erfüllt:\\
|
|
\begin{tabular}{@{}ll}
|
|
(i)& Die $A_i$ sind paarweise disjunkt, d.h. $\forall i, j \in I: i \neq j \Rightarrow A_i \cap A_j =\emptyset$\\
|
|
(ii)& DIe $A_i$ füllen ganz M auf, d.h. $\bigcup_{i\in I} A_i =M$\\
|
|
\end{tabular}\\
|
|
Dann heißt das System der $A_i$ eine Partition von M.
|
|
\end{defi}
|
|
\begin{satz}[Äquivalenzrelationen und Partitionen]
|
|
Sei $\sim$ eine Äquivalenzrelation auf einer Menge $M\neq \emptyset$. Dann bilden die Klassen bezüglich dieser Relation eine Partition auf/von M.\\
|
|
Sei umgekehrt eine Partition $(A_i) _{i \in I}$ einer Menge M gegeben. Dann ist durch die Setzung $x\sim y :\Leftrightarrow \exists i\in I: x, y \in A_i$ eine Äquivalenzrelation gegeben.\\
|
|
Kurz: Jede Äquivalenzrelation erzeugt eine Partition der Menge, und zu jeder Partition einer Menge gehört auf kanonische Art und Weise eine Äquivalenzrelation.
|
|
\end{satz}
|
|
\begin{defi}[Äquivalenzklasse]
|
|
Sei $\sim$ eine Äquivalenzrelation auf einer Menge $M\neq\emptyset$. Die Menge aller zu einem $x\in M$ in Relation stehenden Elemente bezeichnen wir als die (Äquivalenz-)Klasse $[x]_{\sim}$ von x:\\
|
|
$[x]_{\sim} := {y\in M | x\sim y}= {y\in M|y\sim x}$\\
|
|
Es ist also $y\in [x]_{\sim} \Leftrightarrow x\sim y \Leftrightarrow y\sim x,$\\
|
|
und insbesondere gilt immer $x\in [x]_{\sim}$ (Reflexivität).
|
|
\end{defi}
|
|
\subsection{Funktionen}
|
|
\begin{defi}[Abbildung/Funktion, Definitionsbereich, Wertevorrat]
|
|
Seien $M, N \neq \emptyset$ Mengen. \\
|
|
Menge $f\subseteq M x N$ heißt Funktion/Abbildung, wenn es zu jedem $x\in M$ genau ein $y\in N$ gibt mit $(x,y)\in f$.\\
|
|
$M$ heißt Definitionsbereich von $f$, $N$ heißt Wertevorrat oder Zielmenge von $f$.\\
|
|
Gilt $(x,y) \in f$, so bezeichnet man $y$ als das Bild von $x$ und $x$ als ein Urbild von $y$.\\
|
|
Man schreibt für $(x,y) \in F$ auch $y=f(x)$, statt $f \subseteq
|
|
M x N$ auch $f: M\rightarrow N, x\rightarrow f(x)$.\\
|
|
Eine Funktion ordnet jedem Element des Definitionsbereichs genau ein Element des Wertevorrats zu. Jedoch nicht jedes Element $y$ des Wertevorrats muss ein Urbild $x$ haben.
|
|
\end{defi}
|
|
\begin{defi}[Bildmenge]
|
|
Die Menge $Bild(f):=f(M):={f(x) \in N| x\in M}$ heißt Bild von $f$ oder Bild der Menge $M$ unter der Abbildung $f$).\\
|
|
Für $y\in N$ sei $f^{?1}(y) := \{x\in M | f(x)=y\}$ die Urbildmenge.
|
|
\end{defi}
|
|
\begin{defi}[injektiv, surjektiv, bijektiv]
|
|
1. $f$ heißt injektiv, wenn für alle $x_1, x_2 \in M$ mit $x_1\neq x_2$ gilt: $f(x_1)\neq f(x_2)$, d.h. wenn jedes $y\in N$ \\
|
|
\hspace*{5mm}höchstens ein Urbild hat.\\
|
|
2. $f$ heißt surjektiv, wenn $f(M)=N$, d.h. wenn jedes $y\in N$ mindestens ein Urbild hat.\\
|
|
3. $f$ heißt bijektiv, wenn $f$ injektiv und surjektiv ist, wenn also jedes $x\in N$ genau ein Urbild hat.
|
|
\end{defi}
|
|
\begin{defi}[Verkettung von Funktionen]
|
|
Seien $f: A\rightarrow B$ und $g: C\rightarrow D$ zwei Funktionen und es gelte $B \subseteq C$. Dann ist offensichtlich durch $x\rightarrow g(f(x))$ eine Abbildung von $A$ nach $D$ definiert, diese wird mit $g\circ f$ bezeichnet:
|
|
\[ g\circ f: A \rightarrow C, x\rightarrowtail (g\circ f)(x) := g(f(x)) \]
|
|
\end{defi}
|
|
\newpage
|
|
\begin{satz}[Eigenschaften verketteter Funktionen]
|
|
Seien $f: A\rightarrow B$ und $g: B\rightarrow C$ zwei Funktionen:\\
|
|
Sind $f, g$ injektiv, so ist $g\circ f$ injektiv.\\
|
|
Sind $f,g$ surjektiv, so ist $g\circ f$ surjektiv.\\
|
|
Sind $f,g$ bijektiv, so ist $g\circ f$ bijektiv.
|
|
\end{satz}
|
|
\begin{defi}[Identische Abbildung]
|
|
Sei $M \neq \neg$ eine Menge und $f: M\rightarrow M$ die Abbildung mit $f(x)=x$ für alle $x\in M$. $f$ heißt dann identische Abbildung oder die Identität auf M und wird mit $ID_M$ (oder $id_M$ oder $I_M$ oder $1_M$) bezeichnet.
|
|
\end{defi}
|
|
\begin{defi}[Umkehrabbildung]
|
|
Sei $f: M\rightarrow N$ eine Abbildung. Eine Abbildung $g: N\rightarrow M$ heißt $f$, wenn \\
|
|
$\forall x\in M: g(f(x)) = x \wedge \forall y\in N: f(g(y))=y$\\
|
|
also wenn $g\circ f =Id_M und f\circ g = Id_N$.\\
|
|
Die Umkehrabbildung wird mit $f^{-1}$ bezeichnet.
|
|
\end{defi}
|
|
\begin{satz}[Existenz der Umkehrfunktion]
|
|
Eine Abbildung $f$ besitzt genau dann eine Umkehrabbildung, wenn $f$ bijektiv ist. In diesem Fall ist dann auch die Umkehrabbildung bijektiv. Existiert eine Umkehrabbildung, so ist sie eindeutig bestimmt.
|
|
\end{satz}
|
|
\begin{defi}[Gleichmächtigkeit]
|
|
Zwei Mengen A und B heißen gleich mächtig, wenn es eine Bijektion von A nach B gibt. Eine Menge, die gleich mächtig zu $\mathbb{N}$ ist, heißt abzählbar unendlich. Eine unendliche Menge, die nicht gleich mächtig zu $\mathbb{N}$ ist, heißt überabzählbar.
|
|
\end{defi}
|
|
\begin{defi}[Monotonie]
|
|
Eine Funktion $f: D\rightarrowtail \mathbb{R}, D \subseteq \mathbb{R}$ heißt streng monoton wachsend/fallend, wenn für alle $x,y \in D$ mit $x<y$ gilt: $f(x)<f(y)$ bzw $f(x)>f(y)$.\\
|
|
Sie heißt schwach monoton wachsend/fallend, wenn für alle $x,y \in D$ mit $x<y$ gilt: $f(x)\leq f(y)$ bzw $f(x)\geq f(y)$.
|
|
\end{defi}
|
|
\begin{satz}[Monotonie und Injektivität]
|
|
Jede Funktion $f: D\rightarrow \mathbb{R}, D\subseteq \mathbb{R}$, die streng monoton wachsend oder fallend ist, ist injektiv.
|
|
\end{satz}
|
|
\subsection{Permutationen und ein kurzer Einblick in die Kombinatorik}
|
|
\begin{defi}[Permutation]
|
|
Sei $n\in N$. Eine bijektive Abbildung $f: (1,2, ... , n)\rightarrow (1,2, ... , n)$ heißt Permutation auf der Menge $(1,2, ... , n)$.\\
|
|
Die Menge aller Permutationen auf der Menge $(1,2, ... , n)$ bezeichnen wir mit $S_n$.\\
|
|
$\begin{pmatrix}
|
|
1 & 2 & ... & n \\
|
|
f(1) & f(2) & ... & f(n)
|
|
\end{pmatrix}$
|
|
\end{defi}
|
|
\begin{defi}[Transposition]
|
|
Eine Permutation, die nur zwei Objekte vertauscht und alle anderen fest lässt, heißt Transposition.
|
|
\end{defi}
|
|
\begin{defi}[Inversion, Signum]
|
|
Sei f eine Permutation auf (1, 2, ... , n). Man nennt ein Paar $(i,j)$ eine Inversion, falls $i<j$ und $f(i)>f(j)$.\\
|
|
Das Signum einer Permutatoin ist definiert als $sgn(f):= (-1)^{N(f)}\in [-1, 1]$, wobei $N(f)$ die Anzahl der Inversionen von f ist.
|
|
\end{defi}
|
|
\begin{defi}[Binomialkoeffizienten]
|
|
$\frac{n!}{k!(n-k)!}=: \binom{n}{k}$
|
|
\end{defi}
|
|
\section{Aufbau des Zahlensystems}
|
|
\subsection{$\mathbb{N},\mathbb{Z},\mathbb{Q},\mathbb{R}$, vollständige Induktion und algebraische Strukturen}
|
|
\begin{defi}[Summen- und Produktzeichen]
|
|
$\sum\limits_{k=m}^{n}a_k := a_m+a_{m+1}+ ... +a_n, m\leq n)$,\hspace*{10mm} $\prod\limits_{k=m}^{n}a_k := a_m\cdot a_{m+1} \cdot ... \cdot a_n, m\leq n)$
|
|
\end{defi}
|
|
\begin{defi}[Vollständige Induktion]
|
|
Induktionsanfang: $(n=1)$ muss erfüllt sein\\
|
|
Induktionsschritt: $(n\rightarrow n+1)$: wenn $n$ wahr ist, ist auch sein Nachfolger wahr.\\
|
|
Wenn Induktionsanfang und Induktionsschritt wahr, dann ist die Aussage bewiesen.
|
|
\end{defi}
|
|
\begin{defi}[Eigenschaften von Verknüpfungen]
|
|
Sei M eine nichtleere Menge und $\circ : M\times M \rightarrow M$ eine Abbildung. $\circ$ heißt\\
|
|
kommutativ, falls $\forall a,b \in M: a\circ b= b\circ a$\\
|
|
assoziativ, falls $\forall a,b \in M: (a\circ b) \circ c=a\circ (b\circ c)$
|
|
\end{defi}
|
|
\begin{defi}[neutrales und inverses Element]
|
|
Ein Element $e\in M$ heißt neutrales Element von M bzgl. $\circ$, wenn $\forall x\in M: e\circ x= x\circ e=x$.\\
|
|
Neutrales Element ist eindeutig.\\
|
|
Sei $e$ neutrales Element von $(M, \circ)$ und sei $x\in M$. $y\in M$ heißt inverses Element von $x$ in $(M, \circ)$, wenn $x\circ y =y\circ x=e$.\\
|
|
Jedes $x$ hat ein eigenes Inverses.
|
|
\end{defi}
|
|
\begin{defi}
|
|
Sei M eine nichtleere Menge und $\circ: M\times M \rightarrow M$ eine Abbildung. \\
|
|
Dann gibt es in M höchstens ein neutrales Element bzgl $\circ$.\\
|
|
Wenn $\circ$ assoziativ ist und ein neutrales Element hat, dann hat jedes $x\in M$ höchstens ein inverses Element.
|
|
\end{defi}
|
|
\begin{defi}[Gruppe]
|
|
Sei $M$ eine nichtleere Menge und $\circ: M\times M \rightarrow M$ eine Abbildung. $(M, \circ)$ heißt Gruppe, wenn\\
|
|
(i) $(M, \circ)$ assoziativ ist,\\
|
|
(ii) $(M, \circ)$ ein neutrales Element hat, und \\
|
|
(iii) $(M, \circ)$ jedes Element ein Inverses hat.\\
|
|
Falls $(M, \circ)$ zusätzlich kommutativ ist, heißt $(M, \circ)$ kommutative oder Abelsche Gruppe.
|
|
\end{defi}
|
|
\begin{satz}
|
|
In jeder Zeile und in jeder Spalte der Verknüpfungstabelle einer Gruppe kommt jedes Gruppenelement höchstens einmal vor.\\ Insbesondere für endliche Gruppen folgt: in jeder Zeile und in jeder Spalte der Verknüpfungstabelle einer Gruppe kommt jedes Gruppenelement genau einmal vor.
|
|
\end{satz}
|
|
\begin{defi}[Untergruppe]
|
|
Sei $(G, \circ)$ eine Gruppe und $U \subseteq G$ eine nichtleere Teilmenge. $U$ heißt Untergruppe von $G$,
|
|
falls
|
|
(i) $\forall a, b \in U : a \circ b \in U$ (Abgeschlossenheit von $U$ bzgl. $\circ$)\\
|
|
(ii) $\forall a \in U : a^{-1} \in U$ (Abgeschlossenheit von $U$ bzgl. Inversenbildung)
|
|
\end{defi}
|
|
\begin{defi}[Grundgesetze der Addition]
|
|
Für alle $a, b, c \in\mathbb{R}$ gilt:\\
|
|
A1) Assoziativgesetz: $a + (b + c) = (a + b) + c$.\\
|
|
A2) Kommutativgesetz: $a + b = b + a$.\\
|
|
A3) Neutrales Element: Es existiert genau eine Zahl $0\in \mathbb{R}$ mit $a + 0 = a$.\\
|
|
A4) Inverses Element: Zu jedem $a$ existiert eine Zahl $(-a) \in \mathbb{R}$ mit $(-a) + a = 0$.
|
|
\end{defi}
|
|
\begin{defi}[Grundgesetze der Multiplikation]
|
|
Für alle $a, b, c \in \mathbb{R}$ gilt:\\
|
|
M1) Assoziativgesetz: $a \cdot (b \cdot c) = (a \cdot b) \cdot c$.\\
|
|
M2) Kommutativgesetz: $a \cdot b = b \cdot a$.\\
|
|
M3) Neutrales Element: Es existiert genau eine Zahl $1\in\mathbb{R}$ mit $a \cdot 1 = a$, und $1\neq 0$.
|
|
M4) Inverses Element: Zu jedem $a\neq 0$ existiert ein $\frac{1}{a} \in \mathbb{R}$ mit $\frac{1}{a}\cdot a=1$.
|
|
\end{defi}
|
|
\begin{defi}[Ordnungsaxiome]
|
|
$\leq$ sei eine reflexive, transitive, antisymmetrische und alternative Relation auf $\mathbb{R}$ (also eine vollständige Ordnungsrelation).\\
|
|
Monotonie der Addition: $\forall a, b, b \in \mathbb{R}: a<b \Rightarrow a+c <b+c$.\\
|
|
Monotonie der Multiplikation: $\forall a,b,c \in \mathbb{R}: a<b, c>0 \Rightarrow a\cdot c < b\cdot c$.
|
|
\end{defi}
|
|
Eine Menge mit +, die (A1-A4) erfüllt, ist eine ABELsche Gruppe.\\
|
|
Eine Menge mit den Verknüpfungen + und $\cdot $, die die obigen
|
|
Eigenschaften (A1-A4, M1-M4) und das Distributivgesetz erfüllt, heißt Körper.\\
|
|
Hat man zusätzlich die Ordnungsaxiome, so spricht man von einem total
|
|
geordneten Körper.\\
|
|
\begin{defi}[Vollständigkeitsaxiom]
|
|
Zerlegt man die reellen Zahlen $\mathbb{R}$ in zwei nichtleere Mengen: $\mathbb{R}=L\cup R$, und $\forall x\in L, y\in R: x<y$, so gibt es genau eine Schnittzahl $s\in\mathbb{R}$ mit:\\
|
|
$\forall x\in L, y\in R: x\leq s\leq y$
|
|
\end{defi}
|
|
\begin{defi}[Rechenregeln]
|
|
$x\cdot y = x\cdot z$ und $x\neq 0 \Rightarrow y=z$\\
|
|
$x\cdot y=0 \Leftrightarrow x=0 \vee y=0$\\
|
|
$x\geq y \Rightarrow -x\leq -y$\\
|
|
$x<y\wedge z>0\Rightarrow xz<yz$\\
|
|
$x\neq 0 \Rightarrow x^2=x\cdot x >0$\\
|
|
$a<b$ und $c\leq d \Rightarrow a+c<b+d$ und $a-d<b-c$\\
|
|
$0\leq a\leq b$ und $c\leq d \Rightarrow 0\leq a\cdot c\leq b\cdot d$\\
|
|
$x<y \wedge xy>0 \Rightarrow y^{-1} < x^{-1}$\\
|
|
$xy>0 \Leftrightarrow (x>0\wedge y>0)\vee (x<0\wedge y<0)$
|
|
\end{defi}
|
|
\subsection{Die Dezimaldarstellung rationaler und reeller Zahlen}
|
|
\begin{satz}[Kriterium zur Unterscheidung rationaler und irrationaler Zahlen]
|
|
Eine reelle Zahl ist genau dann rational, wenn ihre Dezimaldarstellung (b-adische Darstellung) abbrechend oder periodisch ist.
|
|
\end{satz}
|
|
\begin{satz}[Mächtigkeit von $\mathbb{Q}$ und $\mathbb{R}$]
|
|
Die Menge der rationalen Zahlen ist abzählbar.\\
|
|
Die Menge der reellen Zahlen ist überabzählbar.
|
|
\end{satz}
|
|
\subsection{Trigonometrische Funktionen}
|
|
\begin{defi}[Geometrische Definition]
|
|
Sei $(x,y)\in \mathbb{R}^2$ ein Punkt auf dem Einheitskreis. Sei $\phi$ der Winkel zwischen der positiven x-Achse und dem Strahl von $(0,0)$ nach $(x,y)$. Dann setzen wir $\cos \phi :=x, \sin \phi := y$.\\
|
|
Der Winkel kann dabei im Gradmaß gemessen werden, d.h. ein Vollkreis $=360^\circ$, oder im Bogenmaß, d.h. ein Vollkreis $=2\pi$.
|
|
\end{defi}
|
|
Es gilt:\\
|
|
1. Bild$(\sin)$= Bild$(\cos) = [-1, 1]$\\
|
|
2. $\sin ^2 \alpha + \cos ^2 \alpha = 1 \forall\alpha\in\mathbb{R}$\\
|
|
3. $\sin (-\alpha) = -\sin \alpha, \cos (-\alpha)=\cos\alpha$\\
|
|
4. $\sin(\frac{\pi}{2}-\alpha)=\cos\alpha, \cos(\frac{\pi}{2}-\alpha)=\sin\alpha$\\
|
|
5. $\sin(\alpha\pm\pi)=-\sin\alpha, \cos(\alpha\pm\pi)=-\cos\alpha$\\
|
|
\\
|
|
$ \tan \alpha:=\frac{\sin\alpha}{\cos\alpha} $
|
|
für alle $\alpha$, für die $\cos\alpha\neq 0$ ist. Der Tangens ist $\pi$-periodisch.
|
|
\begin{satz}[Trigonometrische Additionstheoreme]
|
|
$\sin(\alpha\pm\beta)=\sin\alpha\cos\beta\pm\cos\alpha\sin\beta$
|
|
$\cos(\alpha\pm\beta)=\cos\alpha\cos\beta\mp\sin\alpha\sin\beta$
|
|
\end{satz}
|
|
\subsection{Die komplexen Zahlen}
|
|
\begin{defi}[Die komplexen Zahlen $\mathbb{C}$]
|
|
Es sei $C: [a+bi| a,b\in \mathbb{R}]$, wobei gelte $i^2=-1$.\\
|
|
Es gelten ferner alle Rechenregeln für Körper.\\
|
|
\\
|
|
Es sei $C: \mathbb{R}\times\mathbb{R}$. Auf dieser Menge definieren wir eine Addition und eine Multiplikation. \\
|
|
Addition: $(a_1,b_1)+(a_2,b_2):=(a_1+a_2,b_1+b_2)$\\
|
|
Multiplikation: $(a_1,b_1)\cdot(a_2, b_2):=(a_1a_2-b_1b_2, a_1b_2+b_1a_2)$\\
|
|
\\
|
|
a) Sei $z=a+bi$ mit $a,b\in \mathbb{R}$ eine komplexe Zahl. \\
|
|
\hspace*{5mm}Dann heißt $a$ der Realteil von $z$ und $b$ der Imaginärteil von $z$: $a=$Re$(z), b=$Im$(z)$.\\
|
|
\hspace*{5mm}Jede komplexe Zahl lässt sich also schreiben als $z=$Re$(z)+ i\cdot$Im$(z)$.\\
|
|
b) \={z}$:= a-bi$ heißt die zu $z=a+bi$ konjugiert-komplexe Zahl.\\
|
|
c) Der Betrag einer komplexen Zahl $z=a+bi$ wird definiert als $|z|:=\sqrt{a^2+b^2}=\sqrt{\text{Re}(z)^2+\text{Im}(z)^2}$\\
|
|
d) Das sog. Argument $\phi=$arg$(z)$ einer komplexen Zahl $x\neq 0$ ist der Winkel zwischen der positiven \\
|
|
\hspace*{5mm}horizontalen Achse und dem Ursprungsvektor von 0 nach $z$. Das Argument wird im Bogenmaß gemessen \\
|
|
\hspace*{5mm}und ist nur modulo $2\pi$ bestimmt. Derjenige Wert des Arguments, der im Intervall $[0, 2\pi)$ liegt, wird als \\
|
|
\hspace*{5mm} Hauptwert des Arguments bezeichnet, also z.B. arg$(-i)=3\pi /2$ (= Hauptwert des Arguments).\\
|
|
\\
|
|
Man kann durch Angabe von Betrag und Argument eine komplexen Zahl eindeutig beschreiben. \\
|
|
Gibt man eine komplexe Zahl durch Betrag und Argument an, so spricht man von Polarkoordinaten.
|
|
\end{defi}
|
|
Rechenregeln:\\
|
|
$|$\={z}$|=|a-bi|=\sqrt{a^2+(-b)^2}=\sqrt{a^2+b^2}=|z|$\\
|
|
$z\cdot|$\={z}$=(a+bi)(a-bi)=a^2-(bi)^2=a^2+b^2=|z|^2$\\
|
|
$\frac{1}{z}= \frac{\text{\={z}}}{|z|^2}$ für $z\neq 0$\\
|
|
$Re(z^2)=Re(a^2+2abi+(ib)^2)=a^2-b^2, Im (z^2)=2ab$\\
|
|
$z+|$\={z}$=(a+bi)+(a-bi)=2a=2Re(z)$\\
|
|
$z-|$\={z}$=(a+bi)-(a-bi)=2bi=2i Im(z)$\\
|
|
Komplement von $(z_1+z_2)=$\={z}$_1+$\={z}$_2$, Komplement von $(z_1\cdot z_2)=$\={z}$_1\cdot$\={z}$_2$
|
|
\subsubsection{Darstellung von komplexen Zahlen}
|
|
1. Jedes $z\in\mathbb{C}$ ist durch $a=Re(z), b=Im(z)$ eindeutig festgelegt (Kartesische Koordinaten). \\
|
|
\hspace*{5mm}Zwei komplexe Zahlen sind nur dann gleich, wenn sie gleichen Real- sowie Imaginärteil haben.\\
|
|
2. Jedes $z\in\mathbb{C}\backslash \{0\}$ ist durch Betrag und Argument eindeutig festgelegt (Polarkoordinaten). \\
|
|
\hspace*{5mm}Zwei komplexe Zahlen sind nur dann gleich, wenn sie gleichen Betrag sowie gleiches Argument haben.\\
|
|
\\
|
|
\subsubsection{Umrechnung und Rechnen im Komplexen}
|
|
Wenn Argument und Betrag gegeben:\\
|
|
$z=Re(z)+i Im(z)=|z|\cos(\phi)+i|z|\sin(\phi)=|z| (\cos(\phi)+i\sin(\phi)), \phi=arg(z)$\\
|
|
\\
|
|
Wenn Real- und Imaginärteil gegeben:\\
|
|
$|z|=\sqrt{a^2+b^2}=\sqrt{Re(z)^2+Im(z)^2}$ und $\tan\phi=\frac{\sin\phi}{\cos\phi}=\frac{|z|\sin\phi}{|z|\cos\phi}=\frac{Im(z)}{Re(z)}=\frac{b}{a}$\\
|
|
Achtung im 2. und 3. Quadranten!
|
|
\begin{defi}[Multiplikation in $\mathbb{C}$ in Polarkoordinaten]
|
|
Beim Multiplizieren komplexer Zahlen multiplizieren sich die Beträge und addieren sich die Argumente:
|
|
\[ z_1 = r_1(\cos \phi_1+i\sin\phi_1), z_2 = r_2(\cos \phi_2+i\sin\phi_2) \]
|
|
\[ \Rightarrow z_1 z_2 = r_1 r_2[\cos (\phi_1+\phi_2)+i\sin(\phi_1+\phi_2)] \]
|
|
\[ \text{d.h. } |z_1 z_2|=|z_1|\cdot|z_2|, arg(z_1z_2)=arg(z_1)+arg(z_2) (mod 2\pi) \]
|
|
Für die Division gilt: $|\frac{z_1}{z_2}|=\frac{|z_1|}{|z_2|}, arg(\frac{z_1}{z_2})=arg(z_1)-arg(z_2) (mod 2\pi)$
|
|
\end{defi}
|
|
\begin{defi}[Potenzbildung in $\mathbb{C}$ in Polarkoordinaten (De Moivre'sche Formel)]
|
|
n-te Potenz: Betrag mit n potenziert und Argument mit n multipliziert:\\
|
|
$ z= r(\cos\phi+i\sin\phi) \Rightarrow z^n =r^n (\cos(n\phi)+i\sin(n\phi))$\\
|
|
oder $ |z^n| = |z|^n, arg(z^n)=n\cdot arg(z) (mod 2\pi) $
|
|
\end{defi}
|
|
\begin{satz}[n-te Wurzeln in $\mathbb{C}$]
|
|
Sei $z\in\mathbb{C}\backslash \{0\}$. Dann hat die Gleichung $w^n=z$ genau n Lösungen $w_0, ..., w_{n-1}$ mit\\
|
|
$ |w_0|=...=|w_{n-1}|=\sqrt[n]{|z|} \text{ und } arg(w_k)=\frac{1}{n}arg(z)+\frac{2\pi k}{n}, k=0, ..., n-1$\\
|
|
Also\\
|
|
$ w_k= \sqrt[n]{|z|} [\cos(\frac{1}{n}arg(z)+\frac{2\pi k}{n})+i \sin (\frac{1}{n}arg(z)+\frac{2\pi k}{n}) ], k=0, ..., n-1$
|
|
\end{satz}
|
|
\begin{defi}[Lösen von quadratischen Gleichungen]
|
|
Gleichung $z^2+pz+q =0$.\\
|
|
Quadratische Ergänzung lieferte $(z+\frac{p}{2})^2 = \frac{p^2}{4}-q$ (rechte Seite $=: D$).\\
|
|
\\
|
|
Allgemeine Lösungsformel für quad. Gleichungen:\\
|
|
$ z_{1,2}=-\frac{p}{2} \pm \sqrt{|D|} [\cos(\frac{1}{2}arg(D))+i\sin(\frac{1}{2} arg(D))], D:= \frac{p^2}{4}-q \neq 0, p,q\in \mathbb{C}$
|
|
\end{defi}
|
|
\begin{satz}[Fundamentalsatz/Hauptsatz der Algebra]
|
|
Jedes Polynom $P:\mathbb{C}\rightarrow\mathbb{C}, P(z)=a_0+a_1z+ ... + a_nz^n$ mit Koeffizienten in $\mathbb{C}, n\in N, a_n\neq 0$ hat eine Darstellung (Linearfaktorzerlegung):\\
|
|
$ P(z)=a_n \prod_{j=1}^{n}(z-z_j), \text{ wobei } z_1, ..., z_n \in \mathbb{C}$
|
|
\end{satz}
|
|
Jedes Polynom vom Grad $\geq 1$ mit Koeffizienten in $\mathbb{C}$ hat mind. 1 NS in $\mathbb{C}$ (und höchstens $n$ viele).
|
|
\begin{satz}
|
|
Sei $ P_n(x)= \sum_{k=0}^{n}a_kx^k$ ein Polynom $n$-ten Grades mit reellen Koeffizienten $a_k \in \mathbb{R}, k=0,1,..., n, a_n\neq 0$. \\
|
|
Dann gilt: Ist $z_0\in\mathbb{C}$ eine Nullstelle von $P_n(x)$, so auch die konjugiert komplexe Zahl $z_0$.
|
|
\end{satz}
|
|
Nichtreelle Nullstellen von $P_n$ treten stets paarweise auf: \\
|
|
$z_0, \overline{z}_0 \in\mathbb{C}$ sind entweder beide Nullstellen oder beide keine Nulstellen.\\
|
|
Ist Grad $P_n =2m+1$ eine ungerade Zahl, so hat $P_n$ mindestens eine reelle Nullstelle.
|
|
\begin{satz}[Dreiecksungleichung in $\mathbb{C}$]
|
|
Für alle $z_1, z_2 \in\mathbb{C}$ gilt $|z_1+z_2|\leq |z_1|+|z_2|$
|
|
\end{satz}
|
|
\section{Lineare Algebra}
|
|
\subsection{Gaussches Eliminationsverfahren}
|
|
\begin{defi}[Lineares Gleichungssystem, LGS]
|
|
Ein Lineares Gleichungssystem (LGS) mit $n\in\mathbb{N}$ Unbekannten $x_1,x_2,...,x_n$ und $m\in\mathbb{N}$ Gleichungen hat die Form
|
|
\[ \begin{array}{ccc}
|
|
a_{11} x_1+ ...+ a_{1n}x_n & = & b_1\\
|
|
...&& ...\\
|
|
a_{m1}x_1+ ...+ a_{mn}x_n &=& x_n
|
|
\end{array} \]
|
|
Dabei heißen die $b_1,...b_m$ die rechten Seiten und die $a_{ij}, i=1,...,m, j=1,...,n$ die Koeffizienten des LGS. \\
|
|
Zur kürzeren Schreibweise führt man auch ein:\\
|
|
$\vec{x}:= \left(\begin{array}{c}
|
|
x_1\\ ...\\x_n
|
|
\end{array}\right) \in \mathbb{R}^n$ Vektor der Unbekannten, \hspace*{5mm} $\vec{b}:= \left(\begin{array}{c}
|
|
b_1\\ ...\\b_m
|
|
\end{array}\right) \in \mathbb{R}^m$ Vektor der rechten Seite\\
|
|
$A:= \left(\begin{array}{ccc}
|
|
a_{11} & ... & a_{1n}\\ ... && ...\\a_{m1}& ...& a_{mn}
|
|
\end{array}\right) = (a_{ij})_{i=1,...,m; j=1,...,n} \in \mathbb{R}^{m\times n}$ Koeffizientenmatrix, Systemmatrix\\
|
|
\\
|
|
Konventionen: Der Zeilenindex kommt immer vor dem Spaltenindex: $a_{ij}$ ($i$-te Zeile, $j$-te Spalte) \\
|
|
$(a_{ij})$ ist die Matrix mit den Einträgen $a_{ij}$,\\
|
|
$m=$ Anzahl Zeilen $=$ Anzahl Gleichungen,$n=$ Anzahl Spalten $=$ Anzahl Unbekannte,\\
|
|
$(A|\vec{B})\in \mathbb{R}^{m\times(n+1)}$ bezeichnet man als erweiterte Koeffizientenmatrix.
|
|
\end{defi}
|
|
\textbf{3 verschiedene Typen von Stufenformen:}\\
|
|
Typ I: Alle Stufen haben Höhe und Breite 1, unterhalb der Stufen stehen nur Nullen, auf der Diagonalen stehen von Null verschiedene Einträge, insbesondere sei $m\geq n$ vorausgesetzt, im Fall $m>n$ sind unten $m-n$ viele Nullzeilen enthalten.\\
|
|
Es existiert genau eine Lösung, daher auch eindeutiger Typ.\\
|
|
\\
|
|
Typ II: Es gibt mind. eine Stufe der Breite $>1$, und in der $\vec{b}$-Spalte fängt keine neue Stufe an.\\
|
|
Es existieren unendlich viele Lösungen, daher auch mehrdeutiger Typ.\\
|
|
\\
|
|
Typ III: Stufenform, bei der sich in der Spalte der rechten Seite eine Stufe befindet, d.h. es gibt eine Gleichung der Form $0\cdot x_1+0\cdot x_2 + ... + 0\cdot x_n =b_r$ mit $b_1 \neq 0$\\
|
|
Es existiert keine Lösung, daher auch nicht lösbarer Typ.
|
|
\subsection{Vektorräume}
|
|
\subsubsection{Definitionen}
|
|
\begin{defi}[Komponentenweise Definition von Addition und Skalarmultiplikation für n-Tupel]
|
|
$\left(\begin{array}{c}
|
|
x_1\\ x_2\\ ...\\x_n
|
|
\end{array}\right)+
|
|
\left(\begin{array}{c}
|
|
y_1\\ y_2\\ ...\\y_n
|
|
\end{array}\right) =
|
|
\left(\begin{array}{c}
|
|
x_1+y_1\\x_2+y_2\\...\\x_n+y_n
|
|
\end{array}\right)$
|
|
und
|
|
$ \lambda\cdot \left(\begin{array}{c}
|
|
x_1\\ x_2\\ ...\\x_n
|
|
\end{array}\right)=
|
|
\left(\begin{array}{c}
|
|
\lambda x_1\\\lambda x_2\\ ...\\\lambda x_n
|
|
\end{array}\right) $
|
|
\end{defi}
|
|
\begin{defi}[Vektorraum]
|
|
Sei $\mathbb{K}$ ein Körper und $V$ eine Menge mit einer Verknüpfung $+ : V\times V \rightarrow V$ (Vektoraddition). Außerdem sei eine Verknüpfung $\cdot \ : \mathbb{K}\times V \rightarrow V$ (Skalarmultiplikation) gegeben, und es gelte:\\
|
|
- $(V, + )$ ist eine kommutative Gruppe\\
|
|
- Es gelten die Distributivgesetze sowie das Assoziativgesetz\\
|
|
- und weiter $1\cdot \vec{x}=\vec{x}$\\
|
|
Dann nennt man V einen $\mathbb{K}$-Vektorraum. Die Elemente eines Vektorraums heißen Vektoren, die Elemente des zugrunde liegenden Körpers heißen Skalare.\\
|
|
In jedem Vektorraum gilt $0\cdot \vec{x}=\vec{0}, \lambda\cdot\vec{0}=\vec{0}, -\vec{x}=(-1)\cdot\vec{x}$
|
|
\end{defi}
|
|
\subsubsection{Unterräume und affine Räume}
|
|
\begin{defi}
|
|
Sei $V$ ein $\mathbb{K}$-Vektorraum und $U\subseteq V$ eine nichtleere Teilmenge. $U$ heißt Unterraum von $V$, falls für alle $\vec{x},\vec{y}\in U$ und $\alpha \in\mathbb{K}$ gilt:\\
|
|
1. $\vec{x}+\vec{y}\in U$\\
|
|
2. $\alpha \vec{x}\in U$\\
|
|
Die Teilmenge U ist also bzgl. der Vektoraddition und Skalarmultiplikation abgeschlossen.\\
|
|
\textbf{Alternativ:}\\
|
|
EIne Menge $U\subseteq V$ ist genau dann Unterraum des Vektorraums V, wenn
|
|
$ \forall \vec{x},\vec{y}\in U, \alpha,\beta\in\mathbb{K}: \alpha\vec{x}+\beta\vec{y}\in U $\\
|
|
\textbf{Ein notwendiges, nicht hinreichendes Kriterium:}\\
|
|
Ist $U$ ein Unterraum eines $\mathbb{K}$-VR $V$, so gilt immer $\vec{0}\in U$
|
|
\end{defi}
|
|
\begin{defi}[Lösungsmenge eines homogenen/heterogenen LGS]
|
|
Ein LGS $(A|\vec{b}), A\in \mathbb{K}^{m\times n}, \vec{b}\in\mathbb{K}^m,$ heißt homogen, wenn die rechten Seiten alle gleich null sind, also $\vec{b}=\vec{0}$. Andernfalls heißt es inhomogen.\\
|
|
Die Lösungsmenge $L_{hom}$ eines homogenen LGS $(A|\vec{0})$\\
|
|
- ist immer ein Unterraum des $\mathbb{K}^n$\\
|
|
- ist niemals leer, denn $\vec{0}\in L_{hom}$. $\vec{0}$ heißt auch die triviale Lösung.\\
|
|
Die Lösungsmenge $L$ eines inhomogenen LGS ist kein Unterraum.
|
|
\end{defi}
|
|
\begin{satz}[Lösungsmenge eines LGS und des zugehörigen homogenen LGS]
|
|
Sei $\emptyset\neq L\subseteq \mathbb{R}^n$ die nichtleere Lösungsmenge eines LGS $(A|\vec{b})$, und sei $L_{hom}\subseteq\mathbb{R}^n$ die Lösungsmenge des zugehörigen homogenen LGS $(A|\vec{0})$. Dann gilt\\
|
|
$ L = \{\vec{x_0}\}+L_{hom} ( :=\{\vec{x_0}+\vec{x}|\vec{x}\in L_{hom}\})$\\
|
|
wobei $\vec{x_0}$ ein beliebiges Element aus L ist.
|
|
\end{satz}
|
|
Also: um $L$ zu kennen, reicht es, $L_{hom}$ sowie ein einziges Element $\vec{x_0}\in L$ zu kennen.
|
|
\begin{defi}[affiner Raum]
|
|
Sei $U$ ein Unterraum eines $\mathbb{K}$-Vektorraums V. Ferner sei $\vec{x_0}\in V$. Dann nennt man die Menge\\
|
|
$ \{\vec{x_0}\}+U:=\{\vec{x_0}+\vec{x}|\vec{x}\in U\} $\\
|
|
einen affinen Raum oder affin-linearen Raum oder affinen Unterraum von V.\\
|
|
Bsp: Geraden im $\mathbb{R}^2$, Geraden und Ebenen im $\mathbb{R}^3$
|
|
\end{defi}
|
|
\subsubsection{Lineare (Un)Abhängigkeit, Erzeugendensysteme, Basen, Dimension}
|
|
\begin{defi}[Linearkombination, Lineare (Un)Abhängigkeit]
|
|
Seien $\vec{v_1}, ..., \vec{v_n}$ Elemente eines $\mathbb{K}$-Vektorraums $V$ gegeben. \\
|
|
Vektoren der Bauart
|
|
$\sum\limits_{i=1}^{n}\alpha_i\vec{v_i}$ heißen Linearkombinationen (LK) der Vektoren $\vec{v_1}, ..., \vec{v_n}$. \\
|
|
Die Linearkombination mit $\alpha_a=...=\alpha_n=0$ heißt triviale Linearkombination. \\
|
|
Die Vektoren $\vec{v_1}, ..., \vec{v_n}$ heißen linear abhängig, wenn es eine nichttriviale LK gibt, die den Nullvektor ergibt, also wenn es $\alpha_1, ..., \alpha_n \in \mathbb{K}$, nicht alle $=0$ gibt, sodass $\sum\limits_{i=1}^{n}\alpha_i\vec{v_i}=\vec{0}$. \\
|
|
Andernfalls, also wenn nur die triviale LK den Nullvektor ergibt, heißen die Vektoren linear unabhängig.\\
|
|
\\
|
|
In Formeln:
|
|
\[ \vec{v_1}, ..., \vec{v_n} \text{ lin. abh. \ \ } :\Leftrightarrow \exists \alpha_1, ..., \alpha_n \in\mathbb{K}: \sum_{i=1}^{n}\alpha_i\vec{v_i}=\vec{0} \wedge (\alpha_1, ..., \alpha_n)\neq (0, ..., 0)\]
|
|
\[ \vec{v_1}, ..., \vec{v_n} \text{ lin. unabh. } :\Leftrightarrow \forall \alpha_1, ..., \alpha_n \in\mathbb{K}: (\sum_{i=1}^{n}\alpha_i\vec{v_i}=\vec{0} \Rightarrow \alpha_1 = ...= \alpha_n=0)\]
|
|
\end{defi}
|
|
Um Vektoren auf lineare (Un)Abhängigkeit zu testen, bildet man die Matrix $A:=[\vec{v_1}, ..., \vec{v_n}]\in\mathbb{K}^{m\times n}$, und birngt diese durch elementare Umformungen auf Stufenform. \\
|
|
Die Vektoren sind genau dann linear unabhängig, wenn die Stufenform von $A$ den Typ I hat, \\
|
|
und linear abhängig, wenn sie Typ 2 hat.\\
|
|
Ist $n>m$, so muss es Stufen der Breite $>1$ geben, d.h. die Stufenform kann nicht vom Typ 1 sein. Das heißt, Vektoren mit n>m sind immer linear abhängig.\\
|
|
\begin{defi}[Erzeugendensysteme]
|
|
Vektoren $\vec{v_1}, ...,\vec{v_n}$ eines Vektorraumes $V$ mit der Eigenschaft, dass sich jeder Vektor $\vec{x}\in V$ als Linearkombination der $\vec{v_i}$ darstellen lässt, heißen Erzeugendensystem (kurz EZS) von $V$.\\
|
|
$n<m$ viele Vektoren bilden niemals ein EZS, ein EZS des $\mathbb{K}^m$ muss mindestens $m$ Vektoren umfassen.
|
|
\end{defi}
|
|
\begin{defi}[Spann/Lineare Hülle]
|
|
Die Menge aller Linearkombinationen eines Systems von Vektoren $\vec{v_1}, ..., \vec{v_n}$ eines $\mathbb{K}$-Vektorraums $V$ heißen Spann oder der von den Vektoren erzeugte/aufgespannte Raum oder die lineare Hülle der Vektoren:
|
|
\[ span\{\vec{v_1}, ..., \vec{v_n}\}:= \{\alpha_1\vec{v_1}+ ... + \alpha_n\vec{v_n}| \alpha_1, ..., \alpha_n \in\mathbb{K}\} \]
|
|
Eine lineare Hülle ist immer ein Vektorraum (also ein Unterraum von $V$) und zwar der kleinste Vektorraum/Unterraum, der die aufspannenden Vektoren $\vec{v_1}, ..., \vec{v_n}$ enthält. Trivialerweise bilden $\vec{v_1}, ..., \vec{v_n}$ immer ein EZS von $span\{\vec{v_1}, ..., \vec{v_n}\}$.
|
|
\end{defi}
|
|
\begin{satz}
|
|
Ist $\{\vec{v_1}, ..., \vec{v_n}\}$ ein EZS eines Vektorraums u. $\vec{v_{n+1}}\in V$ beliebig, so ist auch $\vec{v_1}, ..., \vec{v_n},\vec{v_{n+1}}$ ein EZS von $V$.\\
|
|
Sind $\{\vec{v_1}, ..., \vec{v_n}\}$ linear abhängig und $\vec{v_{n+1}}$ beliebig, so sind auch $\{\vec{v_1}, ..., \vec{v_n}, \vec{n_{n+1}}\}$ linear abhängig.\\
|
|
Sind die Vektoren $\{\vec{v_1}, ..., \vec{v_n}\}$ linear unabhängig, so sind auch $\{\vec{v_1}, ..., \vec{v_{n-1}}\}$ linear unabhängig.\\
|
|
Ein System von Vektoren $\{\vec{v_1}, ..., \vec{v_n}\}$, bei dem ein Vektor der Nullvektor ist, ist immer linear abhängig.
|
|
\end{satz}
|
|
\begin{defi}[Basis eines Vektorraums]
|
|
Ein System von endlich vielen Vektoren, das linear unabhängig ist und ein EZS bildet, heißt Basis des Vektorraums. Die Anzahl der Elemente einer Basis heißt Länge der Basis.\\
|
|
Die Standard-Basis eines $\mathbb{K}$-Vektorraums ist
|
|
\[ \vec{e_1}=\left(\begin{array}{c}
|
|
1\\ 0\\ ... \\ 0
|
|
\end{array}\right),
|
|
\vec{e_2}=\left(\begin{array}{c}
|
|
0\\ 1\\ ... \\ 0
|
|
\end{array}\right), ...,
|
|
\vec{e_n}=\left(\begin{array}{c}
|
|
0\\ 0\\ ... \\ 1
|
|
\end{array}\right) \]
|
|
\end{defi}
|
|
\begin{satz}[Austauschlemma]
|
|
Sei $\mathfrak{B}_1:= \{\vec{b_1}, .., \vec{b_n}\}$ eine Basis eines Vektorraums, und sei $\vec{v}$ ein Vektor mit der Darstellung $\vec{v}=\sum\limits_{i=1}^{n} c_i \vec{b_i}$, wobei $c_1\neq 0$ sei. Dann ist auch $\mathfrak{B}_2 := \{\vec{v},\vec{b_2}, ..., \vec{b_n}\}$ eine Basis.
|
|
\end{satz}
|
|
Invarianz: In einem Vektorraum haben alle Basen die gleiche Länge.
|
|
\begin{defi}[Dimension]
|
|
Hat ein $\mathbb{K}$-VR eine Basis mit Länge $n\in\mathbb{N}$, so bezeichnen wir $n$ als die Dimension des Vektorraums $V$:
|
|
\[ n= dim(V) \]
|
|
Falls $V$ keine Basis hat, so sagen wir, dass $V$ unendlichdimensional ist: $dim(V)=\infty$.\\
|
|
Für den Nullvektorraum legen wir fest: $dim(\{\vec{0}\}):=0$.
|
|
\end{defi}
|
|
\newpage
|
|
\begin{satz}[Basisergänzungssatz]
|
|
Sei $\{\vec{b_1}, .., \vec{b_n}\}$ ein System von linear unabhängigen Vektoren in einem endlichdimensionalen Vektorraum $V$. Dann gibt es Vektoren $\vec{v_{n+1}}, ..., \vec{v_m} (m\geq n)$, sodass $\{\vec{b_1}, .., \vec{b_n}, \vec{v_{n+1}}, ..., \vec{v_m}\}$ eine Basis von $V$ bilden.\\
|
|
Kurz: Jedes linear unabhängige System eines endlichdimensionalen Vektorraum $V$ lässt sich durch Hinzunahme von Vektoren zu einer Basis von $V$ ergänzen.\\
|
|
Hat man also vorgegebene, linear unabhängige Vektoren in einem endlichdimensionalen VR, so gibt es immer eine Basis, die genau diese vorgegebenen Vektoren enthält.
|
|
\end{satz}
|
|
\begin{satz}
|
|
Seien $U\subseteq V$ endlichdimensionale $\mathbb{K}$-Vektorräume. Dann gilt die Äquivalenz $ U=V \Leftrightarrow dim(U) = dim(V)$
|
|
\end{satz}
|
|
Um die Basis/Dimension eines Raumes $U=span\{\vec{v_1}, ..., \vec{v_n}\}$ zu bestimmen, bringen wir die Matrix $[\vec{v_1}, ..., \vec{v_n}]$ auf Stufenform (wie bei Prüfung der Lin. Unabhängigkeit).\\
|
|
Diejenigen Spalten, in denen sich Stufen bilden, kennzeichnen, welche der $\vec{v_i}$ l.u. sind.\\
|
|
Diejenigen Spalten ohne Stufen kennzeichnen diejenigen $\vec{v_i}$, die sich als LK der Stufen-$\vec{v_i}$ schreiben lassen.\\
|
|
Diejenigen Vektoren $\vec{v_i}$, in deren zugehörigen Spalten sich Stufen bilden, bilden eine Basis von $U$.\\
|
|
Insbesondere ist $dim(U)=$ Anzahl der Stufen.\\
|
|
\\
|
|
Die Dimension von $U_1\cap U_2$ erhält man als die Anzahl der Nicht-Stufen-Spalten der Matrix, die aus den erzeugenden Vektoren von $U_1$ und $U_2$ gebildet wird. (Die Vorzeichen vor den $\vec{w_i}$ spielen, sofern uns nur die Anzahl der Stufen der Stufenform interessiert, keine Rolle.)\\
|
|
Eine Basis des Raumes $U_1\cap U_2$ kann man durch Lösen eines homogenen LGS berechnen.\\
|
|
\\
|
|
Die Dimension von $U_1 + U_2$ erhält man als die Anzahl der Stufen der Stufenform der Matrix, die aus den erzeugenden Vektoren von $U_1$ und $U_2$ gebildet wird.\\
|
|
Diejenigen Spalten, die Stufen haben, kennzeichnen die Vektoren, die eine Basis von $U_1 + U_2$ bilden.
|
|
|
|
\begin{satz}[Dimensionsformel für Unterräume]
|
|
Sind $U_1, U_2$ Unterräume des $\mathbb{K}^n$, so gilt \hspace*{5mm}
|
|
$ dim(U_1)+dim(U_2) = dim(U_1+ U_2) + dim (U_1 \cap U_2) $
|
|
\end{satz}
|
|
\begin{defi}[Direkte Summe von zwei Unterräumen]
|
|
Seien $U_1, U_2$ Unterräume eines $\mathbb{K}$-Vektorraums $V$. Man sagt, dass $U$ die direkte Summe der $U_i$ ist, falls
|
|
\[ U=U_1 + U_2 \hspace*{3mm}\wedge \hspace*{3mm}\forall\vec{x}\in U\hspace*{3mm} \exists! \vec{x_1}\in U_1, \vec{x_2}\in U_2: \hspace*{3mm} \vec{x}=\vec{x_1}+\vec{x_2}\]
|
|
Man schreibt dann $U = U_1 \oplus U_2$.\\
|
|
Also: Eine Summe von zwei Unterräume ist direkt, wenn sich jedes Element auf eindeutige Art und Weise als Summe von Elementen der Unterräume darstellen lässt.
|
|
\end{defi}
|
|
\begin{satz}[Charakterisierung von direkten Summen]
|
|
Eine Summe $U=U_1+U_2$ ist genau dann direkt, wenn $U_1\cap U_2=\{\vec{0}\}$\\
|
|
Mit der Dimensionsformel für Unterräume ist dies wiederrum genau dann der Fall, wenn $dim(U)=dim(U_1)+dim(U_2)$
|
|
\end{satz}
|
|
\subsection{Lineare Abbildungen, Bild und Kern}
|
|
\begin{defi}[Lineare Abbildung]
|
|
Seien $U$ und $V$ $\mathbb{K}$-Vektorräume. Eine Abbildung $f: U\rightarrow V$ heißt linear, wenn \\
|
|
1. $\forall\vec{x},\vec{y} \in U: f(\vec{x}+\vec{y})=f(\vec{x}) + f(\vec{y})$\\
|
|
2. $\forall \vec{x}\in U, \alpha \in \mathbb{K}: f(\alpha\vec{x})=\alpha f(\vec{x})$\\
|
|
Die Menge aller linearen Abbildungen von $U$ nach $V$ wollen wir mit $Lin(U, V)$ bezeichnen.\\
|
|
Offensichtlich: $Lin(U, V) \subseteq Abb(U, V)$\\
|
|
Kurz: Ob man in $U$ rechnet und dann in $f$ anwendet, oder $f$ anwendet und dann in $V$ rechnet, ist egal.\\
|
|
Alternativ: $\forall \vec{x}, \vec{y}\in U, \alpha \in \mathbb{K}: f(\alpha\vec{x}+\beta\vec{y})=\alpha f(\vec{x})+ \beta f(\vec{y})$
|
|
\end{defi}
|
|
\begin{satz}[Das Prinzip der linearen Fortsetzung]
|
|
Sei $V$ ein $\mathbb{K}$-Vektorraum mit Basis $\{\vec{b_1}, ..., \vec{b_n}\}$, sei $W$ ein $\mathbb{K}$-VR, und sei $f: V \rightarrow W$ linear. Es seien die Funktionswerte der Basiselemente, also die $f(\vec{b_i})$, bekannt.\\
|
|
Dann lässt sich, wie wir wissen, jedes beliebige $\vec{x}\in V$ (auf genau eine Art und Weise) als LK der Basis darstellen: $\vec{x}= \sum\limits_{i=1}^{n} \alpha_i\vec{b_i}$.\\
|
|
Dann gilt: $f(\vec{x})= f(\sum\limits_{i=1}^{n}\alpha_i\vec{b_i})= \sum\limits_{i=1}^{n} \alpha_i f(\vec{b_i})$
|
|
\end{satz}
|
|
Also: Kennt man die Wirkung einer linearen Abbildung auf eine Basis, so kennt man die gesamte lineare Abbildung.
|
|
\begin{satz}[Darstellungssatz für lineare Abbildung]
|
|
Sei V ein $\mathbb{K}$-Vektorraum mit Basis $\{ \vec{b_1}, ... , \vec{b_n}\}$, sei W ein $\mathbb{K}$-VR. Dann gibt es zu jeder vorgegebenen Auswahl $\vec{w_1} , ... , \vec{w_n} \in W$ genau eine lineare Abbildung f : V $\rightarrow$ W mit der Eigenschaft $f(\vec{b_1}) = \vec{w_1} , ... , f(\vec{b_n}) = \vec{w_n}$
|
|
\end{satz}
|
|
\begin{defi}[Bild und Kern]
|
|
Sei $f: U \rightarrow V$ linear. Dann ist der Kern (auch Nullraum $N(f)$ bzw. Menge der Nullstellen) von $f$:
|
|
\[ Kern(f) := \{\vec{x}\in U| f(\vec{x})=\vec{0}\}\subseteq U \]
|
|
das Bild von f ist (Baut auf Bildmenge auf):
|
|
\[ Bild(f) := \{f(\vec{x})|\vec{x}\in U\}= f(U) \subseteq V \]
|
|
Kern und Bild niemals leer, sie enthalten immer mindestens den Nullvektor, da $f(\vec{0})=\vec{0}$
|
|
\end{defi}
|
|
\begin{satz}
|
|
Sei $f: U\rightarrow V$ eine lineare Abbildung. Dann ist $Kern(f)$ ein Unterraum von $U$ und $Bild(f)$ ein Unterraum von $V$.
|
|
\end{satz}
|
|
\textbf{Berechnung des Kerns (bzw. dessen Dimension) einer linearen Abbildung:}\\
|
|
Sei $f: \mathbb{K}^n\rightarrow \mathbb{K}^m$ linear und gegeben durch Angabe der Werte $f(\vec{e_1}), ..., f(\vec{e_n})\in \mathbb{K}^m$. Der Kern von $f$ ist die Lösung des homogenen LGS mit Systemmatrix $[f(\vec{e_1}), ..., f(\vec{e_n})]$. Die Dimension ergibt sich als die Anzahl derjenigen Spalten der Stufenform, in denen keine Stufe beginnt.\\
|
|
\\
|
|
\textbf{Berechnung einer Basis des Bildes einer linearen Abbildung:}\\
|
|
Sei $\vec{b_1}, ..., \vec{b_n}$ eine Basis von $\mathbb{K}$ und sei $f: \mathbb{K}^n \rightarrow \mathbb{K}^m$ linear und gegeben durch Angabe der Werte $f(\vec{b_1}), .., f(\vec{b_n})\in \mathbb{K}^m$. Dann ist $Bild(f) = span \{f(\vec{b_1}), ..., f (\vec{b_n})\}$, d.h. die gegebenen Vektoren bilden ein EZS von $Bild(f)$.\\
|
|
Eine Basis von $Bild(f)$ (und somit dessen Dimension) erhält man, indem man die Matrix $[f(\vec{b_1}), .., f(\vec{b_n})]$ auf Stufenform bringt. Diejenigen $f(\vec{b_i})$, für die die $i$-te Spalte der Stufenform eine Stufe enthält, bilden eine Basis des Bildes.\\
|
|
\\
|
|
Durch einmalige Anwendung des Gauß-Verfahrens, nämlich auf die Matrix, kann man sowohl Bild als auch Kern einer linearen Abbildung berechnen.\\
|
|
\#Spalten = \#Stufenspalten+\#NichtStufenspalten = n wobei $f:\mathbb{K}^n \rightarrow \mathbb{K}^m$\\
|
|
\#Stufenspalten = Dimension des Bildes\\
|
|
\#NichtStufenspalten = Dimension des Kerns
|
|
\begin{satz}[Dimensionsformel für Bild und Kern einer linearen Abbildungen]
|
|
Sei $f : \mathbb{K}^n \rightarrow \mathbb{K}^m$ linear. Dann ist
|
|
\[dim(Kern(f)) + dim(Bild(f)) = n\]
|
|
\end{satz}
|
|
\begin{satz}[Charakterisierung der Injektivität, Surjektivität, Bijektivität von linearen Abbildungen]
|
|
Seien U,V endlichdimensionale $\mathbb{K}$-Vektorräume und $f : U \rightarrow V$
|
|
linear. Sei $B={~ b1,...,~ bn}$ eine Basis von U. Dann gilt:\\
|
|
\begin{tabular}{@{} lll}
|
|
(i)& f injektiv&
|
|
$\Leftrightarrow$ Kern(f) $=\{\vec{0}\}$ $\Leftrightarrow$ dim(Kern(f)) = 0 $\Leftrightarrow$ $\{f(\vec{b_1}),...,f(\vec{b_n})\}$ sind linear unabhängig\\
|
|
(ii)& f surjektiv&
|
|
$\Leftrightarrow$
|
|
Bild(f) = V $\Leftrightarrow$ dim(Bild(f)) = dim(V) $\Leftrightarrow$ $\{f(\vec{b_1}),...,f(\vec{b_n})\}$ bilden ein EZS von V\\
|
|
(iii)& f ist bijektiv&
|
|
$\Leftrightarrow$
|
|
Bild(f) = V $\wedge Kern(f) ={\vec{0}}$\\
|
|
&&$\Leftrightarrow$ dim(Bild(f)) = dim(V) $\wedge$ dim(Kern(f)) = 0\\
|
|
&& $\Leftrightarrow$ $f(\vec{b_1}), ... , f(\vec{b_n})\}$ ist eine Basis von V\\
|
|
\end{tabular}
|
|
\end{satz}
|
|
\begin{satz}[Lineare Abbildung auf gleichen Dimensionen]
|
|
Seien U, V Vektorräume mit dim(U) = dim(V). Sei f: U $\rightarrow$ V linear. Dann gilt:
|
|
\begin{center}
|
|
$ f injektiv \Leftrightarrow f surjektiv \Leftrightarrow f bijektiv $
|
|
\end{center}
|
|
\end{satz}
|
|
\begin{satz}[Isomorphie]
|
|
Eine bijektive lineare Abbildung $f : U \rightarrow V$ heißt Isomorphismus (von Vektorräumen).\\
|
|
Gibt es einen solchen Isomorphismus, so heißen U und V isomorph.
|
|
\end{satz}
|
|
Eine lineare Abbildung ist genau dann ein Isomorphismus, wenn sie Basen auf Basen abbildet, was insbesondere bedeutet, dass die beiden beteiligten Vektorräume die gleiche Dimension haben müssen.\\
|
|
Umgekehrt, wenn zwei Vektorräume die gleiche Dimension haben, kann man immer leicht einen Isomorphismus konstruieren, indem man eine Basis des einen Raumes auf eine Basis des anderen Raumes abbilden lässt und den Rest der linearen Fortsetzung überlässt. Es folgt:
|
|
\begin{satz}[Isomorphie]
|
|
Zwei endlichdimensionale $\mathbb{K}$-Vektorräume U,V sind genau dann isomorph, wenn sie die gleiche Dimension haben. Insbesondere sind also:\\
|
|
$\bullet$ alle n-dimensionalen $\mathbb{K}$-Vektorräume isomorph zum $\mathbb{K}^n$,\\
|
|
$\bullet$ $\mathbb{K}^m$ und $\mathbb{K}^n$ dann und nur dann isomorph, wenn $m=n$
|
|
\end{satz}
|
|
\section{Matrizen}%folie 16
|
|
\begin{defi}
|
|
Sei $\mathbb{K}$ ein Körper und seien m,n $\in$ $\mathbb{N}$. Unter einer $m \times n$ - Matrix über dem Körper $\mathbb{K}$ versteht man ein Schema von $m \cdot n$ Zahlen angeordnet in m Zeilen und n Spalten:\\
|
|
A = $\left(\begin{array}{ccc}
|
|
a_{11}& ... & a_{1 n}\\
|
|
\vdots& &\vdots\\
|
|
a_{m1}& ... & a_{mn}
|
|
\end{array}\right)$ $\in \mathbb{K}^{m\times n}$\\
|
|
Die Menge aller Matrizen vom Format $ m \times n$ wird mit $\mathbb{K}^{m\times n}$ bezeichnet.
|
|
\end{defi}
|
|
\begin{defi}[Rechnen]
|
|
Addition:
|
|
+: $\mathbb{K}^{m\times n} \times \mathbb{K}^{m \times n} \rightarrow \mathbb{K}^{m\times n}$, A + B := $\left(\begin{array}{ccc}
|
|
a_{11} + b_{11}& ... & a_{1 n} + b_{1n}\\
|
|
\vdots& &\vdots\\
|
|
a_{m1} + b_{m1}& ... & a_{mn} + b_{mn}\\
|
|
\end{array}\right)$\\
|
|
\\
|
|
Skalarmultiplikation:
|
|
$\cdot$: $\mathbb{K} \times \mathbb{K}^{m \times n} \rightarrow \mathbb{K}^{m\times n}$, $\alpha$A := $\left(\begin{array}{ccc}
|
|
\alpha a_{11}& ... &\alpha a_{1 n}\\
|
|
\vdots& &\vdots\\
|
|
\alpha a_{m1}& ... & \alpha a_{mn}\\
|
|
\end{array}\right)$\\
|
|
\end{defi}
|
|
\newpage
|
|
\begin{satz}[$\mathbb{K}^{m\times n}$ als Vektorraum]
|
|
Die Menge $\mathbb{K}^{m\times n}$ der $m\times n$-Matrizen über einem Körper $\mathbb{K}$ bildet bezüglich der oben definierten komponentenweise Addition und Skalarmultiplikation einen $\mathbb{K}$-Vektorraum.\\
|
|
Das liegt daran, dass eine solche Matrix ein Vektorraum ist. Somit Rechnen wir im Raum der Matrix $\mathbb{K}^{m\times n}$ genauso wie im Raum der Vektoren die ein LGS über $\mathbb{K}^{m\cdot n}$ bilden.\\
|
|
Somit können wir die Dimension folgern:
|
|
\[ dim (\mathbb{K}^{m\times n}) = m \cdot n \]
|
|
\end{satz}
|
|
\begin{satz}[Darstellunsgmatrix]
|
|
Kurzschreibweise für eine Lineare Abbildung von einem Vektorraum zum anderen. Beispiel $\mathbb{R}^3 \rightarrow \mathbb{R}^2$:\\
|
|
$f(\vec{e}_1) = \begin{pmatrix}
|
|
2\\
|
|
3
|
|
\end{pmatrix}$ , $f(\vec{e}_2) = \begin{pmatrix}
|
|
4\\
|
|
1
|
|
\end{pmatrix}$ , $f(\vec{e}_3) = \begin{pmatrix}
|
|
0\\
|
|
5
|
|
\end{pmatrix}\Rightarrow$ A = $\begin{pmatrix}
|
|
2 & 4 & 0 \\
|
|
3 & 1 & 5
|
|
\end{pmatrix}$
|
|
\\
|
|
\\
|
|
Verwendung der Kurzschreibweise:\\
|
|
Sei $f : \mathbb{R}^2 \rightarrow \mathbb{R}^3$ gegeben durch: $f(\vec{e}_1) = (2 , 1 , 4)^T$ und $f(\vec{e}_2) = (3 , 6 , 0)^T$. Berechne $f ((7 , 5)^T)$:\\
|
|
$\begin{pmatrix}
|
|
2 & 3\\
|
|
1 & 6\\
|
|
4 & 0
|
|
\end{pmatrix} \begin{pmatrix}
|
|
7\\
|
|
5
|
|
\end{pmatrix}= \begin{pmatrix}
|
|
2 \cdot 7 + 3 \cdot 5\\
|
|
1 \cdot 7 + 6 \cdot 5\\
|
|
4 \cdot 7 + 0 \cdot 5
|
|
\end{pmatrix} = \begin{pmatrix}
|
|
29\\
|
|
37\\
|
|
28
|
|
\end{pmatrix}$ Das bedeutet: f $\begin{pmatrix}
|
|
7\\
|
|
5
|
|
\end{pmatrix} = \begin{pmatrix}
|
|
29\\
|
|
37\\
|
|
28
|
|
\end{pmatrix}$\\
|
|
\\
|
|
Merke: Die j-te Spalte von A ist das Bild des j-ten Einheitsvektors unter der Abbildung f.
|
|
\end{satz}
|
|
\begin{defi}[Matrix-Vektor-Produkt]
|
|
Sei $\mathbb{K}$ ein Körper, $m,n \in \mathbb{N}$. Dann ist eine Verknüpfung $\cdot : \mathbb{K}^{m \times n} \times \mathbb{K}^n \rightarrow \mathbb{K}^m$ erklärt durch:
|
|
\[(A , \vec{x}) \rightarrowtail A \cdot \vec{x} := (\sum\limits^{n}_{j=1} a_{ij} \cdot x_j)_{i = 1, ... , m}\]
|
|
Ist $A \in \mathbb{K}^{m \times n}$ die zu $f \in Lin(\mathbb{K}^n , \mathbb{K}^m)$ gehörende Darstellungsmatrix, so ist: $A \vec{x} = f(\vec{X})$\\
|
|
Beachte:\\
|
|
Die Spalten Anzahl der Matrix muss gleich der Komponentenanzahl des Vektors sein!
|
|
\end{defi}
|
|
\begin{satz}[Matrix-Vektor-Produkt und LGS]
|
|
Ein LGS mit Systemmatrix $A \in \mathbb{K}^{m\times n}$ und rechter Seite $\vec{b} \in \mathbb{K}^m$ und gesuchter Lösung $\vec{x} \in \mathbb{K}^n$ lässt sich schreiben mittels Matrix-Vektor-Produkt als: $A \vec{x} = \vec{b}$
|
|
\end{satz}
|
|
\begin{satz}[Summe linearer Abbildung anhand der Darstellungsmatrix]
|
|
Lineare Abbildungen kann man addieren, indem man ihre zugehörigen Darstellungsmatrizen addiert!
|
|
\end{satz}
|
|
\begin{defi}[Matrix- Matrix- Multiplikation]
|
|
Funktioniert in etwa so: $\cdot : \mathbb{K}^{m \times r} \times \mathbb{K}^{r\times n} \rightarrow \mathbb{K}^{m\times n}$\\
|
|
$\begin{pmatrix}
|
|
a & b\\
|
|
c & d
|
|
\end{pmatrix}
|
|
\begin{pmatrix}
|
|
e&f\\
|
|
g & h
|
|
\end{pmatrix}=
|
|
\begin{pmatrix}
|
|
a \cdot e + b \cdot g & a \cdot f + b\cdot h\\
|
|
c \cdot e + d \cdot g & c \cdot f + d\cdot h\\
|
|
\end{pmatrix}$ bzw.:$
|
|
\begin{pmatrix}
|
|
a & b\\
|
|
c & d\\
|
|
e & f\\
|
|
\end{pmatrix}
|
|
\begin{pmatrix}
|
|
g & h & m\\
|
|
n & o & p
|
|
\end{pmatrix} =
|
|
\begin{pmatrix}
|
|
a g + b n & a h + b o & a m + b p\\
|
|
c g + d n & c h + d o & c m + d p\\
|
|
e g + f n & e h + f o & e m + f p\\
|
|
\end{pmatrix}$\\
|
|
Beispiel:\\
|
|
$\begin{pmatrix}
|
|
1 & 2 & 0 & 1\\
|
|
1 & 0 & 3 & 4\\
|
|
1 & 1 & 1 & 1
|
|
\end{pmatrix}
|
|
\cdot \begin{pmatrix}
|
|
5 & 1\\
|
|
2 & 6\\
|
|
0 & 2\\
|
|
7 & 3
|
|
\end{pmatrix} = \begin{pmatrix}
|
|
1 \cdot 5 + 2 \cdot 2 + 0 \cdot 0 + 1 \cdot 7 & 1 \cdot 1 + 2 \cdot 6 + 0 \cdot 2 + 1 \cdot 3\\
|
|
1 \cdot 5 + 0 \cdot 2 + 3 \cdot 0 + 4 \cdot 7 & 1 \cdot 1 + 0 \cdot 6 + 3 \cdot 2 + 4 \cdot 3\\
|
|
1 \cdot 5 + 1 \cdot 2 + 1 \cdot 0 + 1 \cdot 7 & 1 \cdot 1 + 1 \cdot 6 + 1 \cdot 2 + 1 \cdot 3\\
|
|
\end{pmatrix} = \begin{pmatrix}
|
|
16& 16\\
|
|
33 & 19\\
|
|
14 & 12
|
|
\end{pmatrix}$\\
|
|
\\
|
|
1. Matrix von links nach rechts mit Einträgen der 2. Matrix von oben nach unten vermultiplizieren und dann zusammenaddieren. Dort, wo sich die beteiligten Reihen schneiden, steht der neue Wert.\\
|
|
\\
|
|
Spalten der ersten Matrix gleich Zeilen der zweiten Matrix!
|
|
\end{defi}
|
|
\begin{defi}[Verkettung von linearen Abbildungen mittels ihrer Darstellungsmatrizen]
|
|
Lineare Abbildungen verkettet man, indem man ihre Darstellungsmatrizen mulitpliziert
|
|
\end{defi}
|
|
Rechengesetze für Matrizen:\\
|
|
$\bullet$ Addition und Multiplikation haben die gleichen Rechenregeln wie Vektorräumen\\
|
|
$\bullet$ Für Matrix-Matrix-Multiplikation gilt das Assoziativ und Distributivgesetz, kein Kommutativgesetz!\\
|
|
\begin{defi}[Neutrales Element der Matrix-Matrix-Multiplikation]
|
|
Die Matrix $E_n$ wird als $n\times n$-Einheitsmatrix bezeichnet:\\
|
|
\\
|
|
$E_n$:=
|
|
$\begin{pmatrix}
|
|
1 & 0 & \cdots& 0\\
|
|
0 & 1 & \cdots& 0\\
|
|
\vdots & & \ddots& \vdots\\
|
|
0 & \cdots & 0& 1\\
|
|
\end{pmatrix}$
|
|
\end{defi}
|
|
\begin{defi}[Inverses Element] %hier weitermachen
|
|
Nicht jede $n\times n$ Matrix hat ein Inverses. Beispiel ist die Nullmatrix, die kein Inverses hat.\\
|
|
Das lässt sich mit der Eigenschaft der Linearen Abbildung als Matrizen erläutern. Nur bijektive lineare Abbildungen haben eine Umkehrfunktion. Bei Matrizen stellt das Inverse genau diese Umkehrfunktion dar. Das heißt:\\
|
|
\\
|
|
Sei $A \in \mathbb{K}^{n \times n}$ die zu $f \in Lin (\mathbb{K}^n , \mathbb{K}^n)$ gehörende Darstellungsmatrix. Dann gilt die Äquivalenz:\\
|
|
A hat Inverses $\Leftrightarrow$ f hat Umkehrfunktion $\Leftrightarrow$ f bijektiv\\
|
|
$\Leftrightarrow$ $\{f(\vec{e}_1) , ... , f(\vec{e}_n) \}$ bilden eine Basis in $\mathbb{K}^n$
|
|
$\Leftrightarrow$ Stufenform von A hat Typ 1\\
|
|
\\
|
|
$n\times n$-Matrizen, die ein inverses Element haben, nennt man invertierbar bzw. regulär / nichtsingulär.\\
|
|
$n\times n$-Matrizen, die kein Multiplikatives Inverses haben, heißen nicht invertierbar / singulär\\
|
|
\\
|
|
A invertierbar $\Leftrightarrow$ LGS $A\vec{x}=\vec{b}$ hat für beliebiges $\vec{b}$ genau eine Lösung.\\
|
|
\\
|
|
Aus bijektiven Abbildungen wissen wir, dass wenn zwei Abbildungen bijektiv sind, ist auch die Verkettung dieser Abbildungen bijektiv. Für die Umkehrfunkting gilt dann: $(f \circ g)^{-1} = g^{-1} \circ f^{-1}$\\
|
|
Dasselbe gilt für Matrizen. Seien A,B $\in \mathbb{K}^{n\times n}$ invertierbar, dann ist auch die Matrix AB invertierbar und es gilt somit: $(AB)^{-1} = B^{-1} A^{-1}$
|
|
\end{defi}
|
|
Praktische Berechnung des Inversen einer Matrix:\\
|
|
Durch das Multiplizieren einer Matrix mit ihrem Inversen erhält man die Einheitsmatrix.\\
|
|
1. Aufschreiben der Matrix als Blockmatrix\\
|
|
2. Einheitsmatrix muss nach links. Dabei ergibt sich rechts die Inverse Matrix.\\
|
|
\noindent\hspace*{3mm} Dabei bringt man den Block erstmal in die Stufenform \\
|
|
3. Links auf Einsenform bringen.\\
|
|
4. Linke Seite durch geeignetes Subtrahieren zur Einheitsmatrix machen.\\
|
|
\\
|
|
Spezialfall $n=2$: Matrix $A=\begin{pmatrix}
|
|
a & b\\ c& d
|
|
\end{pmatrix}$ und $ad-bc\neq 0$. \\
|
|
Dann ist A invertierbar und es ist $A^{-1} = \frac{1}{ad-bc}\begin{pmatrix}
|
|
d& -b\\ -c & a
|
|
\end{pmatrix}$
|
|
\newpage
|
|
\subsection{Determinanten}
|
|
\begin{defi}[Determinante]
|
|
1. Normierungseigenschaft: $V(\vec{e}_1, ..., \vec{e}_n)=1$\\
|
|
2. Linearität in jedem Argument (Multilinearität)\\
|
|
\hspace*{5mm} a) $V(\vec{a}_1, ..., \alpha\vec{a}_k, ..., \vec{a}_n) = \alpha V(\vec{a}_1, ..., \vec{a}_n)$\\
|
|
\hspace*{5mm} b) $V(\vec{a}_1, ..., \vec{a}_k+\vec{y}, ..., \vec{a}_n) = V(\vec{a}_1, ..., \vec{a}_k, ..., \vec{a}_n)+ V(\vec{a}_1, ..., \vec{y}, ..., \vec{a}_n)$\\
|
|
3. für linear abhängige Vektoren soll $V(\vec{a}_1, ..., \vec{a}_n) = 0$ sein.\\
|
|
\\
|
|
Die durch diese drei Eigenschaften eindeutig bestimmte Abbildung heißt Determinante, det$(A)$ oder $|A|$.\\
|
|
\\
|
|
Regeln für Determinanten:\\
|
|
$\bullet$ Zeilen und Spaltenvertauschungen ändern das Vorzeichen der Determinante\\
|
|
$\bullet$ Addition und Subtraktion von Vielfachen von Zeilen und Spalten ändern die Determinante nicht.\\
|
|
$\bullet$ Wenn man die Matrix Skalar multipliziert, wird die Determinante mit demselben Wert * dim multipliziert
|
|
\end{defi}
|
|
Es gilt: \\
|
|
det$(A)=$ det$(A^T)$\\
|
|
det$(AB)=$ det$(A)\cdot$ det$(B)$\\
|
|
det$(A^k)=$ det$(A)^k$
|
|
\begin{satz}[Laplace'scher Entwicklungssatz]
|
|
Die Berechnung einer $n\times n$-Determinante kann man zurückführen auf die Berechnung von $(n-1)\times(n-1)$-Determinanten. \\
|
|
Dazu wählt man eine Zeile/Spalte aus und streicht diese gedanklich. Pro Wert in dieser Zeile/Spalte streicht man gedankl. die Spalte/Zeile, in der sich der Wert befindet, und bau daraus eine neue Matrix.\\
|
|
Addiere/subtrahiere den Determinantenwert multipliziert mit dem zuerst ausgewählten Wert vom Rest, abhängig vom "Schachbrettmuster".
|
|
\end{satz}
|
|
\begin{satz}[Determinante für Dreiecksmatrizen]
|
|
Die Determinante einer (rechten/oberen oder auch einer linken/unteren) Dreiecksmatrix ist gleich dem Produkt ihrer Diagonaleinträge.
|
|
\end{satz}
|
|
Folgerung für $(n\times n)$-Stufenformen: Determinante $\neq 0 \Leftrightarrow$ Typ I
|
|
\begin{satz}[Äquivalente Eigenschaften für quadratische Matrizen]
|
|
Für eine lineare Abbildung $f: \mathbb{R}^n \rightarrow \mathbb{R}^n$ mit der Darstellungsmatrix $A\in \mathbb{R}^{n\times n}$ gilt die Äquivalenz:
|
|
\begin{center}
|
|
f injektiv $\Leftrightarrow$ f surjektiv $\Leftrightarrow$ f bijektiv\\
|
|
$\Leftrightarrow$ $Kern(A)=\{\vec{0}\}$ $\Leftrightarrow$ $Bild(A)=\mathbb{R}^n$ $\Leftrightarrow$ $A^{-1}$ existiert $\Leftrightarrow$ $rang(A)=n$\\
|
|
$\Leftrightarrow$ das LGS $A\vec{x} = \vec{b}$ hat für jedes $\vec{b}\in\mathbb{R}^n$ (genau eine) Lösung\\
|
|
$\Leftrightarrow$ die Spalten von A sind l.u. $\Leftrightarrow$ die Zeilen von A sind l.u. $\Leftrightarrow$ $det(A)\neq 0$\\
|
|
$\Leftrightarrow$ $det(A^T ) \neq 0$
|
|
\end{center}
|
|
|
|
\end{satz}
|
|
\begin{satz}[Volumenänderungen unter linearen Abbildungen]
|
|
Sei $f\in Lin(\mathbb{R}^n, \mathbb{R}^n)$ und $A\in\ mathbb{R}^{n\times n}$ die zugehörige Matrix. Sei $M\subset \mathbb{R}^n$ mit Volumen $Vol(M)$.\\
|
|
Dann hat das Bild von $M$ unter $f$ das $det(A)$-fache Volumen: $Vol(f(M)) = |det(A)| Vol(M)$
|
|
\end{satz}
|
|
\newpage
|
|
\subsection{Eigenwerte und Eigenvektoren quadratischer Matrizen}
|
|
Die folgenden Definitionen sind für komplexe Matrizen, da jede reelle Matrix als Teilmenge des Komplexen betrachtet werden kann.
|
|
\begin{defi}[Eigenwert und Eigenvektor]
|
|
Sei $A\in\mathbb{C}^{n\times n}$. Eine Zahl $\lambda\in\mathbb{C}$ heißt Eigenwert von A, wenn es ein $\vec{x}\in\mathbb{C}^n\backslash\{\vec{0}\}$ gibt, sodass $A\vec{x}=\lambda\vec{x}$ gilt. Ein $\vec{x}\neq\vec{0}$, das diese Gleichung erfüllt, heißt Eigenvektor von A zum Eigenwert $\lambda$.\\
|
|
Ein Eigenvektor einer Matrix ist ein vom Nullvektor verschiedener Vektor, dessen Richtung durch Multiplikation mit der Matrix nicht verändert wird. Der Eigenvektor wird also nur gestreckt. Der Faktor um den der Vektor gestreckt wird heißt Eigenwert der Matrix.
|
|
\end{defi}
|
|
\begin{defi}[Eigenraum]
|
|
Sei $\lambda \in \mathbb{C}$ ein Eigenwert der Matrix $A$. Aus $\lambda$ und A ergibt sich der Vektorraum bzw. Eigenraum:
|
|
\[ Eig(\lambda ) :=\{\vec{x}\in\mathbb{C}^n | A\vec{x}=\lambda\vec{x}\}= \{\vec{x}\in\mathbb{C}^n | (A-\lambda E_n)\vec{x}=\vec{0}\}= Kern(A - \lambda E_n)\]
|
|
Der Eigenraum ist somit die Menge aller Eigenvektoren mit dem Nullvektor\\
|
|
Der Schnitt zweier unterschiedlicher Eigenvektoren ist immer der Nullvektor.\\
|
|
$\lambda$ ist genau dann ein EW von A, wenn $Kern(A - \lambda E_n)$ nichttrivial (d.h. $\neq \{\vec{0}\})$ ist.
|
|
\end{defi}
|
|
\begin{satz}[Berechnung der Eigenwerte]
|
|
Es gilt die Äquivalenz: $\lambda$ ist ein Eigenwert von A $\Leftrightarrow$ det(A - $\lambda \cdot E_n$)= 0 . \\
|
|
Beispiel:\\
|
|
$\begin{pmatrix}
|
|
1 & 2\\
|
|
5 & 4
|
|
\end{pmatrix} \Rightarrow
|
|
det ( A - \lambda E_n) = det \begin{pmatrix}
|
|
1 - \lambda & 2\\
|
|
5 & 4 - \lambda
|
|
\end{pmatrix}
|
|
= (1 - \lambda)(4 - \lambda) - 10 = \lambda^2 - 5 \lambda - 6$
|
|
\end{satz}
|
|
\begin{defi}[Charakteristisches Polynom]
|
|
Sei $A \in \mathbb{C}^{n\times n}$. Die Abbildung p: $\mathbb{C} \rightarrow \mathbb{C}$ definiert durch $p(\lambda) := det(A-\lambda E_n)$ ($\lambda$ ist EW von A) ist ein Polynom vom Grad n. Es wird bezeichnet als das charakteristische Polynom von A.\\
|
|
Die Nullstellen des charakteristischen Polynoms p sind die Eigenwerte von A.\\
|
|
Es gibt mindestens einen und höchstens n viele.\\
|
|
Man kann sich auf die reellen Werte beschränken oder die komplexen Werte suchen.\\
|
|
\\
|
|
In der Darstellung: $p (\lambda) = a_n \lambda^n + ... + a_1 \lambda + a_0$\\
|
|
gilt für die Koeffizienten: $a_n = (-1)^n$ , $ a_{n-1} = (-1)^{n-1} spur(A)$ , $a_0 = det(A)$
|
|
\end{defi}
|
|
\begin{satz}[Eigenwerte, Determinanten, Spur]
|
|
Sei $A \in \mathbb{R}^{n\times n}$ oder $A \in \mathbb{C}^{n\times n}$ Und $\lambda_i$ Nullstellen von p. \\
|
|
Dann gilt: $ \prod\limits_{i=1}^{n} \lambda_i =$ det$(A)$ und $\sum\limits_{i=1}^{n}\lambda_i = spur(A)$
|
|
\end{satz}
|
|
\begin{defi}[Algebraische und Geometrische Vielfachheit von Eigenwerten]
|
|
Algebraische Vielfachheit der NS $\lambda_i$: Vielfachheit der Nullstelle $\lambda_i$ des charakteristischen Polynoms\\
|
|
Geometrische Vielfachheit des EW $\lambda_i$: Die Dimension des Eigenraumes Eig$(\lambda_i)$
|
|
\end{defi}
|
|
\begin{defi}[Zusammenhang Geometrischer und Algebraischer Vielfachheit]
|
|
Für jeden Eigenwert einer Matrix gilt: geomVfht$(\lambda_i) \leq$ algVfht$(\lambda_i)$
|
|
\end{defi}
|
|
\begin{satz}[Eigenvektorbasis]
|
|
Hat für eine Matrix $A \in \mathbb{K}^{n\times n}$ jeder Eigenwert $\lambda_i$ die Eigenschaft, dass geomVfht$(\lambda_i) =$ algVfht$(\lambda_i)$, dann gibt es eine Basis, die nur aus Eigenvektoren von A besteht.\\
|
|
D.h. jedes $x\in\mathbb{K}^n$ lässt sich als LK von Eigenvektoren von A schreiben.
|
|
\end{satz}
|
|
\newpage
|
|
%ab hier: 18 - 16
|
|
\begin{defi}[Ähnlichkeit und Diagonalisierbarkeit von Matrizen]
|
|
Zwei Matrizen $A,B$ heißen ähnlich, wenn es eine invertierbare Matrix $X$gibt, so dass gilt: B = X A $X^{-1}$\\
|
|
Eine Matrix B, die ähnlich zu einer Diagonalmatrix ist, heißt diagonalisierbar.\\
|
|
Sind zwei Matrizen ähnlich, so haben sie das gleiche charakteristische Polynom, und somit insbesondere die gleiche Determinante, die gleiche Spur und die gleichen Eigenwerte (nicht gleiche Eigenräume!)
|
|
\end{defi}
|
|
\begin{satz}[Diagonalisierbarkeit]
|
|
Sei $L=:$ diag$(\lambda_1, ..., \lambda_n)\in\mathbb{C}^{n\times n}$ eine Diagonalmatrix, sei $X\in\mathbb{C}^{n\times n}$ invertierbar und sei $A=XLX^{-1}$.\\
|
|
Dann sind $\lambda_1, ..., \lambda_n$ gerade die Eigenwerte von A, und die Spalten der Matrix $X$ sind Eigenvektoren von $A$ (genauer: die i-te Spalte von $X$ ist EV zu $\lambda_i$). Da die Spalten von $X$ wegen der Invertierbarkeit linear unabhängig sind, gibt es also eine Basis des $\mathbb{C}^n$ aus Eigenvektoren von A, d.h. die geometrischen Vielfachheiten der Eigenwerte von A addieren sich zu n auf.\\
|
|
Umgekehrt: es zu einer Matrix $A$ eine Basis des $\mathbb{C}^n$ bestehend aus Eigenvektoren, so ist $A$ diagonalisierbar: man bildet die Diagonalmatrix $L$ aus den Eigenwerten von $A$ und $X$ aus den Eigenvektoren derart, dass die i-te Spalte von $X$ als EV zum i-ten Diagonaleintrag von $L$ gewählt wird, und dann gilt $A=XLX^{-1}$
|
|
\end{satz}
|
|
Zusammengefasst:\\
|
|
$A\in\mathbb{C}^{n\times n}$ diagonalisierbar $\Leftrightarrow$ $\exists$ Basis des $\mathbb{C}^n$ aus EV von $A$ $\Leftrightarrow$ $\forall$ EW $\in\mathbb{C}$ von $A$ ist geom. = alg. Vfht.
|
|
\begin{satz}[Diagonalisierbarkeit und Potenzen]
|
|
Ist $\lambda$ Eigenwert von A mit EV $\vec{x}$ und ist $m\in\mathbb{Z}$, so ist $\lambda^m$ EW von $A^m$, und der Eigenraum von $A$ zum EW $\lambda$ stimmt mit dem Eigenraum von $A^m$ zum EW $\lambda^m$ überein.\\
|
|
Ist A diagonalisierbar mit A = $XLX^{-1}$, L Diagonalmatrix, $m\in\mathbb{Z}$, so ist auch $A^m$ mit $A^m = X B^m X^{-1}$ diagonalisierbar.
|
|
\end{satz}
|
|
\subsection{Skalarprodukt, Orthogonalität und Anwendungen}
|
|
\begin{defi}[Euklidisches Skalarprodukt]
|
|
\begin{minipage}{0.5\textwidth}
|
|
Im Reellen: $<\vec{x} , \vec{y}>$ := $\sum\limits_{i=1}^{n} x_i y_i = x^T y$
|
|
\end{minipage}
|
|
\begin{minipage}{0.5\textwidth}
|
|
In Komplexen: $<\vec{x} , \vec{y}>$ := $\sum\limits_{i=1}^{n} x_i \overline{y_i} = x^T \overline{y}$
|
|
\end{minipage}
|
|
\\
|
|
$x_i y_i = x^T y$ und $x^T \overline{y}$ sind dabei als Matrix-Matrix Produkt zu verstehen.
|
|
\end{defi}
|
|
\begin{defi}[Wichtige Eigenschaften des Skalarproduktes]
|
|
S1: $<\vec{x},\vec{x}> \geq 0 \forall \vec{x}\in\mathbb{K}^n$\\
|
|
S2: $<\vec{x},\vec{x}> = 0$ $\Leftrightarrow$ $\vec{x} = \vec{0}$\\
|
|
S3: $<\vec{x},\vec{y}> = \overline{<\vec{y},\vec{x}>} \forall x\in\mathbb{K}^n$\\
|
|
S4: $<\alpha \vec{x},\vec{y}> = \alpha <\vec{x},\vec{y}> \forall \alpha \in\mathbb{K}, \vec{x},\vec{y}\in\mathbb{K}^n$\\
|
|
S5: $<\vec{x} + \vec{y} , \vec{z}> = <\vec{x},\vec{z}> + <\vec{y}, \vec{z}> \forall \vec{x}, \vec{y}, \vec{z} \in\mathbb{K}^n$
|
|
\end{defi}
|
|
% 19 - 04
|
|
\begin{defi}[Skalarprodukt und Orthogonalität]
|
|
Sei $V$ ein $\mathbb{K}$-Vektorraum. Eine Abbildung $<\cdot,\cdot>: V\times V\rightarrow \mathbb{K}$, die die Eigenschaften S1-S5 erfüllt, heißt Skalarprodukt auf V.\\
|
|
$(V, <\cdot,\cdot>)$ nennt man dann einen Vektorraum mit Skalarprodukt.\\
|
|
Vektoren $\vec{x},\vec{y}\in V$ heißen orthogonal bezüglich des Skalarprodukts, falls $<\vec{x},\vec{y}>=0$.
|
|
\end{defi}
|
|
\begin{satz}[Matrizen und Skalarprodukt]
|
|
Für eine Reelle Matrix gilt: \\
|
|
$<\vec{x} , A \vec{y}> = < A^T \vec{x} , \vec{y}>$ und $< A \vec{x} , \vec{y}> = <\vec{x} , A^T \vec{y}> \forall \vec{x},\vec{y}\in\mathbb{R}^n$
|
|
\end{satz}
|
|
\newpage
|
|
\begin{defi}[Norm, bzw. Länge eines Vektors]
|
|
N1: $||\vec{x}||\geq 0 \forall \vec{x}\in \mathbb{K}^n$\\
|
|
N2: $||\vec{x}||=0 \Leftrightarrow \vec{x}=\vec{0}$\\
|
|
N3: $||\alpha\vec{x}||=|\alpha|\ ||\vec{x}|| \forall\vec{x}\in\mathbb{K}^n$\\
|
|
N4: $||\vec{x}+\vec{y}|| \leq ||\vec{x}||+||\vec{y}|| \forall\vec{x},\vec{y}\in\mathbb{K}^n$\\
|
|
\\
|
|
Sei $V$ ein $\mathbb{K}$-Vektorraum. Eine Abbildung $||\cdot||: V\rightarrow \mathbb{R}, \vec{x}\rightarrow ||\vec{x}||$, die die obigen Eigenschaften erfüllt, heißt Norm auf dem Vektorraum $V$.\\
|
|
$(V, ||\cdot||)$ wird als normierter Vektorraum bezeichnet.\\
|
|
\textbf{Euklidische Norm:}\\
|
|
$||\vec{x} := \sqrt{\sum\limits_{i=1}^{n} |{x_i}|^2}$
|
|
\end{defi}
|
|
\begin{satz}[Zusammenhang der Euklidischen Norm und des Skalarproduktes]
|
|
Sei $||\cdot ||$ die euklidische Norm und $<\cdot,\cdot>$ das euklidische Skalarprodukt.
|
|
Es gilt: $||\vec{x}|| = \sqrt{< \vec{x} , \vec{x}>}$
|
|
\end{satz}
|
|
\begin{defi}[Orthogonal und Orthonormalsysteme]
|
|
Orthogonalsystem: Skalarprodukt aller Vektoren = 0\\
|
|
Orthonormalsystem: Skalarprodukt aller Vektoren = 0 und $||\vec{a}_i|| =1$\\
|
|
Die Vektoren beider Systeme sind immer linear unabhängig
|
|
\end{defi}
|
|
\begin{satz}[Darstellung bezüglich einer ONB]
|
|
Sei $\vec{x} \in V$ und sei $\{\vec{b_1},...,\vec{b_n}\}$ eine ONB eines reellen Vektorraumes V, Dann gilt:\\
|
|
$\vec{x} = < \vec{x} , \vec{b_1}> \vec{b_1} + ... + <\vec{x} , \vec{b_n}> \vec{b_n}$
|
|
\end{satz}
|
|
\begin{satz}[Norm eines Vektors bzgl. einer ONB dargestellt]
|
|
Sei $\{\vec{b}_1, ...,\vec{b}_n\}$ ONB eines $\mathbb{R}$-VR und sei $\vec{x}=\sum\limits_{i=1}^{n} \alpha_i \vec{b}_i$ (also $\alpha_i = <\vec{x}, \vec{b}_i>$). Dann ist $||\vec{x}=\sqrt{\sum\limits_{i=1}^{n} \alpha_i^2}$.
|
|
\end{satz}
|
|
\begin{defi}[orthogonale Projektion]
|
|
$\vec{x}_U$ heißt orthogonale Projektion des Vektors $\vec{x} \in$ V auf den Unterraum U von V, wenn es folgende Darstellung gibt: \[\vec{x} = \vec{x}_U + \vec{x}_U^\bot \ mit \ \vec{x}_U \in U \ und \ <\vec{x}_U , \vec{x}_U^\bot> = 0\]
|
|
\end{defi}
|
|
\begin{satz}[Orthogonalprojektion]
|
|
Sei U ein UR eines Vektorraums V, und sei $\{ \vec{b}_1 , ... , \vec{b}_m\}$ eine ONB von U. Sei $\vec{x} \in$ V. Dann berechnet sich die orthogonale Projektion von $\vec{x}$ auf U folgendermaßen:
|
|
$\vec{x}_U = \sum\limits_{i = 1}^{m} <\vec{x} , \vec{b}_i> \vec{b}_i $
|
|
\end{satz}
|
|
Winkelberechnung: $<\vec{a} , \vec{b}> = ||\vec{a}|| \ ||\vec{b}|| $cos $\alpha$
|
|
\end{document}
|