Compare commits

...

4 Commits
main ... main

Author SHA1 Message Date
Stefan Kebekus
0dd5b65ed1 Cleanup 2025-05-09 12:25:00 +02:00
Stefan Kebekus
1c5823c039 Fix lingo 2025-05-07 14:17:36 +02:00
Stefan Kebekus
99b45276c9 Fix error 2025-05-07 11:07:12 +02:00
Stefan Kebekus
3bd5ccd104 Fix errors 2025-05-05 10:33:28 +02:00
7 changed files with 305 additions and 260 deletions

View File

@ -19,3 +19,25 @@ Quotientenvektorraums
Erzeugendensystem
Quotientenvektorräume
Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform

View File

@ -7,3 +7,29 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}

View File

@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren
\[
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
v^p_{m_p-a}
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
\]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.

View File

@ -117,9 +117,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B :=
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\]
@ -133,7 +133,7 @@ macht die Formel kurz und in der Praxis gut berechenbar.
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
\[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}.
\]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt
@ -152,12 +152,12 @@ $(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\]
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in
dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung
\[
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n
\exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n,
\]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
@ -171,7 +171,7 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
& λ_2 & \\
& & \ddots \\
0 & & & λ_n
\end{pmatrix}
\end{pmatrix}.
\]
Dann ist
\[
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\]
\end{bsp}
Etwas
weitergehende Beispiele finden Sie als
Etwas weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe
$(n n)$-Matrizen.
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n
n)$-Matrizen.
\begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt
@ -208,8 +207,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B).
\]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix
$S$ ist
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$
ist
\[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\]
@ -217,40 +216,40 @@ Matrixexponentials.
\end{fakt}
\begin{beobachtung}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[
\Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(n n)$-Matrix $A$ stets invertierbar ist, und dass
$\exp(A)^{-1} = \exp(-A)$ gilt.
$(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
gilt.
\end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differentialgleichungssysteme}
\section{Lineare, homogene Differenzialgleichungssysteme}
\subsection{Erinnerung}
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t)
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
Sie, dass es nur eine solche Funktion gibt:
$$
y(t) = \exp(t·a)·y_0.
$$
Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differentialgleichungssysteme}
\subsection{Lineare, homogene Differenzialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein
Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
…, $y_n : $, sodass für alle $t ∈ $ gilt:
\[
\begin{pmatrix}
y'_1(t) \\
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
y_2(t) \\
\vdots \\
y_n(t)
\end{pmatrix}
\end{pmatrix}.
\]
Außerdem soll
\[
@ -279,8 +278,8 @@ Außerdem soll
\]
sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als
\[
\begin{pmatrix}
@ -299,12 +298,12 @@ sein.
\end{bsp}
\subsection{Differentialgleichungen höherer Ordnung}
\subsection{Differenzialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
$y : $, so dass für alle $t ∈ $ gilt:
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $,
sodass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation}
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\
y'_0 \\
y''_0
\end{pmatrix}
\end{pmatrix}.
\]
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp}

View File

@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
``Polynome''.
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
\begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp}
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
Selbstabbildungen des endlichen Körpers $𝔽_2$.
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
$t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -68,17 +67,16 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
\]
genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
Matrix $p(A)$ und eine
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
\Mat(nn, k)$ durch $s(A) = p(A)$.
\end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
Matrix $S ∈ GL_n(k)$ haben, dann ist
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
GL_n(k)$ haben, dann ist
\[
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\]
@ -100,6 +98,10 @@ Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1}
\end{proof}
@ -111,19 +113,19 @@ Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7}
\begin{beobachtung}\label{beob:4-0-7}%
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist.
\end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8}
\begin{beobachtung}\label{beob:4-0-8}%
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
$q := p_1-p_2$. Dann gilt Folgendes.
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
:= p_1-p_2$. Dann gilt Folgendes.
\begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -151,7 +153,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
dies Minimalpolynome eindeutig bestimmt ist.
das Minimalpolynom eindeutig bestimmt ist.
\end{bemerkung}
\begin{bsp}
@ -162,7 +164,7 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\
0 & 5 & 0 \\
0 & 0 & 5
\end{pmatrix}
\end{pmatrix}.
\]
Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
@ -172,7 +174,7 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\
0 & 25 & 0 \\
0 & 0 & 25
\end{pmatrix}
\end{pmatrix}.
\]
Also ist $-10·A+25·\Id_{33} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
@ -190,13 +192,13 @@ Diese Beobachtungen legen folgende Definition nahe.
Minimalpolynom.
\end{beobachtung}
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
\end{satz}
\begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -207,9 +209,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate}
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
normiert ist und $f$ als Nullstelle hat. Also hat
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
und $f$ als Nullstelle hat. Also hat
\[
r(t) = q(t) - t^d·p(t)
\]
@ -220,8 +222,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und
$λ ∈ k$. TFAE:
Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$.
TFAE:
\begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir
dann beliebige Vektorräume.
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -49,17 +49,16 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
oder \emph{metrikerhaltend bezüglich der Euklidischen
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
falls gilt:
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
\[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n.
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -102,20 +101,20 @@ Abbildungen.
\end{enumerate}
\end{lem}
\begin{proof}
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
φ(\vec{v}_2)$. Dann ist
\[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$
ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor}
@ -131,16 +130,16 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung
\[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
\]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
@ -162,10 +161,10 @@ Transformation eine Gruppe bilden.
\end{defn}
\section{Das Standard-Skalarprodukt auf dem $^n$}
\section{Das Standardskalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -197,30 +196,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes:
Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
\begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$.
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
\item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -242,9 +241,9 @@ scheint.
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
Kronecker-Delta bezeichnet.
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
bezeichnet.
\end{defn}
\begin{bsp}
@ -296,12 +295,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
\end{align*}
Damit ist das Lemma bewiesen.
\end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -315,9 +314,9 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5}
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden
Abbildungen) vollständig beschreiben.
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
@ -337,7 +336,7 @@ Abbildungen) vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -374,8 +373,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale
Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2

View File

@ -8,10 +8,10 @@
\section{Bilinearformen und Skalarprodukte}
\label{sec:skalar}
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
und zu diskutieren. Hier kommen alle relevanten Definitionen.
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
@ -19,15 +19,15 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
∈ V $ und für alle $λ ∈ k$ gilt
\[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}).
\]
\item[Linearität in der zweiten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) .
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{description}
\end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w}
\]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind,
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren
identifizieren.
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht
mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe.
Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
$\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1
1$-Matrizen mit den Skalaren identifizieren.
\end{bsp}
\begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
$b : V V → k$ heißt
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
gilt.
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
\vec{x})$ gilt.
\end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}.
@ -86,21 +84,21 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x}, \vec{x})
≥ 0$ gilt. Nenne $b$ \emph{positiv definit}\index{Bilinearform!positiv
definit}\index{positiv definit} falls zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll.
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $
und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei
anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
\end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -124,10 +122,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad
\begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2
\end{pmatrix}
\end{pmatrix}.
\]
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
``positiv semidefinit'', ``positiv definit'' und … ?
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
semidefinit“, „positiv definit“ und … ?
\end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -138,17 +136,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt.
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder
ein Skalarprodukt.
\end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration}
\begin{bsp}[Integration]\label{bsp:Integration}%
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
\]
ist ein Skalarprodukt.
\end{bsp}
@ -156,44 +154,44 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare
Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
beschreiben. Das gibt es im Leben öfter.
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
Das gibt es im Leben öfter.
\begin{quote}
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote}
Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1}
\begin{situation}\label{sit:6-3-1}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$
gegeben. Dann betrachte die $nn$-Matrix
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben.
Dann betrachte die $nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\]
\end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte
die Bilinearform
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann
betrachte die Bilinearform
\[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w})
@ -210,9 +208,9 @@ Wir betrachten die folgende Situation.
\end{tikzcd}
\]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe}
\begin{beobachtung}
@ -231,7 +229,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform
\[
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
\]
Dann ist
\[
@ -248,8 +246,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -268,8 +266,8 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
$M_{} := \Mat_{B_{}}(b)$. Dann ist
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_
:= \Mat_{B_{}}(b)$. Dann ist
\[
M_1 = S^t·M_2·S.
\]
@ -282,25 +280,25 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
Definition von „positiv definit“. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: VV → $, sodass Folgendes gilt.
\begin{description}
@ -324,18 +322,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$.
\end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
Menge der Sesquilinearformen einen reellen Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$.
Dann ist die Abbildung
\[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}}
@ -360,24 +358,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp}
\begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
$b : V V → $ heißt
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV →
$ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
\overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -386,12 +384,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
\emph{kein} komplexer Vektorraum.
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
komplexer Vektorraum.
\end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -405,18 +403,18 @@ Definitionen gibt der Sache aber recht.
tun?
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
\vec{0}$.
\end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform.
@ -455,7 +453,7 @@ Definitionen gibt der Sache aber recht.
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt.
f(t)·\overline{g(t)} dt
\]
ist ein Skalarprodukt.
\end{bsp}
@ -488,8 +486,8 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize}
\item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die
@ -514,7 +512,7 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]