Compare commits

...

4 Commits
main ... main

Author SHA1 Message Date
Stefan Kebekus
0dd5b65ed1 Cleanup 2025-05-09 12:25:00 +02:00
Stefan Kebekus
1c5823c039 Fix lingo 2025-05-07 14:17:36 +02:00
Stefan Kebekus
99b45276c9 Fix error 2025-05-07 11:07:12 +02:00
Stefan Kebekus
3bd5ccd104 Fix errors 2025-05-05 10:33:28 +02:00
7 changed files with 305 additions and 260 deletions

View File

@ -19,3 +19,25 @@ Quotientenvektorraums
Erzeugendensystem Erzeugendensystem
Quotientenvektorräume Quotientenvektorräume
Repräsentantenniveau Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform

View File

@ -7,3 +7,29 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}

View File

@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren die Vektoren
\[ \[
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
v^p_{m_p-a}
\] \]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$. Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.

View File

@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{lem} \end{lem}
\begin{proof}[Beweis als Übungsaufgabe] \begin{proof}[Beweis als Übungsaufgabe]
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n n} + J(0,n)$ und Schreibe wieder einmal $J(λ,n) = λ·\Id_{nn} + J(0,n)$ und
\[ \[
J(λ,n)^p =\bigl( λ·\Id_{n n} + J(0,n) \bigr)^p J(λ,n)^p =\bigl( λ·\Id_{nn} + J(0,n) \bigr)^p
\] \]
Beachten Sie, dass die Matrizen $λ·\Id_{n n}$ und $J(0,n)$ kommutieren, Beachten Sie, dass die Matrizen $λ·\Id_{nn}$ und $J(0,n)$ kommutieren,
dass also die Gleichheit dass also die Gleichheit
\[ \[
λ·\Id_{n n}·J(0,n) = λ·J(0,n)·\Id_{n n} λ·\Id_{nn}·J(0,n) = λ·J(0,n)·\Id_{nn}
\] \]
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen. binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen] \begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(n n)$-Matrix über den komplexen Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$ effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B :=
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[ \[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S. A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\] \]
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\subsection{Wiederholung} \subsection{Wiederholung}
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt, In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
\[ \[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!} \exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}.
\] \]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt wissen, dass für jede reelle Zahl $t$ gilt
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
überlasse ich aber den Kollegen von der Analysis. Gegeben eine überlasse ich aber den Kollegen von der Analysis. Gegeben eine
$(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich $(nn)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[ \[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n. \exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\] \]
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert -- dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung Operatornorm, …. Ich erhalte so eine Abbildung
\[ \[
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n \exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n,
\] \]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}. \href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
\begin{bsp} \begin{bsp}
Es sei $A$ eine komplexe $(n n)$-Diagonalmatrix, Es sei $A$ eine komplexe $(nn)$-Diagonalmatrix,
\[ \[
A = \begin{pmatrix} A = \begin{pmatrix}
λ_1 & & & 0 \\ λ_1 & & & 0 \\
& λ_2 & \\ & λ_2 & \\
& & \ddots \\ & & \ddots \\
0 & & & λ_n 0 & & & λ_n
\end{pmatrix} \end{pmatrix}.
\] \]
Dann ist Dann ist
\[ \[
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\] \]
\end{bsp} \end{bsp}
Etwas Etwas weitergehende Beispiele finden Sie als
weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel \href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des 1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials. Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential] \begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n
$(n n)$-Matrizen. n)$-Matrizen.
\begin{enumerate} \begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$ \item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt ist), dann gilt
@ -208,8 +207,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B). \exp(A+B)=\exp(A)·\exp(B).
\] \]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix \item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$
$S$ ist ist
\[ \[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed \exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\] \]
@ -217,40 +216,40 @@ Matrixexponentials.
\end{fakt} \end{fakt}
\begin{beobachtung} \begin{beobachtung}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1} $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[ \[
\Id_{n n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A). \Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\] \]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(n n)$-Matrix $A$ stets invertierbar ist, und dass $(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
$\exp(A)^{-1} = \exp(-A)$ gilt. gilt.
\end{beobachtung} \end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot} Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen. jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differentialgleichungssysteme} \section{Lineare, homogene Differenzialgleichungssysteme}
\subsection{Erinnerung} \subsection{Erinnerung}
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $ eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t)
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
Analysis wissen Sie, dass es nur eine solche Funktion gibt: Sie, dass es nur eine solche Funktion gibt:
$$ $$
y(t) = \exp(t·a)·y_0. y(t) = \exp(t·a)·y_0.
$$ $$
Dasselbe funktioniert genau so mit komplexen Zahlen. Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differentialgleichungssysteme} \subsection{Lineare, homogene Differenzialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$ Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt: …, $y_n : $, sodass für alle $t ∈ $ gilt:
\[ \[
\begin{pmatrix} \begin{pmatrix}
y'_1(t) \\ y'_1(t) \\
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
y_2(t) \\ y_2(t) \\
\vdots \\ \vdots \\
y_n(t) y_n(t)
\end{pmatrix} \end{pmatrix}.
\] \]
Außerdem soll Außerdem soll
\[ \[
@ -279,8 +278,8 @@ Außerdem soll
\] \]
sein. sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1} \begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als gegeben als
\[ \[
\begin{pmatrix} \begin{pmatrix}
@ -299,12 +298,12 @@ sein.
\end{bsp} \end{bsp}
\subsection{Differentialgleichungen höherer Ordnung} \subsection{Differenzialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $,
$y : $, so dass für alle $t ∈ $ gilt: sodass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1} \begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t). y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation} \end{equation}
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\ y_0 \\
y'_0 \\ y'_0 \\
y''_0 y''_0
\end{pmatrix} \end{pmatrix}.
\] \]
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme, Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen. Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp} \begin{bsp}

View File

@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰. f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\] \]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt $x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
``Polynome''.
\begin{defn}[Polynome] \begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$. Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp} \end{bsp}
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben $t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich. Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
Selbstabbildungen des endlichen Körpers $𝔽_2$. des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen] \begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -68,17 +67,16 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
\] \]
genannt genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}. \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
Matrix $p(A)$ und eine eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} \Mat(nn, k)$ durch $s(A) = p(A)$.
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
\end{defn} \end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6} \begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
Matrix $S ∈ GL_n(k)$ haben, dann ist GL_n(k)$ haben, dann ist
\[ \[
p(S·A·S^{-1}) = S·p(A)·S^{-1}. p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\] \]
@ -100,6 +98,10 @@ Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das? Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}] \begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1} \video{6-1}
\end{proof} \end{proof}
@ -108,22 +110,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten. das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7} \begin{beobachtung}\label{beob:4-0-7}%
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder $p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist. 1 ist.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8} \begin{beobachtung}\label{beob:4-0-8}%
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
$q := p_1-p_2$. Dann gilt Folgendes. := p_1-p_2$. Dann gilt Folgendes.
\begin{itemize} \begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom. \item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$. \item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -151,7 +153,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
dies Minimalpolynome eindeutig bestimmt ist. das Minimalpolynom eindeutig bestimmt ist.
\end{bemerkung} \end{bemerkung}
\begin{bsp} \begin{bsp}
@ -162,9 +164,9 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\ 5 & 1 & 0 \\
0 & 5 & 0 \\ 0 & 5 & 0 \\
0 & 0 & 5 0 & 0 & 5
\end{pmatrix} \end{pmatrix}.
\] \]
Da die Matrix $A$ kein Vielfaches von $\Id_{3 3}$, ist das Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
\[ \[
A² = A² =
@ -172,9 +174,9 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\ 25 & 10 & 0 \\
0 & 25 & 0 \\ 0 & 25 & 0 \\
0 & 0 & 25 0 & 0 & 25
\end{pmatrix} \end{pmatrix}.
\] \]
Also ist $-10·A+25·\Id_{3 3} = 0$. Also ist Also ist $-10·A+25·\Id_{33} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle $p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
hat. Das muss dann wohl das Minimalpolynom sein. hat. Das muss dann wohl das Minimalpolynom sein.
\end{bsp} \end{bsp}
@ -190,13 +192,13 @@ Diese Beobachtungen legen folgende Definition nahe.
Minimalpolynom. Minimalpolynom.
\end{beobachtung} \end{beobachtung}
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms. Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle] \begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$ In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist. ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -207,9 +209,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$ \item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind. als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate} \end{enumerate}
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
normiert ist und $f$ als Nullstelle hat. Also hat und $f$ als Nullstelle hat. Also hat
\[ \[
r(t) = q(t) - t^d·p(t) r(t) = q(t) - t^d·p(t)
\] \]
@ -220,8 +222,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\end{proof} \end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms] \begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$.
$λ ∈ k$. TFAE: TFAE:
\begin{enumerate} \begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$. \item Das Skalar $λ$ ist ein Eigenwert von $A$.
@ -239,7 +241,7 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
vollständig beantworten. vollständig beantworten.
\begin{satz}[Beschreibung des Minimalpolynoms über $$] \begin{satz}[Beschreibung des Minimalpolynoms über $$]
Es sei $A$ eine $(n n)$-Matrix über den komplexen Zahlen. Bezeichne die Es sei $A$ eine $(nn)$-Matrix über den komplexen Zahlen. Bezeichne die
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$ Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
\[ \[
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i. m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand} \section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end} \label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume \sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
dann beliebige Vektorräume. beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$] \begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -49,17 +49,16 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen} \section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren. beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn} \begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen \emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
oder \emph{metrikerhaltend bezüglich der Euklidischen \emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm}, Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
falls gilt:
\[ \[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x}, d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n. \vec{y}^n.
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen. Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen] \begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
bezüglich der Euklidischen Norm. Dann gilt Folgendes. der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv. \item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -102,20 +101,20 @@ Abbildungen.
\end{enumerate} \end{enumerate}
\end{lem} \end{lem}
\begin{proof} \begin{proof}
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}: Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist φ(\vec{v}_2)$. Dann ist
\[ \[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0. d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\] \]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$ Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe. \ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof} \end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5} \begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor} \end{kor}
@ -131,16 +130,16 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung Abbildung
\[ \[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} . ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
\] \]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$. wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung} \end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''. Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf} \begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$ Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine $^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
@ -162,10 +161,10 @@ Transformation eine Gruppe bilden.
\end{defn} \end{defn}
\section{Das Standard-Skalarprodukt auf dem $^n$} \section{Das Standardskalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$. Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$] \begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -197,30 +196,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst? Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts] \begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes: Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
\begin{description} \begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z} \langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle \rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\] \]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y} \langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle \rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\] \]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt \item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt \vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$. \vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt \item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$. $\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$ \item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt und $\vec{y}^n$ gilt
\[ \[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y} \| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -242,9 +241,9 @@ scheint.
\begin{defn}[Orthonormalbasis] \begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
Kronecker-Delta bezeichnet. bezeichnet.
\end{defn} \end{defn}
\begin{bsp} \begin{bsp}
@ -296,12 +295,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\ &= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras} &= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
\end{align*} \end{align*}
Damit ist das Lemma bewiesen. Damit ist das Lemma bewiesen.
\end{proof} \end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8} \begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -315,9 +314,9 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen} \section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5} \label{sec:5-5}
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
Abbildungen) vollständig beschreiben. vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1} \begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
@ -337,7 +336,7 @@ Abbildungen) vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\ η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\ &= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\ &= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\ &= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}). &= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -374,8 +373,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}. \emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn} \end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3} Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form. überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -8,26 +8,26 @@
\section{Bilinearformen und Skalarprodukte} \section{Bilinearformen und Skalarprodukte}
\label{sec:skalar} \label{sec:skalar}
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es \sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen (und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
und zu diskutieren. Hier kommen alle relevanten Definitionen. diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1} \begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder $b: VV → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt. \emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle \item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt ∈ V $ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) + b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}). λ·b(\vec{y}, \vec{z}).
\] \]
\item[Linearität in der zweiten Komponente] Für alle \item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) + b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) . λ·b(\vec{x}, \vec{z}) .
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{description} \end{description}
\end{defn} \end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2} \begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum. Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba} \begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$.
$n n$-Matrix $B$. Dann ist die Abbildung Dann ist die Abbildung
\[ \[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦ b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w} \vec{v}^{\:t}·B·\vec{w}
\] \]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe.
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind, $\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$ 1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren 1$-Matrizen mit den Skalaren identifizieren.
identifizieren.
\end{bsp} \end{bsp}
\begin{defn}[Symmetrische Bilinearform] \begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$
$b : V V → k$ heißt heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$, $\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$ \vec{x})$ gilt.
gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4} \begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen. Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA} \begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$ Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[ \[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} = \Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}. \vec{w}^{\:t}·B^\vec{v}.
@ -86,21 +84,21 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}. \emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5} \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x}, \vec{x})
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv ≥ 0$ gilt. Nenne $b$ \emph{positiv definit}\index{Bilinearform!positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls definit}\index{positiv definit} falls zusätzlich für alle $\vec{x} ∈ V$ gilt:
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$. $b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn} \end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$] \begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll. anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum] \begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -124,10 +122,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad \end{pmatrix}, \quad
\begin{pmatrix} \begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2 π & -e \\ \frac{-256}{257} & 2
\end{pmatrix} \end{pmatrix}.
\] \]
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'', Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
``positiv semidefinit'', ``positiv definit'' und … ? semidefinit“, „positiv definit“ und … ?
\end{bsp} \end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum] \begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -138,17 +136,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung] \begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist ⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt. ein Skalarprodukt.
\end{bsp} \end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration} \begin{bsp}[Integration]\label{bsp:Integration}%
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
\[ \[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt. \langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -156,46 +154,46 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen} \subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen. Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!'' wir das mit Bilinearformen? Kurz gesagt: „Ja!“
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
beschreiben. Das gibt es im Leben öfter. Das gibt es im Leben öfter.
\begin{quote} \begin{quote}
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch „Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren'' beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}). \href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote} \end{quote}
Wir betrachten die folgende Situation. Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1} \begin{situation}\label{sit:6-3-1}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$. Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation} \end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2} \begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$ In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben.
gegeben. Dann betrachte die $nn$-Matrix Dann betrachte die $nn$-Matrix
\[ \[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n} \Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\] \]
\end{konstruktion} \end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3} \begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann
die Bilinearform betrachte die Bilinearform
\[ \[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦ s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w}) φ_B(\vec{v})^t·A·φ_B(\vec{w})
\] \]
\end{konstruktion} \end{konstruktion}
@ -210,9 +208,9 @@ Wir betrachten die folgende Situation.
\end{tikzcd} \end{tikzcd}
\] \]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen. ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe} \end{aufgabe}
\begin{beobachtung} \begin{beobachtung}
@ -221,8 +219,8 @@ Wir betrachten die folgende Situation.
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
Bilinearformen endlich-dimensional sind. Genauer: Bilinearformen endlich-dimensional sind. Genauer:
\begin{align*} \begin{align*}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n n$-Matrizen}) = n² \\ \dim_k (\text{Bilinearformen}) &= \dim_k (\text{$nn$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n n$-Matrizen}) = \frac{n(n+1)}{2} \dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$nn$-Matrizen}) = \frac{n(n+1)}{2}
\end{align*} \end{align*}
\end{beobachtung} \end{beobachtung}
@ -231,7 +229,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform Bilinearform
\[ \[
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
\] \]
Dann ist Dann ist
\[ \[
@ -248,8 +246,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel} \subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$, Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$? Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung} \begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -267,9 +265,9 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und $V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_
$M_{} := \Mat_{B_{}}(b)$. Dann ist := \Mat_{B_{}}(b)$. Dann ist
\[ \[
M_1 = S^t·M_2·S. M_1 = S^t·M_2·S.
\] \]
@ -282,27 +280,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern, Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$ Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss. nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte} \section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man \sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung: Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden Definition von „positiv definit“. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht. Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1} \begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb} \emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: V V → $, so dass Folgendes gilt. ist eine Abbildung $b: VV → $, sodass Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle \item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt $\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
@ -324,18 +322,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$. $x+i·y ↦ x - i·y$.
\end{defn} \end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2} \begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum. Menge der Sesquilinearformen einen reellen Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC} \begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$.
$n n$-Matrix $B$. Dann ist die Abbildung Dann ist die Abbildung
\[ \[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦ b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}} \vec{v}^{\:t}·B·\overline{\vec{w}}
@ -360,24 +358,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp} \end{bsp}
\begin{defn}[Hermitesche Sesquilinearform] \begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV →
$b : V V → $ heißt $ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles \emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$, Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt. \overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs} \begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
Es sei $b : V V → $ eine Hermitesche Sesquilinearform. Dann gilt Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss. imaginäre Anteil verschwinden muss.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4} \begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -386,12 +384,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet. Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5} \begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
\emph{kein} komplexer Vektorraum. komplexer Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen] \begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -400,23 +398,23 @@ Definitionen gibt der Sache aber recht.
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
tun? tun?
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5} \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} =
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$. \vec{0}$.
\end{defn} \end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8} \begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
Es sei $V$ ein komplexer Vektorraum. Ein Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform. positiv definite, Hermitesche Sesquilinearform.
@ -454,8 +452,8 @@ Definitionen gibt der Sache aber recht.
Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[ \[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 \langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt. f(t)·\overline{g(t)} dt
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -488,11 +486,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an. gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen] \begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$. bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize} \begin{itemize}
\item Gegeben eine Sesquilinearform $b : V V → k$, dann betrachte die \item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die
$nn$-Matrix $nn$-Matrix
\[ \[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr) \Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
@ -501,7 +499,7 @@ gehen, geben wir nur die Ergebnisse an.
\item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die \item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die
Sesquilinearlinearform Sesquilinearlinearform
\[ \[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦ s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})} φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
\] \]
\end{itemize} \end{itemize}
@ -514,12 +512,12 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"] \text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd} \end{tikzcd}
\] \]
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren. welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz. Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Sesquilinearform $b : V V → k$ und zwei angeordnete Basen, $V$, eine Sesquilinearform $b : VV → k$ und zwei angeordnete Basen,
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann $B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann
ist ist
\[ \[