forked from kebekus/LineareAlgebra2
Compare commits
4 Commits
Author | SHA1 | Date | |
---|---|---|---|
![]() |
0dd5b65ed1 | ||
![]() |
1c5823c039 | ||
![]() |
99b45276c9 | ||
![]() |
3bd5ccd104 |
22
.vscode/ltex.dictionary.de-DE.txt
vendored
22
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -19,3 +19,25 @@ Quotientenvektorraums
|
|||||||
Erzeugendensystem
|
Erzeugendensystem
|
||||||
Quotientenvektorräume
|
Quotientenvektorräume
|
||||||
Repräsentantenniveau
|
Repräsentantenniveau
|
||||||
|
Jordanscher
|
||||||
|
Matrixexponential
|
||||||
|
Matrixexponentials
|
||||||
|
Einsetzungsabbildung
|
||||||
|
Cayley-Hamilton
|
||||||
|
TFAE
|
||||||
|
Jordanblocks
|
||||||
|
Einsetzungsmorphismus
|
||||||
|
Abstandserhaltende
|
||||||
|
abstandserhaltend
|
||||||
|
metrikerhaltend
|
||||||
|
abstandserhaltenden
|
||||||
|
abstandserhaltender
|
||||||
|
abstandserhaltende
|
||||||
|
Definitheit
|
||||||
|
ONB
|
||||||
|
Kronecker-Delta
|
||||||
|
semidefinit
|
||||||
|
Bytestrings
|
||||||
|
Bilinearität
|
||||||
|
Semilinearität
|
||||||
|
Sesquilinearlinearform
|
||||||
|
26
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
26
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -7,3 +7,29 @@
|
|||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
||||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
||||||
|
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
|
||||||
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
|
||||||
|
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
|
||||||
|
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||||
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe – wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
|
||||||
|
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}
|
||||||
|
@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
|
|||||||
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
||||||
die Vektoren
|
die Vektoren
|
||||||
\[
|
\[
|
||||||
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
|
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
|
||||||
v^p_{m_p-a}
|
|
||||||
\]
|
\]
|
||||||
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
||||||
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
||||||
|
@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
|||||||
\end{lem}
|
\end{lem}
|
||||||
|
|
||||||
\begin{proof}[Beweis als Übungsaufgabe]
|
\begin{proof}[Beweis als Übungsaufgabe]
|
||||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯ n} + J(0,n)$ und
|
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯n} + J(0,n)$ und
|
||||||
\[
|
\[
|
||||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯ n} + J(0,n) \bigr)^p
|
J(λ,n)^p =\bigl( λ·\Id_{n⨯n} + J(0,n) \bigr)^p
|
||||||
\]
|
\]
|
||||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯ n}$ und $J(0,n)$ kommutieren,
|
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯n}$ und $J(0,n)$ kommutieren,
|
||||||
dass also die Gleichheit
|
dass also die Gleichheit
|
||||||
\[
|
\[
|
||||||
λ·\Id_{n⨯ n}·J(0,n) = λ·J(0,n)·\Id_{n⨯ n}
|
λ·\Id_{n⨯n}·J(0,n) = λ·J(0,n)·\Id_{n⨯n}
|
||||||
\]
|
\]
|
||||||
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
|
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
|
||||||
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
|
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
|
||||||
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
|||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
||||||
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
Es sei $A$ eine beliebige quadratische $(n⨯n)$-Matrix über den komplexen
|
||||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
|
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
|
||||||
eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, so dass $B := S·A·S^{-1}$
|
effizient eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, sodass $B :=
|
||||||
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||||
\[
|
\[
|
||||||
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
||||||
\]
|
\]
|
||||||
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
|||||||
|
|
||||||
\subsection{Wiederholung}
|
\subsection{Wiederholung}
|
||||||
|
|
||||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
|
||||||
\[
|
\[
|
||||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}
|
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}.
|
||||||
\]
|
\]
|
||||||
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
||||||
wissen, dass für jede reelle Zahl $t$ gilt
|
wissen, dass für jede reelle Zahl $t$ gilt
|
||||||
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
|
|||||||
|
|
||||||
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
|
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
|
||||||
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
|
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
|
||||||
$(n⨯ n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
$(n⨯n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||||
\[
|
\[
|
||||||
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
||||||
\]
|
\]
|
||||||
Dabei sei $A⁰$ stets die $(n⨯ n)$-Einheitsmatrix. Diese Reihe konvergiert
|
Dabei sei $A⁰$ stets die $(n⨯n)$-Einheitsmatrix. Diese Reihe konvergiert in
|
||||||
in dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||||
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
||||||
Operatornorm, …. Ich erhalte so eine Abbildung
|
Operatornorm, …. Ich erhalte so eine Abbildung
|
||||||
\[
|
\[
|
||||||
\exp : \Mat_{n⨯ n}(ℂ) → \Mat_{n⨯ n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n
|
\exp : \Mat_{n⨯n}(ℂ) → \Mat_{n⨯n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n,
|
||||||
\]
|
\]
|
||||||
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
||||||
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||||
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
|
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
Es sei $A$ eine komplexe $(n⨯ n)$-Diagonalmatrix,
|
Es sei $A$ eine komplexe $(n⨯n)$-Diagonalmatrix,
|
||||||
\[
|
\[
|
||||||
A = \begin{pmatrix}
|
A = \begin{pmatrix}
|
||||||
λ_1 & & & 0 \\
|
λ_1 & & & 0 \\
|
||||||
& λ_2 & \\
|
& λ_2 & \\
|
||||||
& & \ddots \\
|
& & \ddots \\
|
||||||
0 & & & λ_n
|
0 & & & λ_n
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
|||||||
\]
|
\]
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Etwas
|
Etwas weitergehende Beispiele finden Sie als
|
||||||
weitergehende Beispiele finden Sie als
|
|
||||||
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
||||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||||
Matrixexponentials.
|
Matrixexponentials.
|
||||||
|
|
||||||
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe
|
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n⨯
|
||||||
$(n⨯ n)$-Matrizen.
|
n)$-Matrizen.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
||||||
ist), dann gilt
|
ist), dann gilt
|
||||||
@ -208,8 +207,8 @@ Matrixexponentials.
|
|||||||
\exp(A+B)=\exp(A)·\exp(B).
|
\exp(A+B)=\exp(A)·\exp(B).
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯ n)$-Matrix
|
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯n)$-Matrix $S$
|
||||||
$S$ ist
|
ist
|
||||||
\[
|
\[
|
||||||
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
||||||
\]
|
\]
|
||||||
@ -217,40 +216,40 @@ Matrixexponentials.
|
|||||||
\end{fakt}
|
\end{fakt}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Wenn $A$ irgendeine komplexe $(n⨯ n)$-Matrix ist, dann kommutieren die
|
Wenn $A$ irgendeine komplexe $(n⨯n)$-Matrix ist, dann kommutieren die Matrizen
|
||||||
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||||
\[
|
\[
|
||||||
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
\Id_{n⨯n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||||
\]
|
\]
|
||||||
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
||||||
$(n⨯ n)$-Matrix $A$ stets invertierbar ist, und dass
|
$(n⨯n)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
|
||||||
$\exp(A)^{-1} = \exp(-A)$ gilt.
|
gilt.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
||||||
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
||||||
|
|
||||||
|
|
||||||
\section{Lineare, homogene Differentialgleichungssysteme}
|
\section{Lineare, homogene Differenzialgleichungssysteme}
|
||||||
|
|
||||||
\subsection{Erinnerung}
|
\subsection{Erinnerung}
|
||||||
|
|
||||||
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
|
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
|
||||||
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||||
eine differenzierbare Funktion $y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$
|
eine differenzierbare Funktion $y : ℝ → ℝ$, sodass für alle $t ∈ ℝ$ gilt: $y'(t)
|
||||||
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
|
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
|
||||||
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
|
Sie, dass es nur eine solche Funktion gibt:
|
||||||
$$
|
$$
|
||||||
y(t) = \exp(t·a)·y_0.
|
y(t) = \exp(t·a)·y_0.
|
||||||
$$
|
$$
|
||||||
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Lineare, homogene Differentialgleichungssysteme}
|
\subsection{Lineare, homogene Differenzialgleichungssysteme}
|
||||||
|
|
||||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯ n)$-Matrix $A$
|
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯n)$-Matrix $A$ und ein
|
||||||
und ein Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare
|
Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
|
||||||
Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
…, $y_n : ℂ → ℂ$, sodass für alle $t ∈ ℂ$ gilt:
|
||||||
\[
|
\[
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
y'_1(t) \\
|
y'_1(t) \\
|
||||||
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
|||||||
y_2(t) \\
|
y_2(t) \\
|
||||||
\vdots \\
|
\vdots \\
|
||||||
y_n(t)
|
y_n(t)
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Außerdem soll
|
Außerdem soll
|
||||||
\[
|
\[
|
||||||
@ -279,8 +278,8 @@ Außerdem soll
|
|||||||
\]
|
\]
|
||||||
sein.
|
sein.
|
||||||
|
|
||||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
|
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
|
||||||
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||||
gegeben als
|
gegeben als
|
||||||
\[
|
\[
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
@ -299,12 +298,12 @@ sein.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
|
|
||||||
\subsection{Differentialgleichungen höherer Ordnung}
|
\subsection{Differenzialgleichungen höherer Ordnung}
|
||||||
|
|
||||||
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
||||||
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
|
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : ℝ → ℝ$,
|
||||||
$y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$ gilt:
|
sodass für alle $t ∈ ℝ$ gilt:
|
||||||
\begin{equation}\label{eq:3-3-2-1}
|
\begin{equation}\label{eq:3-3-2-1}
|
||||||
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
||||||
\end{equation}
|
\end{equation}
|
||||||
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
|
|||||||
y_0 \\
|
y_0 \\
|
||||||
y'_0 \\
|
y'_0 \\
|
||||||
y''_0
|
y''_0
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
|
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
|
||||||
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
|
@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
|
|||||||
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
||||||
\]
|
\]
|
||||||
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
||||||
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
|
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
|
||||||
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
|
||||||
``Polynome''.
|
|
||||||
|
|
||||||
\begin{defn}[Polynome]
|
\begin{defn}[Polynome]
|
||||||
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
||||||
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
|||||||
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
|
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
|
||||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
|
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
|
||||||
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
|
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
|
||||||
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
|
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
|
||||||
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
|
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
|
||||||
dann sind die Polynome $t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben
|
$t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
|
||||||
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
|
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
|
||||||
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
|
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
|
||||||
Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
des endlichen Körpers $𝔽_2$.
|
||||||
|
|
||||||
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
||||||
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
||||||
@ -68,17 +67,16 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
|||||||
\]
|
\]
|
||||||
genannt
|
genannt
|
||||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
||||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
|
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
|
||||||
Matrix $p(A)$ und eine
|
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
|
||||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
|
→ \Mat(n⨯n, k)$ durch $s(A) = p(A)$.
|
||||||
$s: k[t] → \Mat(n⨯ n, k)$ durch $s(A) = p(A)$.
|
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
|
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
|
||||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
|
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
|
||||||
Matrix $S ∈ GL_n(k)$ haben, dann ist
|
GL_n(k)$ haben, dann ist
|
||||||
\[
|
\[
|
||||||
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
||||||
\]
|
\]
|
||||||
@ -100,6 +98,10 @@ Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
|
|||||||
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||||
|
|
||||||
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
|
||||||
|
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
|
||||||
|
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
|
||||||
|
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
|
||||||
|
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
|
||||||
\video{6-1}
|
\video{6-1}
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
@ -108,22 +110,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
|||||||
|
|
||||||
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
|
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
|
||||||
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
||||||
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||||
das Nullpolynom betrachten.
|
das Nullpolynom betrachten.
|
||||||
|
|
||||||
\begin{beobachtung}\label{beob:4-0-7}
|
\begin{beobachtung}\label{beob:4-0-7}%
|
||||||
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
||||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder
|
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder ein
|
||||||
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||||
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
||||||
1 ist.
|
1 ist.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}\label{beob:4-0-8}
|
\begin{beobachtung}\label{beob:4-0-8}%
|
||||||
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
||||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
|
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
|
||||||
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
|
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
|
||||||
$q := p_1-p_2$. Dann gilt Folgendes.
|
:= p_1-p_2$. Dann gilt Folgendes.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
||||||
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
||||||
@ -151,7 +153,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
||||||
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
||||||
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
||||||
dies Minimalpolynome eindeutig bestimmt ist.
|
das Minimalpolynom eindeutig bestimmt ist.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
@ -162,9 +164,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
5 & 1 & 0 \\
|
5 & 1 & 0 \\
|
||||||
0 & 5 & 0 \\
|
0 & 5 & 0 \\
|
||||||
0 & 0 & 5
|
0 & 0 & 5
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯3}$, ist das
|
||||||
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
||||||
\[
|
\[
|
||||||
A² =
|
A² =
|
||||||
@ -172,9 +174,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
25 & 10 & 0 \\
|
25 & 10 & 0 \\
|
||||||
0 & 25 & 0 \\
|
0 & 25 & 0 \\
|
||||||
0 & 0 & 25
|
0 & 0 & 25
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
Also ist $A²-10·A+25·\Id_{3⨯3} = 0$. Also ist
|
||||||
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
||||||
hat. Das muss dann wohl das Minimalpolynom sein.
|
hat. Das muss dann wohl das Minimalpolynom sein.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -190,13 +192,13 @@ Diese Beobachtungen legen folgende Definition nahe.
|
|||||||
Minimalpolynom.
|
Minimalpolynom.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||||
|
|
||||||
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
||||||
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
||||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
|
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
|
||||||
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
|
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
|
||||||
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
|
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
||||||
@ -207,9 +209,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
|||||||
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
||||||
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
|
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
|
||||||
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
|
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
|
||||||
normiert ist und $f$ als Nullstelle hat. Also hat
|
und $f$ als Nullstelle hat. Also hat
|
||||||
\[
|
\[
|
||||||
r(t) = q(t) - t^d·p(t)
|
r(t) = q(t) - t^d·p(t)
|
||||||
\]
|
\]
|
||||||
@ -220,8 +222,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
|||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{satz}[Nullstellen des Minimalpolynoms]
|
\begin{satz}[Nullstellen des Minimalpolynoms]
|
||||||
Es sei $k$ eine Körper, $A$ eine $(n⨯ n)$-Matrix mit Werten in $k$ und
|
Es sei $k$ ein Körper, $A$ eine $(n⨯n)$-Matrix mit Werten in $k$ und $λ ∈ k$.
|
||||||
$λ ∈ k$. TFAE:
|
TFAE:
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
||||||
|
|
||||||
@ -239,7 +241,7 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
|||||||
vollständig beantworten.
|
vollständig beantworten.
|
||||||
|
|
||||||
\begin{satz}[Beschreibung des Minimalpolynoms über $ℂ$]
|
\begin{satz}[Beschreibung des Minimalpolynoms über $ℂ$]
|
||||||
Es sei $A$ eine $(n⨯ n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
Es sei $A$ eine $(n⨯n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||||
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
|
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
|
||||||
\[
|
\[
|
||||||
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
|
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
|
||||||
|
@ -7,12 +7,12 @@
|
|||||||
\section{Die Euklidische Norm und der Euklidische Abstand}
|
\section{Die Euklidische Norm und der Euklidische Abstand}
|
||||||
\label{sec:end}
|
\label{sec:end}
|
||||||
|
|
||||||
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
|
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
|
||||||
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
|
||||||
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
|
||||||
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
|
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
|
||||||
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir
|
anhand der bekannten Euklidischen Länge des $ℝ^n$. Später diskutieren wir dann
|
||||||
dann beliebige Vektorräume.
|
beliebige Vektorräume.
|
||||||
|
|
||||||
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
\begin{defn}[Euklidische Norm auf dem $ℝ^n$]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||||
@ -49,17 +49,16 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
|||||||
|
|
||||||
\section{Abstandserhaltende Abbildungen}
|
\section{Abstandserhaltende Abbildungen}
|
||||||
|
|
||||||
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
|
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
|
||||||
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
|
||||||
beziehungsweise den Euklidischen Abstand respektieren.
|
beziehungsweise den Euklidischen Abstand respektieren.
|
||||||
|
|
||||||
\begin{defn}
|
\begin{defn}
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
Es sei $n ∈ ℕ$ eine Zahl. Eine Abbildung $φ: ℝ^n → ℝ^n$ heißt
|
||||||
\emph{abstandserhaltend bezüglich der Euklidischen
|
\emph{abstandserhaltend bezüglich der Euklidischen
|
||||||
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
|
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
|
||||||
oder \emph{metrikerhaltend bezüglich der Euklidischen
|
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
|
||||||
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
|
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
|
||||||
falls gilt:
|
|
||||||
\[
|
\[
|
||||||
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
|
||||||
\vec{y} ∈ ℝ^n.
|
\vec{y} ∈ ℝ^n.
|
||||||
@ -87,8 +86,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
|
|||||||
Abbildungen.
|
Abbildungen.
|
||||||
|
|
||||||
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend
|
Es sei $n ∈ ℕ$ eine Zahl und $φ: ℝ^n → ℝ^n$ sei abstandserhaltend bezüglich
|
||||||
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
|
der Euklidischen Norm. Dann gilt Folgendes.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
|
||||||
|
|
||||||
@ -102,20 +101,20 @@ Abbildungen.
|
|||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
\end{lem}
|
\end{lem}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
|
Wir beweisen die Teilaussage „$φ$ ist injektiv“ von \ref{il:5-2-4-1}:
|
||||||
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
|
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
|
||||||
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
|
φ(\vec{v}_2)$. Dann ist
|
||||||
\[
|
\[
|
||||||
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
|
||||||
\]
|
\]
|
||||||
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
|
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage „$φ$
|
||||||
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
ist surjektiv“ beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
|
||||||
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
|
||||||
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
|
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
|
||||||
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. \qed
|
||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
|
|
||||||
@ -131,16 +130,16 @@ enorm.
|
|||||||
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
|
||||||
Abbildung
|
Abbildung
|
||||||
\[
|
\[
|
||||||
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
|
ψ: ℝ^n → ℝ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
|
||||||
\]
|
\]
|
||||||
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
|
||||||
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
|
||||||
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
|
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
|
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||||
bezüglich des Euklidischen Abstands}\index{Transformation des
|
bezüglich des Euklidischen Abstands}\index{Transformation des
|
||||||
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
||||||
@ -162,10 +161,10 @@ Transformation eine Gruppe bilden.
|
|||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
\section{Das Standard-Skalarprodukt auf dem $ℝ^n$}
|
\section{Das Standardskalarprodukt auf dem $ℝ^n$}
|
||||||
|
|
||||||
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
|
||||||
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $ℝ^n$.
|
Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
||||||
|
|
||||||
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
\begin{defn}[Standardskalarprodukt $ℝ^n$]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
Es sei $n ∈ ℕ$ eine Zahl. Die Abbildung
|
||||||
@ -197,30 +196,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
|||||||
Eigenschaft einmal selbst?
|
Eigenschaft einmal selbst?
|
||||||
|
|
||||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt folgendes:
|
Es sei $n ∈ ℕ$ eine Zahl. Dann gilt Folgendes.
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||||
\[
|
\[
|
||||||
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
|
||||||
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
|
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
|
||||||
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
$\vec{z} ∈ ℝ^n$ und alle $λ ∈ ℝ$ gilt
|
||||||
\[
|
\[
|
||||||
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
|
||||||
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
|
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt
|
\item[Positive Definitheit] Für alle $\vec{x} ∈ ℝ^n$ gilt $\langle \vec{x},
|
||||||
$\langle \vec{x}, \vec{x} \rangle ≥ 0$. Außerdem gilt
|
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔
|
||||||
$\langle \vec{x}, \vec{x} \rangle = 0 ⇔ \vec{x} = \vec{0}$.
|
\vec{x} = \vec{0}$.
|
||||||
|
|
||||||
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ gilt
|
||||||
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
|
||||||
|
|
||||||
\item[Satz von Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
\item[Satz des Pythagoras]\index{Pythagoras!für $ℝ^n$} Für alle $\vec{x}$
|
||||||
und $\vec{y} ∈ ℝ^n$ gilt
|
und $\vec{y} ∈ ℝ^n$ gilt
|
||||||
\[
|
\[
|
||||||
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
|
||||||
@ -242,9 +241,9 @@ scheint.
|
|||||||
\begin{defn}[Orthonormalbasis]
|
\begin{defn}[Orthonormalbasis]
|
||||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
||||||
Freunden: ONB), falls für alle $i, j$ gilt, dass
|
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
|
||||||
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
|
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
|
||||||
Kronecker-Delta bezeichnet.
|
bezeichnet.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
@ -296,12 +295,12 @@ Eine Menge, wie wir sofort sehen werden.
|
|||||||
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr)² \Bigr) && \text{Definition}\\
|
||||||
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr)² \Bigr) && φ\text{ ist abstandserhaltend}\\
|
||||||
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
|
||||||
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
|
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Damit ist das Lemma bewiesen.
|
Damit ist das Lemma bewiesen.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
|
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
|
||||||
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
Orthonormalbasis des $ℝ^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
|
||||||
@ -315,9 +314,9 @@ Eine Menge, wie wir sofort sehen werden.
|
|||||||
\section{Beschreibung der orthogonalen Transformationen}
|
\section{Beschreibung der orthogonalen Transformationen}
|
||||||
\label{sec:5-5}
|
\label{sec:5-5}
|
||||||
|
|
||||||
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden
|
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
||||||
Abbildungen) vollständig beschreiben.
|
vollständig beschreiben.
|
||||||
|
|
||||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
@ -337,7 +336,7 @@ Abbildungen) vollständig beschreiben.
|
|||||||
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
|
||||||
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
|
||||||
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||||
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
|
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
|
||||||
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
|
||||||
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
|
||||||
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
|
||||||
@ -374,8 +373,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
|
|||||||
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
|
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit „orthogonale
|
||||||
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
Gruppe“ zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
|
||||||
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
|
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
248
06-Produkte.tex
248
06-Produkte.tex
@ -8,26 +8,26 @@
|
|||||||
\section{Bilinearformen und Skalarprodukte}
|
\section{Bilinearformen und Skalarprodukte}
|
||||||
\label{sec:skalar}
|
\label{sec:skalar}
|
||||||
|
|
||||||
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
|
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt
|
||||||
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
|
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
||||||
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
|
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
||||||
und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
diskutieren. Hier kommen alle relevanten Definitionen.
|
||||||
|
|
||||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
||||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
||||||
$b: V ⨯ V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
$b: V⨯V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||||
|
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität in der ersten Komponente] Für alle
|
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z}
|
||||||
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
|
∈ V $ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
|
||||||
λ·b(\vec{y}, \vec{z}).
|
λ·b(\vec{y}, \vec{z}).
|
||||||
\]
|
\]
|
||||||
|
|
||||||
\item[Linearität in der zweiten Komponente] Für alle
|
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y},
|
||||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
|
||||||
\[
|
\[
|
||||||
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
|
||||||
λ·b(\vec{x}, \vec{z}) .
|
λ·b(\vec{x}, \vec{z}) .
|
||||||
@ -35,47 +35,45 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\end{description}
|
\end{description}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
|
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}%
|
||||||
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
|
||||||
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
|
||||||
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
|
||||||
Verknüpfungen einen $k$-Vektorraum.
|
Verknüpfungen einen $k$-Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
|
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}%
|
||||||
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
|
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
Dann ist die Abbildung
|
||||||
\[
|
\[
|
||||||
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
b : k^n ⨯ k^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||||
\vec{v}^{\:t}·B·\vec{w}
|
\vec{v}^{\:t}·B·\vec{w}
|
||||||
\]
|
\]
|
||||||
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich
|
bilinear, wobei $•^t$ die Transponierte von $•$ ist\footnote{Ich bin nicht
|
||||||
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder
|
mehr sicher, ob ich in der Vorlesung LA1 $•^t$ oder $^t•$ geschrieben habe.
|
||||||
$^t•$ geschrieben habe. Beim Tippen schaut $•^t$ viel besser
|
Beim Tippen schaut $•^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und
|
||||||
aus.}. Beachte dazu, dass $\vec{w}$ und $B·\vec{w}$ Spaltenvektoren sind,
|
$B·\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist.
|
||||||
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
|
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1⨯
|
||||||
mit einem Spaltenvektor ist eine $1⨯ 1$-Matrix; die Definition von $b$
|
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1⨯
|
||||||
ist so zu verstehen, dass wir $1⨯ 1$-Matrizen mit den Skalaren
|
1$-Matrizen mit den Skalaren identifizieren.
|
||||||
identifizieren.
|
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Symmetrische Bilinearform]
|
\begin{defn}[Symmetrische Bilinearform]
|
||||||
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
|
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : V⨯V → k$
|
||||||
$b : V ⨯ V → k$ heißt
|
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle
|
||||||
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
|
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y},
|
||||||
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
|
\vec{x})$ gilt.
|
||||||
gilt.
|
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
|
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}%
|
||||||
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
|
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
|
||||||
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
|
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}%
|
||||||
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
|
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“.
|
||||||
``Matrixprodukt''. Wenn eine $n⨯ n$-Matrix $B$ die Gleichung $B^t=B$
|
Wenn eine $n⨯n$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle
|
||||||
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
|
||||||
\[
|
\[
|
||||||
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^t·\vec{v}^{\:tt} =
|
||||||
\vec{w}^{\:t}·B^t·\vec{v}.
|
\vec{w}^{\:t}·B^t·\vec{v}.
|
||||||
@ -86,21 +84,21 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
|
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}%
|
||||||
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
Es sei $k=ℝ$ oder $k=ℚ$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
|
||||||
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||||
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
|
||||||
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
|
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x}, \vec{x})
|
||||||
$b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
≥ 0$ gilt. Nenne $b$ \emph{positiv definit}\index{Bilinearform!positiv
|
||||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
definit}\index{positiv definit} falls zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
||||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
|
||||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $ℚ$ und $ℝ$]
|
||||||
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
|
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = ℝ$
|
||||||
$k = ℝ$ und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei anderen Körpern (etwa $k = ℂ$) ist
|
und $k = ℚ$ sinnvoll (und für andere Körper zwischen $ℚ$ und $ℝ$)! Bei
|
||||||
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x}) ≥ 0$'' bedeuten soll.
|
anderen Körpern (etwa $k = ℂ$) ist gar nicht klar, was die Aussage
|
||||||
|
„$b(\vec{x}, \vec{x}) ≥ 0$“ bedeuten soll.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
|
||||||
@ -124,10 +122,10 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
\end{pmatrix}, \quad
|
\end{pmatrix}, \quad
|
||||||
\begin{pmatrix}
|
\begin{pmatrix}
|
||||||
π & -e \\ \frac{-256}{257} & 2
|
π & -e \\ \frac{-256}{257} & 2
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
|
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv
|
||||||
``positiv semidefinit'', ``positiv definit'' und … ?
|
semidefinit“, „positiv definit“ und … ?
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
|
||||||
@ -138,17 +136,17 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
|
|
||||||
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
\begin{bsp}[Standardskalarprodukt, Einschränkung]
|
||||||
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
Das Standardskalarprodukt auf dem $ℝ^n$ ist ein Skalarprodukt. Es sei $V$ ein
|
||||||
reeller Vektorraum und $\langle •, • \rangle$ sei ein
|
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W
|
||||||
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
|
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W⨯ W}$ wieder
|
||||||
$\langle •, • \rangle|_{W⨯ W}$ wieder ein Skalarprodukt.
|
ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{bsp}[Integration]\label{bsp:Integration}
|
\begin{bsp}[Integration]\label{bsp:Integration}%
|
||||||
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
Es sei $k = ℝ$ und es sei $V = \cC⁰([0,1], ℝ)$ der Vektorraum der
|
||||||
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$, wie
|
||||||
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
|
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung
|
||||||
\[
|
\[
|
||||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
|
\langle •, • \rangle : V⨯V → ℝ, \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt
|
||||||
\]
|
\]
|
||||||
ist ein Skalarprodukt.
|
ist ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -156,46 +154,46 @@ und zu diskutieren. Hier kommen alle relevanten Definitionen.
|
|||||||
|
|
||||||
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
\subsection{Beschreibung von Bilinearformen durch Matrizen}
|
||||||
|
|
||||||
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
|
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt
|
||||||
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
|
||||||
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
|
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung „Lineare
|
||||||
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
|
||||||
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
|
wir das mit Bilinearformen? Kurz gesagt: „Ja!“
|
||||||
|
|
||||||
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
|
||||||
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
|
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander
|
||||||
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
|
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben.
|
||||||
beschreiben. Das gibt es im Leben öfter.
|
Das gibt es im Leben öfter.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
|
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn
|
||||||
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
|
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als
|
||||||
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
|
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche
|
||||||
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
|
||||||
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Wir betrachten die folgende Situation.
|
Wir betrachten die folgende Situation.
|
||||||
|
|
||||||
\begin{situation}\label{sit:6-3-1}
|
\begin{situation}\label{sit:6-3-1}%
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||||
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
|
||||||
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||||
\end{situation}
|
\end{situation}
|
||||||
|
|
||||||
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
|
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}%
|
||||||
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V ⨯ V → k$
|
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V⨯V → k$ gegeben.
|
||||||
gegeben. Dann betrachte die $n⨯n$-Matrix
|
Dann betrachte die $n⨯n$-Matrix
|
||||||
\[
|
\[
|
||||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
|
||||||
\]
|
\]
|
||||||
\end{konstruktion}
|
\end{konstruktion}
|
||||||
|
|
||||||
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
|
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}%
|
||||||
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte
|
In Situation~\ref{sit:6-3-1} sei eine $n⨯n$-Matrix $A$ gegeben. Dann
|
||||||
die Bilinearform
|
betrachte die Bilinearform
|
||||||
\[
|
\[
|
||||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||||
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
φ_B(\vec{v})^t·A·φ_B(\vec{w})
|
||||||
\]
|
\]
|
||||||
\end{konstruktion}
|
\end{konstruktion}
|
||||||
@ -210,9 +208,9 @@ Wir betrachten die folgende Situation.
|
|||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
|
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
|
||||||
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
|
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i,
|
||||||
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
|
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum
|
||||||
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
ging, jeder linearen Abbildung eine Matrix zuzuordnen.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
@ -221,8 +219,8 @@ Wir betrachten die folgende Situation.
|
|||||||
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
|
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
|
||||||
Bilinearformen endlich-dimensional sind. Genauer:
|
Bilinearformen endlich-dimensional sind. Genauer:
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯ n$-Matrizen}) = n² \\
|
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n⨯n$-Matrizen}) = n² \\
|
||||||
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯ n$-Matrizen}) = \frac{n(n+1)}{2}
|
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n⨯n$-Matrizen}) = \frac{n(n+1)}{2}
|
||||||
\end{align*}
|
\end{align*}
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
@ -231,7 +229,7 @@ Wir betrachten die folgende Situation.
|
|||||||
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
|
||||||
Bilinearform
|
Bilinearform
|
||||||
\[
|
\[
|
||||||
b : V ⨯ V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
|
b : V⨯V → ℝ, \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt.
|
||||||
\]
|
\]
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -248,8 +246,8 @@ Wir betrachten die folgende Situation.
|
|||||||
\subsection{Basiswechsel}
|
\subsection{Basiswechsel}
|
||||||
|
|
||||||
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
|
||||||
eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und $B_2$.
|
||||||
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
||||||
|
|
||||||
\begin{erinnerung}
|
\begin{erinnerung}
|
||||||
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
|
||||||
@ -267,9 +265,9 @@ $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
|
|||||||
|
|
||||||
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
|
||||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||||
$V$, eine Bilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen, $B_1$ und
|
$V$, eine Bilinearform $b : V⨯V → k$ und zwei angeordnete Basen, $B_1$ und
|
||||||
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
|
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_•
|
||||||
$M_{•} := \Mat_{B_{•}}(b)$. Dann ist
|
:= \Mat_{B_{•}}(b)$. Dann ist
|
||||||
\[
|
\[
|
||||||
M_1 = S^t·M_2·S.
|
M_1 = S^t·M_2·S.
|
||||||
\]
|
\]
|
||||||
@ -282,27 +280,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
|
|||||||
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
|
||||||
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
|
||||||
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
|
||||||
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
|
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für
|
||||||
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
|
||||||
nur die Transponierte $S^t$ ausrechnen muss.
|
nur die Transponierte $S^t$ ausrechnen muss.
|
||||||
|
|
||||||
|
|
||||||
\section{Sesquilinearformen und Hermitesche Produkte}
|
\section{Sesquilinearformen und Hermitesche Produkte}
|
||||||
|
|
||||||
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
|
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man
|
||||||
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
|
||||||
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
|
||||||
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
|
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass
|
||||||
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
|
||||||
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
|
||||||
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
|
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der
|
||||||
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
|
Definition von „positiv definit“. Der praktische Erfolg der folgenden
|
||||||
Definitionen gibt der Sache aber recht.
|
Definitionen gibt der Sache aber recht.
|
||||||
|
|
||||||
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
|
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über
|
||||||
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
|
den komplexen Zahlen. Eine
|
||||||
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
|
||||||
ist eine Abbildung $b: V ⨯ V → ℂ$, so dass Folgendes gilt.
|
ist eine Abbildung $b: V⨯V → ℂ$, sodass Folgendes gilt.
|
||||||
\begin{description}
|
\begin{description}
|
||||||
\item[Linearität in der ersten Komponente] Für alle
|
\item[Linearität in der ersten Komponente] Für alle
|
||||||
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ ℂ$ gilt
|
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ ℂ$ gilt
|
||||||
@ -324,18 +322,18 @@ Definitionen gibt der Sache aber recht.
|
|||||||
$x+i·y ↦ x - i·y$.
|
$x+i·y ↦ x - i·y$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
|
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}%
|
||||||
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
|
||||||
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
|
||||||
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
|
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet
|
||||||
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
|
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder
|
||||||
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
|
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die
|
||||||
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
|
Menge der Sesquilinearformen einen reellen Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
|
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}%
|
||||||
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige
|
Betrachte den Vektorraum $V = ℂ^n$ und wähle eine beliebige $n⨯n$-Matrix $B$.
|
||||||
$n ⨯ n$-Matrix $B$. Dann ist die Abbildung
|
Dann ist die Abbildung
|
||||||
\[
|
\[
|
||||||
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
b : ℂ^n ⨯ ℂ^n → k, \quad (\vec{v},\vec{w}) ↦
|
||||||
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
\vec{v}^{\:t}·B·\overline{\vec{w}}
|
||||||
@ -360,24 +358,24 @@ Definitionen gibt der Sache aber recht.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Hermitesche Sesquilinearform]
|
\begin{defn}[Hermitesche Sesquilinearform]
|
||||||
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
|
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : V⨯V →
|
||||||
$b : V ⨯ V → ℂ$ heißt
|
ℂ$ heißt
|
||||||
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
|
||||||
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
|
||||||
Paris) war ein französischer
|
Paris) war ein französischer
|
||||||
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
|
||||||
$\vec{y} ∈ V$ die Gleichung
|
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) =
|
||||||
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
|
\overline{b(\vec{y},\vec{x})}$ gilt.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
|
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}%
|
||||||
Es sei $b : V ⨯ V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
Es sei $b : V⨯V → ℂ$ eine Hermitesche Sesquilinearform. Dann gilt
|
||||||
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
|
||||||
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
|
||||||
imaginäre Anteil verschwinden muss.
|
imaginäre Anteil verschwinden muss.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
|
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}%
|
||||||
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
|
||||||
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
|
||||||
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
|
||||||
@ -386,12 +384,12 @@ Definitionen gibt der Sache aber recht.
|
|||||||
Vektorraumes der Sesquilinearformen bildet.
|
Vektorraumes der Sesquilinearformen bildet.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
|
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}%
|
||||||
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
|
||||||
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
|
||||||
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
|
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}.
|
||||||
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
|
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein}
|
||||||
\emph{kein} komplexer Vektorraum.
|
komplexer Vektorraum.
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
|
||||||
@ -400,23 +398,23 @@ Definitionen gibt der Sache aber recht.
|
|||||||
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
|
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
|
||||||
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
|
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
|
||||||
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
|
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
|
||||||
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
|
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
|
||||||
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
|
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
|
||||||
tun?
|
tun?
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
|
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}%
|
||||||
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
|
||||||
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
|
||||||
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
semidefinit}\index{Hermitesche Sesquilinearform!positiv
|
||||||
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
|
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
|
||||||
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
Ungleichung $b(\vec{x}, \vec{x}) ≥ 0$ gilt. Nenne $b$ \emph{positiv
|
||||||
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
|
||||||
zusätzlich für alle $\vec{x} ∈ V$ gilt:
|
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} =
|
||||||
$b(\vec{x}, \vec{x}) = 0 ⇔ \vec{x} = \vec{0}$.
|
\vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
|
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}%
|
||||||
Es sei $V$ ein komplexer Vektorraum. Ein
|
Es sei $V$ ein komplexer Vektorraum. Ein
|
||||||
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
|
||||||
positiv definite, Hermitesche Sesquilinearform.
|
positiv definite, Hermitesche Sesquilinearform.
|
||||||
@ -454,8 +452,8 @@ Definitionen gibt der Sache aber recht.
|
|||||||
Sei $V = \cC⁰([0,1];ℂ)$ der komplexe Vektorraum der komplexwertigen stetigen
|
Sei $V = \cC⁰([0,1];ℂ)$ der komplexe Vektorraum der komplexwertigen stetigen
|
||||||
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
Funktionen auf dem Einheitsintervall $[0,1] ⊂ ℝ$. Die Abbildung
|
||||||
\[
|
\[
|
||||||
\langle •, • \rangle : V ⨯ V → ℂ, \quad (f, g) ↦ \int¹_0
|
\langle •, • \rangle : V⨯V → ℂ, \quad (f, g) ↦ \int¹_0
|
||||||
f(t)·\overline{g(t)} dt.
|
f(t)·\overline{g(t)} dt
|
||||||
\]
|
\]
|
||||||
ist ein Skalarprodukt.
|
ist ein Skalarprodukt.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -488,11 +486,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
|
|||||||
gehen, geben wir nur die Ergebnisse an.
|
gehen, geben wir nur die Ergebnisse an.
|
||||||
|
|
||||||
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
|
||||||
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis
|
Es sei $V$ ein endlich-dimensionaler $ℂ$-Vektorraum, mit angeordneter Basis $B
|
||||||
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
|
||||||
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
bezeichnen wir wie immer mit $φ_B : V → k^n$.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Gegeben eine Sesquilinearform $b : V ⨯ V → k$, dann betrachte die
|
\item Gegeben eine Sesquilinearform $b : V⨯V → k$, dann betrachte die
|
||||||
$n⨯n$-Matrix
|
$n⨯n$-Matrix
|
||||||
\[
|
\[
|
||||||
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
|
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
|
||||||
@ -501,7 +499,7 @@ gehen, geben wir nur die Ergebnisse an.
|
|||||||
\item Gegeben eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte die
|
\item Gegeben eine $n⨯n$-Matrix $A$ gegeben. Dann betrachte die
|
||||||
Sesquilinearlinearform
|
Sesquilinearlinearform
|
||||||
\[
|
\[
|
||||||
s_B(A) : V ⨯ V → k,\quad (\vec{v}, \vec{w}) ↦
|
s_B(A) : V⨯V → k,\quad (\vec{v}, \vec{w}) ↦
|
||||||
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
|
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
|
||||||
\]
|
\]
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
@ -514,12 +512,12 @@ $ℂ$-Vektorräumen erhalten,
|
|||||||
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
\text{$n⨯n$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
|
||||||
Außerdem gilt folgender Satz.
|
Außerdem gilt folgender Satz.
|
||||||
|
|
||||||
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
|
||||||
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
|
||||||
$V$, eine Sesquilinearform $b : V ⨯ V → k$ und zwei angeordnete Basen,
|
$V$, eine Sesquilinearform $b : V⨯V → k$ und zwei angeordnete Basen,
|
||||||
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{•} := \Mat_{B_{•}}(b)$. Dann
|
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{•} := \Mat_{B_{•}}(b)$. Dann
|
||||||
ist
|
ist
|
||||||
\[
|
\[
|
||||||
|
Loading…
x
Reference in New Issue
Block a user