Working
This commit is contained in:
parent
9a0ab78a70
commit
37b91c5e02
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
@ -0,0 +1 @@
|
|||||||
|
observables
|
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -52,3 +52,5 @@
|
|||||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
||||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
||||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
|
||||||
|
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
||||||
|
@ -29,7 +29,7 @@ beliebige Vektorräume.
|
|||||||
\end{matrix}
|
\end{matrix}
|
||||||
\]
|
\]
|
||||||
heißt \emph{Euklidische Norm auf dem
|
heißt \emph{Euklidische Norm auf dem
|
||||||
$ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}.
|
$ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Euklidischer Abstand auf dem $ℝ^n$]
|
\begin{defn}[Euklidischer Abstand auf dem $ℝ^n$]
|
||||||
@ -42,7 +42,7 @@ beliebige Vektorräume.
|
|||||||
\]
|
\]
|
||||||
heißt \emph{Euklidischer Abstand auf dem $ℝ^n$}\index{Abstand|see{Metrik}}
|
heißt \emph{Euklidischer Abstand auf dem $ℝ^n$}\index{Abstand|see{Metrik}}
|
||||||
oder \emph{Euklidische Metrik auf dem
|
oder \emph{Euklidische Metrik auf dem
|
||||||
$ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}.
|
$ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
||||||
|
|
||||||
@ -141,9 +141,9 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
|
|||||||
|
|
||||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||||
bezüglich des Euklidischen Abstands}\index{Transformation des
|
bezüglich des Euklidischen Abstands}\index{Transformation des $ℝ^n$!orthogonal
|
||||||
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
|
||||||
abstandserhaltende Abbildung $ψ: ℝ^n ˝→ ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
ℝ^n → ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
@ -152,12 +152,12 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
|
|||||||
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
||||||
Transformation eine Gruppe bilden.
|
Transformation eine Gruppe bilden.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
|
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
||||||
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
||||||
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
||||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$
|
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ bezüglich
|
||||||
bezüglich der Euklidischen Norm}.
|
der Euklidischen Norm}.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
|
|
||||||
@ -191,8 +191,8 @@ Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
|||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
||||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
|
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
|
||||||
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||||
Eigenschaft einmal selbst?
|
Eigenschaft einmal selbst?
|
||||||
|
|
||||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||||
@ -232,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
|
|||||||
scheint.
|
scheint.
|
||||||
|
|
||||||
\begin{defn}[Orthogonale Vektoren]
|
\begin{defn}[Orthogonale Vektoren]
|
||||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
|
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y} ∈
|
||||||
$\vec{y} ∈ ℝ^n$ \emph{zueinander orthogonal}, falls
|
ℝ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
|
||||||
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
|
0$ ist\index{orthogonal!Paar von Vektoren}.
|
||||||
Vektoren}.
|
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{defn}[Orthonormalbasis]
|
\begin{defn}[Orthonormalbasis]
|
||||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
|
||||||
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
|
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
|
||||||
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
|
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
|
||||||
bezeichnet.
|
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{bsp}
|
\begin{bsp}
|
||||||
@ -253,10 +251,10 @@ scheint.
|
|||||||
|
|
||||||
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||||
|
|
||||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
|
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
|
||||||
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
||||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
|
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
|
||||||
$\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
sei $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||||
\[
|
\[
|
||||||
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
||||||
\]
|
\]
|
||||||
@ -279,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
|||||||
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
||||||
Eine Menge, wie wir sofort sehen werden.
|
Eine Menge, wie wir sofort sehen werden.
|
||||||
|
|
||||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
|
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
||||||
Gleichung
|
Gleichung
|
||||||
@ -318,7 +316,7 @@ Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
|||||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
||||||
vollständig beschreiben.
|
vollständig beschreiben.
|
||||||
|
|
||||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||||
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
@ -344,7 +342,7 @@ vollständig beschreiben.
|
|||||||
Damit ist die Linearität gezeigt. \qed
|
Damit ist die Linearität gezeigt. \qed
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
|
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
|
||||||
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
||||||
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
|
@ -13,9 +13,9 @@ noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
|||||||
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
||||||
diskutieren. Hier kommen alle relevanten Definitionen.
|
diskutieren. Hier kommen alle relevanten Definitionen.
|
||||||
|
|
||||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
|
||||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: V⨯V → k$
|
||||||
$b: V⨯V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||||
|
|
||||||
\begin{description}
|
\begin{description}
|
||||||
|
@ -12,18 +12,18 @@ größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
|||||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
||||||
folgende Situation.
|
folgende Situation.
|
||||||
|
|
||||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
Endomorphismus.
|
Endomorphismus.
|
||||||
\end{situation}
|
\end{situation}
|
||||||
|
|
||||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
|
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
|
||||||
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
||||||
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
||||||
beziehungsweise
|
beziehungsweise
|
||||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
|
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
|
||||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||||
\[
|
\[
|
||||||
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
||||||
\rangle.
|
\rangle.
|
||||||
@ -126,14 +126,17 @@ $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
|||||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||||
|
|
||||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
||||||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
In Situation~\ref{sit:9-1-1} sei
|
||||||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
\[
|
||||||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
B := \{ \vec{v}_1, …, \vec{v}_n \}
|
||||||
|
\]
|
||||||
|
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
|
||||||
|
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
||||||
|
|
||||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
|
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯
|
||||||
$Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
||||||
wie immer für die komplex-konjugierte Matrix.
|
wie immer für die komplex-konjugierte Matrix.
|
||||||
|
@ -5,36 +5,36 @@
|
|||||||
|
|
||||||
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
||||||
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
||||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
|
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
|
||||||
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
|
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
|
||||||
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
|
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
|
||||||
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
|
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
|
||||||
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
|
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
|
||||||
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
Self-adjoint operators are used in functional analysis and quantum
|
\foreignlanguage{english}{Self-adjoint operators are used in functional
|
||||||
mechanics. In quantum mechanics their importance lies in the Dirac–von Neumann
|
analysis and quantum mechanics. In quantum mechanics their importance lies in
|
||||||
formulation of quantum mechanics, in which physical observables such as
|
the Dirac–von Neumann formulation of quantum mechanics, in which physical
|
||||||
position, momentum, angular momentum and spin are represented by self-adjoint
|
observables such as position, momentum, angular momentum and spin are
|
||||||
operators on a Hilbert space. Of particular significance is the Hamiltonian
|
represented by self-adjoint operators on a Hilbert space. Of particular
|
||||||
operator $\what{H}$ defined by
|
significance is the Hamiltonian operator $\what{H}$ defined by
|
||||||
\[
|
\[
|
||||||
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
||||||
\]
|
\]
|
||||||
which as an observable corresponds to the total energy of a particle of mass
|
which as an observable corresponds to the total energy of a particle of mass
|
||||||
$m$ in a real potential field $V$.
|
$m$ in a real potential field $V$.}
|
||||||
|
|
||||||
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
||||||
(Self-adjoint operator)}
|
(Self-adjoint operator)}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
||||||
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
|
Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht.
|
||||||
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||||
|
|
||||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
|
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
Endomorphismus. Nenne den Endomorphismus $f$
|
Endomorphismus. Nenne den Endomorphismus $f$
|
||||||
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
||||||
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
\]
|
\]
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
|
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
|
||||||
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
||||||
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
||||||
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
||||||
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
||||||
\overline{\vec{w}}.
|
\overline{\vec{w}}.
|
||||||
\]
|
\]
|
||||||
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
|
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
|
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
|
||||||
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
||||||
Hermitesche Matrix ist.
|
Hermitesche Matrix ist.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
|||||||
\begin{aufgabe}
|
\begin{aufgabe}
|
||||||
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
||||||
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
||||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$.
|
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. Rechnen Sie
|
||||||
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||||
\[
|
\[
|
||||||
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
||||||
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
||||||
\]
|
\]
|
||||||
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||||
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
||||||
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
||||||
ist.
|
ist.
|
||||||
\end{aufgabe}
|
\end{aufgabe}
|
||||||
|
|
||||||
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
||||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
|
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
|
||||||
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
||||||
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
||||||
besonders einfacher Weise.
|
besonders einfacher Weise.
|
||||||
@ -107,7 +107,7 @@ besonders einfacher Weise.
|
|||||||
Der folgende Satz ist in der Literatur auch als
|
Der folgende Satz ist in der Literatur auch als
|
||||||
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
||||||
|
|
||||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
|
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
|
||||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||||
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
||||||
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
|
|||||||
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
||||||
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
||||||
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
||||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
|
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
|
||||||
die Berechnung von $S^{-1}$ extrem einfach.
|
macht die Berechnung von $S^{-1}$ extrem einfach.
|
||||||
|
|
||||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
|
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
|
||||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische
|
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische oder
|
||||||
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
|
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
|
||||||
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
|
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
|
||||||
Diagonalmatrix ist.
|
ist.
|
||||||
\end{kor}
|
\end{kor}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
||||||
|
@ -515,8 +515,8 @@ Insgesamt sehen wir, dass die Menge
|
|||||||
\[
|
\[
|
||||||
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
||||||
\]
|
\]
|
||||||
eine orthonormale Teilmengen des Euklidischen Vektorraumes
|
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
|
||||||
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
|
\rangle\bigr)$ ist.
|
||||||
|
|
||||||
|
|
||||||
\subsubsection{Rekonstruktion von Funktionen}
|
\subsubsection{Rekonstruktion von Funktionen}
|
||||||
|
Loading…
x
Reference in New Issue
Block a user