Working
This commit is contained in:
parent
9a0ab78a70
commit
37b91c5e02
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
1
.vscode/ltex.dictionary.en-US.txt
vendored
Normal file
@ -0,0 +1 @@
|
||||
observables
|
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -52,3 +52,5 @@
|
||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
||||
|
@ -29,7 +29,7 @@ beliebige Vektorräume.
|
||||
\end{matrix}
|
||||
\]
|
||||
heißt \emph{Euklidische Norm auf dem
|
||||
$ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}.
|
||||
$ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Euklidischer Abstand auf dem $ℝ^n$]
|
||||
@ -42,7 +42,7 @@ beliebige Vektorräume.
|
||||
\]
|
||||
heißt \emph{Euklidischer Abstand auf dem $ℝ^n$}\index{Abstand|see{Metrik}}
|
||||
oder \emph{Euklidische Metrik auf dem
|
||||
$ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}.
|
||||
$ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}.
|
||||
\end{defn}
|
||||
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
|
||||
|
||||
@ -141,9 +141,9 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
|
||||
|
||||
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands}\index{Transformation des
|
||||
$ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
|
||||
abstandserhaltende Abbildung $ψ: ℝ^n ˝→ ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||
bezüglich des Euklidischen Abstands}\index{Transformation des $ℝ^n$!orthogonal
|
||||
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
|
||||
ℝ^n → ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$.
|
||||
\end{defn}
|
||||
|
||||
|
||||
@ -152,12 +152,12 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
|
||||
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
|
||||
Transformation eine Gruppe bilden.
|
||||
|
||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
|
||||
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der
|
||||
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
|
||||
$\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$
|
||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$
|
||||
bezüglich der Euklidischen Norm}.
|
||||
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ bezüglich
|
||||
der Euklidischen Norm}.
|
||||
\end{defn}
|
||||
|
||||
|
||||
@ -191,8 +191,8 @@ Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“.
|
||||
\end{defn}
|
||||
|
||||
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
|
||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
|
||||
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
|
||||
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
|
||||
Eigenschaft einmal selbst?
|
||||
|
||||
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
|
||||
@ -232,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
|
||||
scheint.
|
||||
|
||||
\begin{defn}[Orthogonale Vektoren]
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
|
||||
$\vec{y} ∈ ℝ^n$ \emph{zueinander orthogonal}, falls
|
||||
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
|
||||
Vektoren}.
|
||||
Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y} ∈
|
||||
ℝ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
|
||||
0$ ist\index{orthogonal!Paar von Vektoren}.
|
||||
\end{defn}
|
||||
|
||||
\begin{defn}[Orthonormalbasis]
|
||||
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis
|
||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
|
||||
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
|
||||
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
|
||||
bezeichnet.
|
||||
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
|
||||
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
|
||||
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
|
||||
\end{defn}
|
||||
|
||||
\begin{bsp}
|
||||
@ -253,10 +251,10 @@ scheint.
|
||||
|
||||
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||
|
||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
|
||||
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
|
||||
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$
|
||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
|
||||
$\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
|
||||
sei $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann:
|
||||
\[
|
||||
\vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i .
|
||||
\]
|
||||
@ -279,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
|
||||
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
|
||||
Eine Menge, wie wir sofort sehen werden.
|
||||
|
||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
|
||||
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die
|
||||
Gleichung
|
||||
@ -318,7 +316,7 @@ Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
|
||||
Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen)
|
||||
vollständig beschreiben.
|
||||
|
||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
|
||||
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des
|
||||
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
|
||||
\end{satz}
|
||||
@ -344,7 +342,7 @@ vollständig beschreiben.
|
||||
Damit ist die Linearität gezeigt. \qed
|
||||
\end{proof}
|
||||
|
||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
|
||||
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
|
||||
Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
|
||||
des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
|
||||
\begin{enumerate}
|
||||
|
@ -13,9 +13,9 @@ noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
|
||||
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
|
||||
diskutieren. Hier kommen alle relevanten Definitionen.
|
||||
|
||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}
|
||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
|
||||
$b: V⨯V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
|
||||
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: V⨯V → k$
|
||||
heißt \emph{bilinear}\index{bilineare Abbildung} oder
|
||||
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
|
||||
|
||||
\begin{description}
|
||||
|
@ -12,18 +12,18 @@ größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
||||
folgende Situation.
|
||||
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
|
||||
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
Endomorphismus.
|
||||
\end{situation}
|
||||
|
||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
|
||||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
|
||||
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
||||
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
||||
beziehungsweise
|
||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
|
||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
|
||||
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||||
\[
|
||||
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
||||
\rangle.
|
||||
@ -126,14 +126,17 @@ $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
||||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
In Situation~\ref{sit:9-1-1} sei
|
||||
\[
|
||||
B := \{ \vec{v}_1, …, \vec{v}_n \}
|
||||
\]
|
||||
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
|
||||
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
\begin{enumerate}
|
||||
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
||||
|
||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
|
||||
$Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯
|
||||
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||||
\end{enumerate}
|
||||
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
||||
wie immer für die komplex-konjugierte Matrix.
|
||||
|
@ -5,36 +5,36 @@
|
||||
|
||||
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
|
||||
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
|
||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
|
||||
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
|
||||
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
|
||||
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
|
||||
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
|
||||
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
|
||||
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
|
||||
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
|
||||
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
|
||||
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
|
||||
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
|
||||
|
||||
\begin{quote}
|
||||
Self-adjoint operators are used in functional analysis and quantum
|
||||
mechanics. In quantum mechanics their importance lies in the Dirac–von Neumann
|
||||
formulation of quantum mechanics, in which physical observables such as
|
||||
position, momentum, angular momentum and spin are represented by self-adjoint
|
||||
operators on a Hilbert space. Of particular significance is the Hamiltonian
|
||||
operator $\what{H}$ defined by
|
||||
\foreignlanguage{english}{Self-adjoint operators are used in functional
|
||||
analysis and quantum mechanics. In quantum mechanics their importance lies in
|
||||
the Dirac–von Neumann formulation of quantum mechanics, in which physical
|
||||
observables such as position, momentum, angular momentum and spin are
|
||||
represented by self-adjoint operators on a Hilbert space. Of particular
|
||||
significance is the Hamiltonian operator $\what{H}$ defined by
|
||||
\[
|
||||
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
|
||||
\]
|
||||
which as an observable corresponds to the total energy of a particle of mass
|
||||
$m$ in a real potential field $V$.
|
||||
$m$ in a real potential field $V$.}
|
||||
|
||||
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
|
||||
(Self-adjoint operator)}
|
||||
\end{quote}
|
||||
|
||||
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
|
||||
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
|
||||
Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht.
|
||||
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
|
||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
Endomorphismus. Nenne den Endomorphismus $f$
|
||||
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
|
||||
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
\]
|
||||
\end{defn}
|
||||
|
||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
|
||||
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
|
||||
Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
|
||||
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
|
||||
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
|
||||
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
|
||||
\overline{\vec{w}}.
|
||||
\]
|
||||
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
|
||||
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
|
||||
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
|
||||
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
|
||||
Hermitesche Matrix ist.
|
||||
\end{bsp}
|
||||
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
|
||||
\begin{aufgabe}
|
||||
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
|
||||
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
|
||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$.
|
||||
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||
$Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. Rechnen Sie
|
||||
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
|
||||
\[
|
||||
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
|
||||
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
|
||||
\]
|
||||
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
|
||||
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
|
||||
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
|
||||
ist.
|
||||
\end{aufgabe}
|
||||
|
||||
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
|
||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
|
||||
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
|
||||
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
|
||||
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
|
||||
besonders einfacher Weise.
|
||||
@ -107,7 +107,7 @@ besonders einfacher Weise.
|
||||
Der folgende Satz ist in der Literatur auch als
|
||||
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
|
||||
|
||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
|
||||
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||||
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
|
||||
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
|
||||
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
|
||||
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
|
||||
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
|
||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
|
||||
die Berechnung von $S^{-1}$ extrem einfach.
|
||||
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
|
||||
macht die Berechnung von $S^{-1}$ extrem einfach.
|
||||
|
||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
|
||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische
|
||||
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
|
||||
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
|
||||
Diagonalmatrix ist.
|
||||
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
|
||||
Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische oder
|
||||
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
|
||||
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
|
||||
ist.
|
||||
\end{kor}
|
||||
\begin{proof}
|
||||
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
|
||||
|
@ -515,8 +515,8 @@ Insgesamt sehen wir, dass die Menge
|
||||
\[
|
||||
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
|
||||
\]
|
||||
eine orthonormale Teilmengen des Euklidischen Vektorraumes
|
||||
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
|
||||
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
|
||||
\rangle\bigr)$ ist.
|
||||
|
||||
|
||||
\subsubsection{Rekonstruktion von Funktionen}
|
||||
|
Loading…
x
Reference in New Issue
Block a user