This commit is contained in:
Stefan Kebekus 2025-06-23 15:13:56 +02:00
parent 9a0ab78a70
commit 37b91c5e02
7 changed files with 74 additions and 70 deletions

1
.vscode/ltex.dictionary.en-US.txt vendored Normal file
View File

@ -0,0 +1 @@
observables

View File

@ -52,3 +52,5 @@
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}

View File

@ -141,9 +141,9 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
abstandserhaltende Abbildung $ψ: ^n ˝→ ^n$ mit $ψ(\vec{0}) = \vec{0}$.
bezüglich des Euklidischen Abstands}\index{Transformation des $^n$!orthogonal
bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ:
^n → ^n$ mit $ψ(\vec{0}) = \vec{0}$.
\end{defn}
@ -152,12 +152,12 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}%
Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
$\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$
bezüglich der Euklidischen Norm}.
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$ bezüglich
der Euklidischen Norm}.
\end{defn}
@ -191,8 +191,8 @@ Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $^n$“.
\end{defn}
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf
einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
@ -232,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
scheint.
\begin{defn}[Orthogonale Vektoren]
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
$\vec{y}^n$ \emph{zueinander orthogonal}, falls
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
Vektoren}.
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y}
^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle =
0$ ist\index{orthogonal!Paar von Vektoren}.
\end{defn}
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
bezeichnet.
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden:
ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle =
δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet.
\end{defn}
\begin{bsp}
@ -253,10 +251,10 @@ scheint.
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
$\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter
sei $\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
\[
\vec{x} = \sum_{i=1}^n λ_\vec{v}_i .
\]
@ -279,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
Eine Menge, wie wir sofort sehen werden.
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die
Gleichung
@ -318,7 +316,7 @@ Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
\end{satz}
@ -344,7 +342,7 @@ vollständig beschreiben.
Damit ist die Linearität gezeigt. \qed
\end{proof}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}%
Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
\begin{enumerate}

View File

@ -13,9 +13,9 @@ noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu
diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: VV → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\begin{defn}[Bilinearformen]\label{def:6-1-1}%
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: VV → k$
heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description}

View File

@ -12,18 +12,18 @@ größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}%
Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus.
\end{situation}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}%
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
beziehungsweise
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls
für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\[
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
\rangle.
@ -126,14 +126,17 @@ $^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
In Situation~\ref{sit:9-1-1} sei
\[
B := \{ \vec{v}_1, …, \vec{v}_n \}
\]
eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie
zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{enumerate}
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
$Q^t·Q = \Id_{n n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n
n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\end{enumerate}
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
wie immer für die komplex-konjugierte Matrix.

View File

@ -5,36 +5,36 @@
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote}
Self-adjoint operators are used in functional analysis and quantum
mechanics. In quantum mechanics their importance lies in the Diracvon Neumann
formulation of quantum mechanics, in which physical observables such as
position, momentum, angular momentum and spin are represented by self-adjoint
operators on a Hilbert space. Of particular significance is the Hamiltonian
operator $\what{H}$ defined by
\foreignlanguage{english}{Self-adjoint operators are used in functional
analysis and quantum mechanics. In quantum mechanics their importance lies in
the Diracvon Neumann formulation of quantum mechanics, in which physical
observables such as position, momentum, angular momentum and spin are
represented by self-adjoint operators on a Hilbert space. Of particular
significance is the Hamiltonian operator $\what{H}$ defined by
\[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\]
which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$.
$m$ in a real potential field $V$.}
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)}
\end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
Bedingung $f = f^{\ad}$ in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\]
\end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}.
\]
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist.
\end{bsp}
@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$.
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$. Rechnen Sie
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\]
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist.
\end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.
@ -107,7 +107,7 @@ besonders einfacher Weise.
Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
die Berechnung von $S^{-1}$ extrem einfach.
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
macht die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
Diagonalmatrix ist.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische oder
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
ist.
\end{kor}
\begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was

View File

@ -515,8 +515,8 @@ Insgesamt sehen wir, dass die Menge
\[
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\]
eine orthonormale Teilmengen des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,•
\rangle\bigr)$ ist.
\subsubsection{Rekonstruktion von Funktionen}