LineareAlgebra2/10-selfAdjoint.tex
Stefan Kebekus 37b91c5e02 Working
2025-06-23 15:13:56 +02:00

138 lines
6.5 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Selbstadjungierte Endomorphismen}
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten
wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$
Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen
vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten
in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im
Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote}
\foreignlanguage{english}{Self-adjoint operators are used in functional
analysis and quantum mechanics. In quantum mechanics their importance lies in
the Diracvon Neumann formulation of quantum mechanics, in which physical
observables such as position, momentum, angular momentum and spin are
represented by self-adjoint operators on a Hilbert space. Of particular
significance is the Hamiltonian operator $\what{H}$ defined by
\[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\]
which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$.}
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)}
\end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
falls für alle $\vec{v}, \vec{w} ∈ V$ die folgende Gleichheit gilt,
\[
\bigl\langle f(\vec{v}), \vec{w} \bigr\rangle = \bigl\langle \vec{v},
f(\vec{w}) \bigr\rangle.
\]
\end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}%
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
\[
\vec{v}^t · A^t · \overline{\vec{w}} = \langle A · \vec{v}, \vec{w} \rangle
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}.
\]
Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist.
\end{bsp}
\begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$. Rechnen Sie
nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\]
Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist.
\end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.
\begin{satz}[Selbstadjungierte Endomorphismen haben reelle Eigenwerte]
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann sind alle Eigenwerte von $f$ reell
und das charakteristische Polynom zerfällt in reelle Linearfaktoren.
\end{satz}
\begin{proof}
Ich diskutiere nur den Fall, wo $\bigl( V, \langle •,• \rangle\bigr)$ unitär
ist. Sei also $λ ∈ $ ein Eigenwert von $f$, und sei $\vec{v} ∈ V$ ein
zugehöriger Eigenvektor. Dann gilt
\[
λ · \langle \vec{v}, \vec{v} \rangle %
= \langle λ · \vec{v}, \vec{v} \rangle %
= \bigl\langle f(\vec{v}), \vec{v} \bigr\rangle %
= \bigl\langle \vec{v}, f(\vec{v}) \bigr\rangle %
= \langle \vec{v}, λ · \vec{v} \rangle %
= \overline{λ} · \langle \vec{v}, \vec{v} \rangle.
\]
Weil jetzt noch $\langle \vec{v}, \vec{v} \rangle > 0$ ist, kann ich auf
beiden Seiten dividieren und erhalte $λ = \overline{λ}$. Also muss der
Eigenwert $λ$ wohl reell gewesen sein.
\end{proof}
Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
$V$, die nur aus Eigenvektoren besteht.
\end{satz}
\begin{proof}
\video{15-1}
\end{proof}
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das
macht die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]%
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische oder
Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine
orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix
ist.
\end{kor}
\begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
bei Basiswechsel geschieht!
\end{proof}
% !TEX root = LineareAlgebra2