LineareAlgebra2/10-selfAdjoint.tex
Stefan Kebekus 0fed897098 Cleanup
2025-04-07 13:20:44 +02:00

138 lines
6.4 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Selbstadjungierte Endomorphismen}
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote}
Self-adjoint operators are used in functional analysis and quantum
mechanics. In quantum mechanics their importance lies in the Diracvon Neumann
formulation of quantum mechanics, in which physical observables such as
position, momentum, angular momentum and spin are represented by self-adjoint
operators on a Hilbert space. Of particular significance is the Hamiltonian
operator $\what{H}$ defined by
\[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\]
which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$.
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)}
\end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
falls für alle $\vec{v}, \vec{w} ∈ V$ die folgende Gleichheit gilt,
\[
\bigl\langle f(\vec{v}), \vec{w} \bigr\rangle = \bigl\langle \vec{v},
f(\vec{w}) \bigr\rangle.
\]
\end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
\[
\vec{v}^t · A^t · \overline{\vec{w}} = \langle A · \vec{v}, \vec{w} \rangle
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}.
\]
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist.
\end{bsp}
\begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$.
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\]
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist.
\end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.
\begin{satz}[Selbstadjungierte Endomorphismen haben reelle Eigenwerte]
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann sind alle Eigenwerte von $f$ reell
und das charakteristische Polynom zerfällt in reelle Linearfaktoren.
\end{satz}
\begin{proof}
Ich diskutiere nur den Fall, wo $\bigl( V, \langle •,• \rangle\bigr)$ unitär
ist. Sei also $λ ∈ $ ein Eigenwert von $f$, und sei $\vec{v} ∈ V$ ein
zugehöriger Eigenvektor. Dann gilt
\[
λ · \langle \vec{v}, \vec{v} \rangle %
= \langle λ · \vec{v}, \vec{v} \rangle %
= \bigl\langle f(\vec{v}), \vec{v} \bigr\rangle %
= \bigl\langle \vec{v}, f(\vec{v}) \bigr\rangle %
= \langle \vec{v}, λ · \vec{v} \rangle %
= \overline{λ} · \langle \vec{v}, \vec{v} \rangle.
\]
Weil jetzt noch $\langle \vec{v}, \vec{v} \rangle > 0$ ist, kann ich auf
beiden Seiten dividieren und erhalte $λ = \overline{λ}$. Also muss der
Eigenwert $λ$ wohl reell gewesen sein.
\end{proof}
Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
$V$, die nur aus Eigenvektoren besteht.
\end{satz}
\begin{proof}
\video{15-1}
\end{proof}
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
Diagonalmatrix ist.
\end{kor}
\begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
bei Basiswechsel geschieht!
\end{proof}
% !TEX root = LineareAlgebra2