% spell checker language
\selectlanguage{german}

\chapter{Selbstadjungierte Endomorphismen}

\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt.  In diesem Kapitel
betrachten wir den Spezialfall wo $V = W$ ist.  Dann sind sowohl $f$ als auch
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
Umständen vielleicht $f = f^{\ad}$ ist.  Solche ``selbstadjungierten''
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.

\begin{quote}
  Self-adjoint operators are used in functional analysis and quantum
  mechanics.  In quantum mechanics their importance lies in the Dirac–von Neumann
  formulation of quantum mechanics, in which physical observables such as
  position, momentum, angular momentum and spin are represented by self-adjoint
  operators on a Hilbert space.  Of particular significance is the Hamiltonian
  operator $\what{H}$ defined by
  \[
    \what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
  \]
  which as an observable corresponds to the total energy of a particle of mass
  $m$ in a real potential field $V$.

  -- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
    (Self-adjoint operator)}
\end{quote}

Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.

\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
  Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
  Euklidischer oder unitärer Vektorraum.  Weiter sei $f: V → V$ ein
  Endomorphismus.  Nenne den Endomorphismus $f$
  \emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
  falls für alle $\vec{v}, \vec{w} ∈ V$ die folgende Gleichheit gilt,
  \[
    \bigl\langle f(\vec{v}), \vec{w} \bigr\rangle = \bigl\langle \vec{v},
    f(\vec{w}) \bigr\rangle.
  \]
\end{defn}

\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
  Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und
  es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben.  Dann ist $f$ genau dann
  selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
  \[
    \vec{v}^t · A^t · \overline{\vec{w}} = \langle A · \vec{v}, \vec{w} \rangle
    = \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
    \overline{\vec{w}}.
  \]
  Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
  Gleichung $A^t = \overline{A}$ gilt.  Anders formuliert: der Endomorphismus
  ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
  Hermitesche Matrix ist.
\end{bsp}

\begin{aufgabe}
  In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
  angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
  $Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$.
  Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
  \[
    \underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
    \underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
  \]
  Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
  Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
  $\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
  ist.
\end{aufgabe}

Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
sagen ließe.  Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.

\begin{satz}[Selbstadjungierte Endomorphismen haben reelle Eigenwerte]
  Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
  Euklidischer oder unitärer Vektorraum.  Weiter sei $f: V → V$ ein
  selbstadjungierter Endomorphismus.  Dann sind alle Eigenwerte von $f$ reell
  und das charakteristische Polynom zerfällt in reelle Linearfaktoren.
\end{satz}
\begin{proof}
  Ich diskutiere nur den Fall, wo $\bigl( V, \langle •,• \rangle\bigr)$ unitär
  ist.  Sei also $λ ∈ ℂ$ ein Eigenwert von $f$, und sei $\vec{v} ∈ V$ ein
  zugehöriger Eigenvektor.  Dann gilt
  \[
    λ · \langle \vec{v}, \vec{v} \rangle %
    = \langle λ · \vec{v}, \vec{v} \rangle %
    = \bigl\langle f(\vec{v}), \vec{v} \bigr\rangle %
    = \bigl\langle \vec{v}, f(\vec{v}) \bigr\rangle %
    = \langle \vec{v}, λ · \vec{v} \rangle %
    = \overline{λ} · \langle \vec{v}, \vec{v} \rangle.
  \]
  Weil jetzt noch $\langle \vec{v}, \vec{v} \rangle > 0$ ist, kann ich auf
  beiden Seiten dividieren und erhalte $λ = \overline{λ}$.  Also muss der
  Eigenwert $λ$ wohl reell gewesen sein.
\end{proof}

Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.

\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
  Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
  Euklidischer oder unitärer Vektorraum.  Weiter sei $f: V → V$ ein
  selbstadjungierter Endomorphismus.  Dann gibt es eine Orthonormalbasis von
  $V$, die nur aus Eigenvektoren besteht.
\end{satz}
\begin{proof}
  \video{15-1}
\end{proof}

Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können.  Das macht
die Berechnung von $S^{-1}$ extrem einfach.

\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
  Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische
  oder Hermitesche Matrix.  Dann ist $A$ diagonalisierbar.  Besser noch: es gibt
  eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
  Diagonalmatrix ist.
\end{kor}
\begin{proof}
  Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
  bei Basiswechsel geschieht!
\end{proof}

% !TEX root = LineareAlgebra2