From 37b91c5e0259983d51eb34fad6d7c79416223689 Mon Sep 17 00:00:00 2001 From: Stefan Kebekus Date: Mon, 23 Jun 2025 15:13:56 +0200 Subject: [PATCH] Working --- .vscode/ltex.dictionary.en-US.txt | 1 + .vscode/ltex.hiddenFalsePositives.de-DE.txt | 2 + 05-Skalarprodukt-im-Rn.tex | 46 ++++++++------- 06-Produkte.tex | 6 +- 09-Orthogonal-Unitary.tex | 23 ++++---- 10-selfAdjoint.tex | 62 ++++++++++----------- 12-Anwendungen.tex | 4 +- 7 files changed, 74 insertions(+), 70 deletions(-) create mode 100644 .vscode/ltex.dictionary.en-US.txt diff --git a/.vscode/ltex.dictionary.en-US.txt b/.vscode/ltex.dictionary.en-US.txt new file mode 100644 index 0000000..1f0e716 --- /dev/null +++ b/.vscode/ltex.dictionary.en-US.txt @@ -0,0 +1 @@ +observables diff --git a/.vscode/ltex.hiddenFalsePositives.de-DE.txt b/.vscode/ltex.hiddenFalsePositives.de-DE.txt index 275a27a..ede056b 100644 --- a/.vscode/ltex.hiddenFalsePositives.de-DE.txt +++ b/.vscode/ltex.hiddenFalsePositives.de-DE.txt @@ -52,3 +52,5 @@ {"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"} {"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"} {"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"} +{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"} diff --git a/05-Skalarprodukt-im-Rn.tex b/05-Skalarprodukt-im-Rn.tex index bd7b253..31fe4bb 100644 --- a/05-Skalarprodukt-im-Rn.tex +++ b/05-Skalarprodukt-im-Rn.tex @@ -29,7 +29,7 @@ beliebige Vektorräume. \end{matrix} \] heißt \emph{Euklidische Norm auf dem - $ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}. + $ℝ^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $ℝ^n$}. \end{defn} \begin{defn}[Euklidischer Abstand auf dem $ℝ^n$] @@ -42,7 +42,7 @@ beliebige Vektorräume. \] heißt \emph{Euklidischer Abstand auf dem $ℝ^n$}\index{Abstand|see{Metrik}} oder \emph{Euklidische Metrik auf dem - $ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}. + $ℝ^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $ℝ^n$}. \end{defn} Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$. @@ -141,9 +141,9 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation \begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}% Es sei $n ∈ ℕ$ eine Zahl. Eine \emph{orthogonale Transformation des $ℝ^n$ - bezüglich des Euklidischen Abstands}\index{Transformation des - $ℝ^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine - abstandserhaltende Abbildung $ψ: ℝ^n ˝→ ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$. + bezüglich des Euklidischen Abstands}\index{Transformation des $ℝ^n$!orthogonal + bezüglich des Euklidischen Abstands} ist eine abstandserhaltende Abbildung $ψ: + ℝ^n → ℝ^n$ mit $ψ(\vec{0}) = \vec{0}$. \end{defn} @@ -152,12 +152,12 @@ Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale Transformation eine Gruppe bilden. -\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3} +\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}% Es sei $n ∈ ℕ$ eine Zahl. Die orthogonalen Transformationen bilden mit der Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(ℝ^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $ℝ^n$ - bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ - bezüglich der Euklidischen Norm}. + bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $ℝ^n$ bezüglich + der Euklidischen Norm}. \end{defn} @@ -191,8 +191,8 @@ Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $ℝ^n$“. \end{defn} Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden -einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen -Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere +einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf +einen Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere Eigenschaft einmal selbst? \begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts] @@ -232,18 +232,16 @@ Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht scheint. \begin{defn}[Orthogonale Vektoren] - Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und - $\vec{y} ∈ ℝ^n$ \emph{zueinander orthogonal}, falls - $\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von - Vektoren}. + Es sei $n ∈ ℕ$ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und $\vec{y} ∈ + ℝ^n$ \emph{zueinander orthogonal}, falls $\langle \vec{x}, \vec{y} \rangle = + 0$ ist\index{orthogonal!Paar von Vektoren}. \end{defn} \begin{defn}[Orthonormalbasis] Eine Basis $\{\vec{v}_1, …, \vec{v}_n\} ⊂ ℝ^n$ heißt \emph{Orthonormalbasis - bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter - Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, - \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta - bezeichnet. + bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter Freunden: + ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, \vec{v}_j \rangle = + δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta bezeichnet. \end{defn} \begin{bsp} @@ -253,10 +251,10 @@ scheint. Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral. -\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho} +\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}% Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$ - gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei - $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann: + gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter + sei $\vec{x} ∈ ℝ^n$ ein Vektor, den ich als Linearkombination darstellen kann: \[ \vec{x} = \sum_{i=1}^n λ_i·\vec{v}_i . \] @@ -279,7 +277,7 @@ Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral. Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun? Eine Menge, wie wir sofort sehen werden. -\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7} +\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}% Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y} ∈ ℝ^n$ die Gleichung @@ -318,7 +316,7 @@ Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen Transformationen des $ℝ^n$ (und damit auch die abstandserhaltenden Abbildungen) vollständig beschreiben. -\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1} +\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}% Es sei $φ: ℝ^n → ℝ^n$ eine orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands. Dann ist die Abbildung $φ$ linear. \end{satz} @@ -344,7 +342,7 @@ vollständig beschreiben. Damit ist die Linearität gezeigt. \qed \end{proof} -\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2} +\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}% Es sei $φ: ℝ^n → ℝ^n$ eine lineare Abbildung, die bezüglich der Standardbasis des $ℝ^n$ durch die Matrix $Q$ dargestellt wird. TFAE: \begin{enumerate} diff --git a/06-Produkte.tex b/06-Produkte.tex index c6f85bf..2fb7a11 100644 --- a/06-Produkte.tex +++ b/06-Produkte.tex @@ -13,9 +13,9 @@ noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu diskutieren. Hier kommen alle relevanten Definitionen. -\begin{defn}[Bilinearformen]\label{def:6-1-1} - Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung - $b: V⨯V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder +\begin{defn}[Bilinearformen]\label{def:6-1-1}% + Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung $b: V⨯V → k$ + heißt \emph{bilinear}\index{bilineare Abbildung} oder \emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt. \begin{description} diff --git a/09-Orthogonal-Unitary.tex b/09-Orthogonal-Unitary.tex index d65f73e..41bfb78 100644 --- a/09-Orthogonal-Unitary.tex +++ b/09-Orthogonal-Unitary.tex @@ -12,18 +12,18 @@ größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff „orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die folgende Situation. -\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1} - Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler +\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}% + Sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Endomorphismus. \end{situation} -\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2} +\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}% In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$ \emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation} beziehungsweise - \emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, - falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt: + \emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls + für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt: \[ \bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w} \rangle. @@ -126,14 +126,17 @@ $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. \begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}% - In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine - angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu - Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. + In Situation~\ref{sit:9-1-1} sei + \[ + B := \{ \vec{v}_1, …, \vec{v}_n \} + \] + eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie + zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. \begin{enumerate} \item Die Abbildung $f$ ist orthogonal beziehungsweise unitär. - \item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung - $Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$. + \item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯ + n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$. \end{enumerate} Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht wie immer für die komplex-konjugierte Matrix. diff --git a/10-selfAdjoint.tex b/10-selfAdjoint.tex index 908aaf1..741c4f8 100644 --- a/10-selfAdjoint.tex +++ b/10-selfAdjoint.tex @@ -5,36 +5,36 @@ \sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets -eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel -betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch -$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen -Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten'' -Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort -allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen. +eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel betrachten +wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch $f^{\ad}$ +Endomorphismen von $V$ und wir und fragen, ob und unter welchen Umständen +vielleicht $f = f^{\ad}$ ist. Solche „selbstadjungierten“ Endomorphismen treten +in der Analysis und in der Quantenmechanik auf, dort allerdings meistens im +Zusammenhang mit unendlich-dimensionalen Vektorräumen. \begin{quote} - Self-adjoint operators are used in functional analysis and quantum - mechanics. In quantum mechanics their importance lies in the Dirac–von Neumann - formulation of quantum mechanics, in which physical observables such as - position, momentum, angular momentum and spin are represented by self-adjoint - operators on a Hilbert space. Of particular significance is the Hamiltonian - operator $\what{H}$ defined by + \foreignlanguage{english}{Self-adjoint operators are used in functional + analysis and quantum mechanics. In quantum mechanics their importance lies in + the Dirac–von Neumann formulation of quantum mechanics, in which physical + observables such as position, momentum, angular momentum and spin are + represented by self-adjoint operators on a Hilbert space. Of particular + significance is the Hamiltonian operator $\what{H}$ defined by \[ \what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ \] which as an observable corresponds to the total energy of a particle of mass - $m$ in a real potential field $V$. + $m$ in a real potential field $V$.} -- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia (Self-adjoint operator)} \end{quote} Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte -Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht. +Bedingung „$f = f^{\ad}$“ in der folgenden Definition gar nicht auftaucht. Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an. -\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1} - Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler +\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}% + Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimen\-sionaler Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Endomorphismus. Nenne den Endomorphismus $f$ \emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert}, @@ -45,7 +45,7 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an. \] \end{defn} -\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2} +\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}% Es sei $V = ℝ^n$ oder $V = ℂ^n$ ausgestattet mit dem Standardskalarprodukt und es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt @@ -54,8 +54,8 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an. = \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} · \overline{\vec{w}}. \] - Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die - Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus + Es folgt: Der Endomorphismus ist genau dann selbstadjungiert, falls die + Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: Der Endomorphismus ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder Hermitesche Matrix ist. \end{bsp} @@ -63,20 +63,20 @@ Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an. \begin{aufgabe} In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung - $Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. - Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung + $Φ_{\mathcal{B}} : V → ℝ^n$ oder $Φ_{\mathcal{B}} : V → ℂ^n$. Rechnen Sie + nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung \[ \underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = % \underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}} \] - Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die + Folgern Sie mithilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn $\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix ist. \end{aufgabe} Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte -Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes +Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel Interessantes sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in besonders einfacher Weise. @@ -107,7 +107,7 @@ besonders einfacher Weise. Der folgende Satz ist in der Literatur auch als \emph{Spektralsatz}\index{Spektralsatz} bekannt. -\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5} +\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}% Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von @@ -120,14 +120,14 @@ Der folgende Satz ist in der Literatur auch als Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind. Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die -Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht -die Berechnung von $S^{-1}$ extrem einfach. +Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das +macht die Berechnung von $S^{-1}$ extrem einfach. -\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen] - Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische - oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt - eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine - Diagonalmatrix ist. +\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]% + Sei $A ∈ \Mat(n ⨯ n, ℝ)$ oder $A ∈ \Mat(n ⨯ n, ℂ)$ eine symmetrische oder + Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt eine + orthogonale oder unitäre Matrix $S$, sodass $S·A·S^{-1}$ eine Diagonalmatrix + ist. \end{kor} \begin{proof} Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was diff --git a/12-Anwendungen.tex b/12-Anwendungen.tex index 15b0e9c..16a6ce5 100644 --- a/12-Anwendungen.tex +++ b/12-Anwendungen.tex @@ -515,8 +515,8 @@ Insgesamt sehen wir, dass die Menge \[ \mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\} \] -eine orthonormale Teilmengen des Euklidischen Vektorraumes -$\bigl( V, \langle •,• \rangle\bigr)$ ist. +eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •,• +\rangle\bigr)$ ist. \subsubsection{Rekonstruktion von Funktionen}