Fix errors
This commit is contained in:
parent
d60b7d8de5
commit
3bd5ccd104
8
.vscode/ltex.dictionary.de-DE.txt
vendored
8
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -19,3 +19,11 @@ Quotientenvektorraums
|
||||
Erzeugendensystem
|
||||
Quotientenvektorräume
|
||||
Repräsentantenniveau
|
||||
Jordanscher
|
||||
Matrixexponential
|
||||
Matrixexponentials
|
||||
Einsetzungsabbildung
|
||||
Cayley-Hamilton
|
||||
TFAE
|
||||
Jordanblocks
|
||||
Einsetzungsmorphismus
|
||||
|
3
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
3
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -7,3 +7,6 @@
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
|
||||
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
|
@ -626,8 +626,7 @@ zur „dualen Partition“ übergehen.
|
||||
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
|
||||
die Vektoren
|
||||
\[
|
||||
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
|
||||
v^p_{m_p-a}
|
||||
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a}
|
||||
\]
|
||||
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
|
||||
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
|
||||
|
@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{lem}
|
||||
|
||||
\begin{proof}[Beweis als Übungsaufgabe]
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯ n} + J(0,n)$ und
|
||||
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n⨯n} + J(0,n)$ und
|
||||
\[
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯ n} + J(0,n) \bigr)^p
|
||||
J(λ,n)^p =\bigl( λ·\Id_{n⨯n} + J(0,n) \bigr)^p
|
||||
\]
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯ n}$ und $J(0,n)$ kommutieren,
|
||||
Beachten Sie, dass die Matrizen $λ·\Id_{n⨯n}$ und $J(0,n)$ kommutieren,
|
||||
dass also die Gleichheit
|
||||
\[
|
||||
λ·\Id_{n⨯ n}·J(0,n) = λ·J(0,n)·\Id_{n⨯ n}
|
||||
λ·\Id_{n⨯n}·J(0,n) = λ·J(0,n)·\Id_{n⨯n}
|
||||
\]
|
||||
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
|
||||
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
|
||||
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯ n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
|
||||
eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, so dass $B := S·A·S^{-1}$
|
||||
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
Es sei $A$ eine beliebige quadratische $(n⨯n)$-Matrix über den komplexen
|
||||
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs
|
||||
effizient eine invertierbare Matrix $S ∈ GL_n(ℂ)$ finden, sodass $B :=
|
||||
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
|
||||
\[
|
||||
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
|
||||
\]
|
||||
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
|
||||
|
||||
\subsection{Wiederholung}
|
||||
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
|
||||
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt,
|
||||
\[
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}
|
||||
\exp : ℝ → ℝ, \quad t ↦ \sum_{n=0}^∞ \frac{t^n}{n!}.
|
||||
\]
|
||||
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
|
||||
wissen, dass für jede reelle Zahl $t$ gilt
|
||||
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
|
||||
|
||||
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
|
||||
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
|
||||
$(n⨯ n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
$(n⨯n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
|
||||
\[
|
||||
\exp(A) := \sum_{n=0}^∞ \frac{1}{n!}·A^n.
|
||||
\]
|
||||
Dabei sei $A⁰$ stets die $(n⨯ n)$-Einheitsmatrix. Diese Reihe konvergiert
|
||||
in dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
Dabei sei $A⁰$ stets die $(n⨯n)$-Einheitsmatrix. Diese Reihe konvergiert in
|
||||
dem Sinne, dass jeder einzelne der $n²$ vielen Matrixeinträge konvergiert --
|
||||
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
|
||||
Operatornorm, …. Ich erhalte so eine Abbildung
|
||||
\[
|
||||
\exp : \Mat_{n⨯ n}(ℂ) → \Mat_{n⨯ n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n
|
||||
\exp : \Mat_{n⨯n}(ℂ) → \Mat_{n⨯n}(ℂ), \quad A ↦ \sum_{n=0}^∞ \frac{1}{n!}·A^n,
|
||||
\]
|
||||
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
|
||||
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
|
||||
|
||||
\begin{bsp}
|
||||
Es sei $A$ eine komplexe $(n⨯ n)$-Diagonalmatrix,
|
||||
Es sei $A$ eine komplexe $(n⨯n)$-Diagonalmatrix,
|
||||
\[
|
||||
A = \begin{pmatrix}
|
||||
λ_1 & & & 0 \\
|
||||
& λ_2 & \\
|
||||
& & \ddots \\
|
||||
0 & & & λ_n
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Dann ist
|
||||
\[
|
||||
@ -192,15 +192,14 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
|
||||
\]
|
||||
\end{bsp}
|
||||
|
||||
Etwas
|
||||
weitergehende Beispiele finden Sie als
|
||||
Etwas weitergehende Beispiele finden Sie als
|
||||
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
|
||||
Matrixexponentials.
|
||||
|
||||
\begin{fakt}[Elementare Fakten zum Matrixpotential]
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe
|
||||
$(n⨯ n)$-Matrizen.
|
||||
Es sei $n ∈ ℕ$ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n⨯
|
||||
n)$-Matrizen.
|
||||
\begin{enumerate}
|
||||
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
|
||||
ist), dann gilt
|
||||
@ -208,8 +207,8 @@ Matrixexponentials.
|
||||
\exp(A+B)=\exp(A)·\exp(B).
|
||||
\]
|
||||
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯ n)$-Matrix
|
||||
$S$ ist
|
||||
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n⨯n)$-Matrix $S$
|
||||
ist
|
||||
\[
|
||||
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
|
||||
\]
|
||||
@ -217,40 +216,40 @@ Matrixexponentials.
|
||||
\end{fakt}
|
||||
|
||||
\begin{beobachtung}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯ n)$-Matrix ist, dann kommutieren die
|
||||
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
Wenn $A$ irgendeine komplexe $(n⨯n)$-Matrix ist, dann kommutieren die Matrizen
|
||||
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
|
||||
\[
|
||||
\Id_{n⨯ n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\Id_{n⨯n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
|
||||
\]
|
||||
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
|
||||
$(n⨯ n)$-Matrix $A$ stets invertierbar ist, und dass
|
||||
$\exp(A)^{-1} = \exp(-A)$ gilt.
|
||||
$(n⨯n)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$
|
||||
gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
|
||||
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
|
||||
|
||||
|
||||
\section{Lineare, homogene Differentialgleichungssysteme}
|
||||
\section{Lineare, homogene Differenzialgleichungssysteme}
|
||||
|
||||
\subsection{Erinnerung}
|
||||
|
||||
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
|
||||
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$
|
||||
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
|
||||
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
|
||||
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der
|
||||
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $ℝ$. Gesucht ist
|
||||
eine differenzierbare Funktion $y : ℝ → ℝ$, sodass für alle $t ∈ ℝ$ gilt: $y'(t)
|
||||
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen
|
||||
Sie, dass es nur eine solche Funktion gibt:
|
||||
$$
|
||||
y(t) = \exp(t·a)·y_0.
|
||||
$$
|
||||
Dasselbe funktioniert genau so mit komplexen Zahlen.
|
||||
|
||||
|
||||
\subsection{Lineare, homogene Differentialgleichungssysteme}
|
||||
\subsection{Lineare, homogene Differenzialgleichungssysteme}
|
||||
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯ n)$-Matrix $A$
|
||||
und ein Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare
|
||||
Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||
Gegeben sei jetzt eine Zahl $n ∈ ℕ$, eine komplexe $(n⨯n)$-Matrix $A$ und ein
|
||||
Vektor $\vec{y}_0 ∈ ℂ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$,
|
||||
…, $y_n : ℂ → ℂ$, sodass für alle $t ∈ ℂ$ gilt:
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
y'_1(t) \\
|
||||
@ -265,7 +264,7 @@ Funktionen $y_1$, …, $y_n : ℂ → ℂ$, so dass für alle $t ∈ ℂ$ gilt:
|
||||
y_2(t) \\
|
||||
\vdots \\
|
||||
y_n(t)
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Außerdem soll
|
||||
\[
|
||||
@ -279,8 +278,8 @@ Außerdem soll
|
||||
\]
|
||||
sein.
|
||||
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
|
||||
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}%
|
||||
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
|
||||
gegeben als
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
@ -299,12 +298,12 @@ sein.
|
||||
\end{bsp}
|
||||
|
||||
|
||||
\subsection{Differentialgleichungen höherer Ordnung}
|
||||
\subsection{Differenzialgleichungen höherer Ordnung}
|
||||
|
||||
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
|
||||
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
|
||||
$y : ℝ → ℝ$, so dass für alle $t ∈ ℝ$ gilt:
|
||||
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
|
||||
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : ℝ → ℝ$,
|
||||
sodass für alle $t ∈ ℝ$ gilt:
|
||||
\begin{equation}\label{eq:3-3-2-1}
|
||||
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
|
||||
\end{equation}
|
||||
@ -344,9 +343,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
|
||||
y_0 \\
|
||||
y'_0 \\
|
||||
y''_0
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
|
||||
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme,
|
||||
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
|
||||
|
||||
\begin{bsp}
|
||||
|
@ -18,9 +18,8 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
|
||||
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
|
||||
\]
|
||||
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $x²$, $x³$ und
|
||||
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
|
||||
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||
``Polynome''.
|
||||
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort,
|
||||
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“.
|
||||
|
||||
\begin{defn}[Polynome]
|
||||
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
|
||||
@ -45,15 +44,15 @@ sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
|
||||
Es ist $t²+π·t- \sqrt{2} ∈ ℝ[t]$, aber nicht in $ℚ[t]$.
|
||||
\end{bsp}
|
||||
|
||||
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
|
||||
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
|
||||
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
|
||||
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
|
||||
dann sind die Polynome $t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben
|
||||
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
|
||||
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
|
||||
Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule
|
||||
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦
|
||||
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten
|
||||
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind!
|
||||
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome
|
||||
$t$, $t²$, $t³$, … alle unterschiedlich (denn sie haben ja unterschiedlichen
|
||||
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es
|
||||
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen
|
||||
des endlichen Körpers $𝔽_2$.
|
||||
|
||||
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
|
||||
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
|
||||
@ -68,17 +67,16 @@ Selbstabbildungen des endlichen Körpers $𝔽_2$.
|
||||
\]
|
||||
genannt
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
|
||||
Matrix $p(A)$ und eine
|
||||
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
|
||||
$s: k[t] → \Mat(n⨯ n, k)$ durch $s(A) = p(A)$.
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und
|
||||
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t]
|
||||
→ \Mat(n⨯n, k)$ durch $s(A) = p(A)$.
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯ n)$-Matrix $A$ mit Einträgen in
|
||||
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
|
||||
Matrix $S ∈ GL_n(k)$ haben, dann ist
|
||||
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}%
|
||||
Gegeben eine Zahl $n ∈ ℕ$, eine $(n⨯n)$-Matrix $A$ mit Einträgen in $k$ und
|
||||
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈
|
||||
GL_n(k)$ haben, dann ist
|
||||
\[
|
||||
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
|
||||
\]
|
||||
@ -108,22 +106,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
|
||||
|
||||
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
|
||||
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
|
||||
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht
|
||||
das Nullpolynom betrachten.
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-7}
|
||||
\begin{beobachtung}\label{beob:4-0-7}%
|
||||
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder
|
||||
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
$p(f) = 0$ und wenn $λ ∈ k ∖ \{0\}$ dann ist $q := λ·p$ auch wieder ein
|
||||
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
|
||||
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
|
||||
1 ist.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}\label{beob:4-0-8}
|
||||
\begin{beobachtung}\label{beob:4-0-8}%
|
||||
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
|
||||
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
|
||||
$q := p_1-p_2$. Dann gilt Folgendes.
|
||||
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade
|
||||
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q
|
||||
:= p_1-p_2$. Dann gilt Folgendes.
|
||||
\begin{itemize}
|
||||
\item Das Polynome $q$ ist nicht das Nullpolynom.
|
||||
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0 ∈ \End(V)$.
|
||||
@ -151,7 +149,7 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
|
||||
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
|
||||
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
|
||||
dies Minimalpolynome eindeutig bestimmt ist.
|
||||
das Minimalpolynom eindeutig bestimmt ist.
|
||||
\end{bemerkung}
|
||||
|
||||
\begin{bsp}
|
||||
@ -162,9 +160,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
5 & 1 & 0 \\
|
||||
0 & 5 & 0 \\
|
||||
0 & 0 & 5
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯ 3}$, ist das
|
||||
Da die Matrix $A$ kein Vielfaches von $\Id_{3⨯3}$, ist das
|
||||
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
|
||||
\[
|
||||
A² =
|
||||
@ -172,9 +170,9 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
25 & 10 & 0 \\
|
||||
0 & 25 & 0 \\
|
||||
0 & 0 & 25
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
Also ist $A²-10·A+25·\Id_{3⨯ 3} = 0$. Also ist
|
||||
Also ist $A²-10·A+25·\Id_{3⨯3} = 0$. Also ist
|
||||
$p(t) = t²-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
|
||||
hat. Das muss dann wohl das Minimalpolynom sein.
|
||||
\end{bsp}
|
||||
@ -190,13 +188,13 @@ Diese Beobachtungen legen folgende Definition nahe.
|
||||
Minimalpolynom.
|
||||
\end{beobachtung}
|
||||
|
||||
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
|
||||
|
||||
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
|
||||
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
|
||||
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
|
||||
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
|
||||
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat.
|
||||
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt
|
||||
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
|
||||
@ -207,9 +205,9 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
|
||||
als Nullstelle haben und die kein Vielfaches von $p$ sind.
|
||||
\end{enumerate}
|
||||
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
|
||||
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
|
||||
normiert ist und $f$ als Nullstelle hat. Also hat
|
||||
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es
|
||||
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist
|
||||
und $f$ als Nullstelle hat. Also hat
|
||||
\[
|
||||
r(t) = q(t) - t^d·p(t)
|
||||
\]
|
||||
@ -220,8 +218,8 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
\end{proof}
|
||||
|
||||
\begin{satz}[Nullstellen des Minimalpolynoms]
|
||||
Es sei $k$ eine Körper, $A$ eine $(n⨯ n)$-Matrix mit Werten in $k$ und
|
||||
$λ ∈ k$. TFAE:
|
||||
Es sei $k$ ein Körper, $A$ eine $(n⨯n)$-Matrix mit Werten in $k$ und $λ ∈ k$.
|
||||
TFAE:
|
||||
\begin{enumerate}
|
||||
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
|
||||
|
||||
@ -239,7 +237,7 @@ Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
|
||||
vollständig beantworten.
|
||||
|
||||
\begin{satz}[Beschreibung des Minimalpolynoms über $ℂ$]
|
||||
Es sei $A$ eine $(n⨯ n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Es sei $A$ eine $(n⨯n)$-Matrix über den komplexen Zahlen. Bezeichne die
|
||||
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
|
||||
\[
|
||||
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
|
||||
|
Loading…
x
Reference in New Issue
Block a user