找回密码
 快速注册
搜索
查看: 56|回复: 3

友矩阵的最小多项式是$[p(x)]^k$的形式

[复制链接]

413

主题

1558

回帖

1万

积分

积分
11498

显示全部楼层

abababa 发表于 2023-5-19 19:53 |阅读模式
设$V$是数域$\mathbb{F}$上的线性空间,$\sigma$是$V$上的线性变换,$\sigma$在$V$上的最小多项式为$m(x)=[p(x)]^{\ell}$,其中$p(x)$在$\mathbb{F}$中不可约。设$W=\text{span}[v,\sigma(v),\cdots,\sigma^{t-1}(v)]$是由$v$生成的$\sigma$-循环子空间,则可以证明$\sigma|_W$在$W$的循环基(就是span里的那些元素)下的矩阵是
\[
A=\begin{bmatrix}
0 & 0 & \cdots & 0 & -a_0\\
1 & 0 & \cdots & 0 & -a_1\\
0 & 1 & \cdots & 0 & -a_2\\
\vdots & \vdots & ~ & \vdots & \vdots\\
0 & 0 & \cdots & 0 & -a_{t-2}\\
0 & 0 & \cdots & 1 & -a_{t-1}
\end{bmatrix}
\]

其中$a_0,\cdots,a_{t-1}$由$\sigma^t(v)=-(a_{t-1}\sigma^{t-1}(v)+\cdots+a_0v)$确定。求证$A$的最小多项式是$[p(x)]^k$的形式,其中$k\le\ell$。

直观上因为$W$是不变子空间,所以$A=\sigma|_W$的最小多项式就必须是$\sigma$的最小多项式的因子,所以是$[p(x)]^k$的形式。但是我记得有一个准素分解定理,因为$\sigma$在$V$上的最小多项式为$m(x)=[p(x)]^{\ell}$,所以它就是分解出唯一的一个不变子空间$N=\ker([p(x)]^{\ell})$,$\sigma|_N$的最小多项式就是$m(x)=[p(x)]^{\ell}$。那么这个$k\le\ell$里的$k$是怎么来的呢?

准素分解定理:doc88.com/p-0867690725886.html

3149

主题

8386

回帖

6万

积分

$\style{scale:11;fill:#eff}꩜$

积分
65391
QQ

显示全部楼层

hbghlyj 发表于 2023-5-19 23:17
本帖最后由 hbghlyj 于 2023-6-20 08:55 编辑

补充
ProofWiki
Theorem 5.2.

3149

主题

8386

回帖

6万

积分

$\style{scale:11;fill:#eff}꩜$

积分
65391
QQ

显示全部楼层

hbghlyj 发表于 2023-6-20 06:43
定理:若 $\mathbf{C}$ 是域F上 m 维线性空间 W 上的线性变换,如果 $\mathbf C$ 的最小多项式是一个不可约多项式的幂,即 $m(\lambda)=p^l(\lambda)$ ,其中 $q(\lambda)$ 为域 F 上的 r 次不可约多项式,那么线性空间 W 可以分解成 $\frac1 r \dim W_0$ 个 $\mathbf C$ -循环子空间的直和,其中 $W_0=\ker p(\mathbf C)$ 。
这个定理是线性变换具有理标准型的前奏。其证明也是很繁琐,整篇证明看下来给人一种恍惚感,貌似很难把握证明的核心路线。因此我会尝试着以一种更具启发性的方法给这个证明重新写一遍,一方面加深自己的理解,另一方面给迷茫的小伙伴一点途径。
首先要确定一个很明确的思路,这个思路在Jordan标准型那里就已经广泛运用了,这是我们证明这类问题通常使用的路线:利用归纳法,从商空间回到补空间来寻找我们想要的分解
当然m=1的时候结论是trivial的,现在假定对于所有维数小于m的线性空间,定理都成立。来讨论当W的维数为m时的情况。
最小多项式 $m(\lambda)=p^l(\lambda)$ ,在这里我们将只考虑 $l>1$ 的情况,这时因为 $p(\mathbf C)\not=0$ ,所以有 $\ker p(\mathbf C)=W_0\not=W$ 。
这样当我们考虑商空间 $W/W_0$ 时,有结论 $\dim W/W_0>0$ ,从而 $W/W_0\not=0$ ,但是 $\dim W/W_0=\dim W-\dim W_0<m$ 。令 $\tilde{\mathbf C}$ 是线性变换 $\mathbf C$ 在商空间上诱导出来的线性变换,即 $\tilde{\mathbf C}(\gamma+W_0)=\mathbf C\gamma+W_0,\forall \gamma\in W$ 。
我们可以用到归纳假设将商空间 $W/W_0$ 分解成 $s$ 个循环子空间的直和,
$W/W_0=\bigoplus_{j=1}^s\langle\xi_j+W_0,\tilde{\mathbf C}(\xi_j+W_0),\cdots,\tilde{\mathbf C}^{t_j-1}(\xi_j+W_0)\rangle.$
而且由此我们得到了商空间的一组基:
$\bigcup_{j=1}^{s}\left\{\tilde{\mathbf C}^{i-1}(\xi_j+W_0),i=1,2,\cdots,t_j\right\}.$
根据我们由商空间回到补空间的思路,令:
$U=\langle\xi_1,\mathbf C\xi_1,\cdots,\mathbf C^{t_j-1}\xi_1,\cdots\cdots,\xi_s,\mathbf C\xi_s,\cdots,\mathbf C^{t_s-1}\xi_s\rangle$
那么 $U$ 就是 $W_0$ 在 $W$ 中的补空间,于是我们有: $W=U\oplus W_0$ 。
而且U的一组基便是:
$\bigcup_{j=1}^{s}\left\{\mathbf C^{i-1}\xi_j,i=1,2,\cdots,t_j\right\}.$
既定的思路走到尽头了,下面就要全凭我们的观察和直觉前进了。
我们看到,在U的基里,对于每个 $j$ , $\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j\rangle$ 看起来很像是一个 $\mathbf C$ -循环子空间的样子,会不会它就是循环子空间呢?我们来验证一下!
向量组 $\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j$ 显然是线性无关的。所以只要验证 $\mathbf C^{t_j}\xi_j$ 是否能用该向量组线性表出即可。
很容易观察到的是,因为 $\langle\xi_j+W_0,\tilde{\mathbf C}(\xi_j+W_0),\cdots,\tilde{\mathbf C}^{t_j-1}(\xi_j+W_0)\rangle$ 是商空间 $W/W_0$ 上的 $\tilde{\mathbf C}$ -循环子空间,所以
$\tilde{\mathbf C}^{t_j}(\xi_j+W_0)=-\sum_{i=0}^{t_j-1}q_i\tilde{\mathbf C}^{i}(\xi_j+W_0).$
也即:
$\mathbf C^{t_j}\xi_j+W_0=\left(-\sum_{i=0}^{t_j-1}q_i\mathbf C^{i}\xi_j\right)+W_0.$
由商空间的定义,上式表明: $\eta_j=\mathbf C^{t_j}\xi_j-\left(-\sum_{i=0}^{t_j-1}q_i\mathbf C^{i}\xi_j\right)\in W_0$ 。
于是有: $\mathbf C^{t_j}\xi_j=\eta_j-\left(\sum_{i=0}^{t_j-1}q_i\mathbf C^{i}\xi_j\right).$ 其中 $\eta_j\in W_0$ 。
这样,先前讨论的 $\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j\rangle$ 就不是 $\mathbf C$ -循环子空间,因为要表出上式左边还需要一个 $W_0$ 中的向量 $\eta_j$ 。
这个 $\eta_j$ 到底是什么?我们能把它表示成与 $\xi_j$ 相关的向量的和吗?我们当然希望答案是可以。如果能在 $W_0$ 中找到补充的向量组,将它加入到 $\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j\rangle$ 中便成为了循环子空间是最好的。
我们下面就要来尝试这个想法。
因为商空间上的性质还没挖掘完,还可以着手考察线性变换 $\tilde{\mathbf C}$ 在循环子空间 $\langle\xi_j+W_0,\mathbf C\xi_j+W_0,\cdots,\mathbf C^{t_j-1}\xi_j+W_0\rangle$ 上的限制 $\tilde{\mathbf C_j}$ 。循环子空间自然是一个不变空间,所以这个限制一定是循环子空间到自身的线性变换。
设 $\tilde{\mathbf C_j}$ 在 $\langle\xi_j+W_0,\tilde{\mathbf C}(\xi_j+W_0),\cdots,\tilde{\mathbf C}^{t_j-1}(\xi_j+W_0)\rangle$ 上的最小多项式为 $\tilde m_j(\lambda)=\lambda^{t_j}+b_{j,t_j-1}\lambda^{t_j-1}+\cdots+b_{j0}.$
现在来看这个最小多项式有什么样的形式。
设 $\tilde m(\lambda)$ 为线性变换 $\tilde {\mathbf C}$ 在商空间 $W/W_0$ 上的最小多项式。因为 $m(\lambda)=p^l(\lambda)$ 是线性变换 $\mathbf C$ 在W上的最小多项式,所以对于任意 $\gamma\in W$ ,有 $p^l(\tilde{\mathbf C})(\gamma+W_0)=p^l(\mathbf C)\gamma+W_0=W_0$ 。这表明 $p^l(\lambda)$ 是线性变换 $\tilde{\mathbf C}$ 的零化多项式,从而 $\tilde{m}(\lambda)\; |\;p^l(\lambda)$ 。这就说明, $\tilde m(\lambda)=p^k(\lambda)$ ,对于某个 $k\leq l$ 而言。
而对于线性变换 $\tilde{\mathbf C}_j$ ,显然 $\tilde m(\lambda)=p^k(\lambda)$ 是它的一个零化多项式,所以 $\tilde m_j(\lambda)\;|\; p^k(\lambda)$ 。这样, $\tilde{m}_j(\lambda)=p^{h_j}(\lambda)$ ,对于某个 $h_j\leq k$ 而言。
于是,根据一开始假设的 $\tilde m_j(\lambda)$ 的展开式,我们有:
$p^{h_j}(\lambda)=\lambda^{t_j}+b_{j,t_j-1}\lambda^{t_j-1}+\cdots+b_{j0}.$
从最小多项式我们很容易得到,对于向量 $\xi_j$ ,有
$p^{h_j}(\tilde{\mathbf C})(\xi_j+W_0)=p^{h_j}(\mathbf C)\xi_j+W_0=W_0,$
根据商空间的定义,这表明向量 $p^{h_j}(\mathbf C)\xi_j\in W_0$ ,而且,这个向量肯定不为0向量,因为如果它为0,则 $p^{h_j-1}(\mathbf C)\xi_j\in \ker p(\mathbf C)=W_0$ ,这会导致:
$p^{h_j-1}(\tilde{\mathbf C})(\xi_j+W_0)=p^{h_j-1}(\mathbf C)\xi_j+W_0=W_0$
这样 $p^{h_j-1}(\lambda)$ 将会是比最小多项式 $\tilde m_j(\lambda)=p^{h_j}(\lambda)$ 次数更低的零化多项式,这显然是不可能的。
于是 $W_0\ni p^{h_j}(\mathbf C)\xi_j\not=0$ ,从这里得到启发,我们也许可以考察由这个向量(对于每个 $j$ 而言)生成的 $W_0$ 中的 $\mathbf C$ -循环子空间。
考虑限制 $\mathbf C|W_0$ 的最小多项式 $m_0(\lambda)$ 。因为 $W_0=\ker p(\mathbf C)$ ,所以对于任何 $\delta\in W_0$ ,有 $p(\mathbf C|W_0)\delta=p(\mathbf C)\delta=0$ ,从而 $p(\lambda)$ 是线性变换 $\mathbf C|W_0$ 的一个零化多项式,于是 $m_0(\lambda)\;|\; p(\lambda)$ ,因为 $p(\lambda)$ 在域F上不可约,所以 $m_0(\lambda)=p(\lambda)$ 。
现在,对于每个非零向量 $p^{h_j}(\mathbf C)\xi_j\in W_0$ ,设其在 $W_0$ 上生成的 $\mathbf C|W_0$ -循环子空间的最小多项式为 $m_j(\lambda)$ ,显然 $m_j(\lambda)\;|\; p(\lambda)$ ,同样有 $m_j(\lambda)=p(\lambda)$ ,即子空间
$\langle p^{h_j}(\mathbf C)\xi_j,\mathbf Cp^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle$
是 $\mathbf C|W_0$ -循环子空间,因为 $p^{h_j}(\mathbf C)\xi_j\in W_0$ ,这样 $(\mathbf C|W_0)p^{h_j}(\mathbf C)\xi_j=\mathbf Cp^{h_j}(\mathbf C)\xi_j$ ,所以这个子空间也是 $\mathbf C$ -循环子空间。
这下好了,我们得到了一组和 $\xi_j$ 有关的线性无关的向量组,我们可能会试着把它加入到之前讨论的子空间中,即考虑:
$\langle \xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j,p^{h_j}(\mathbf C)\xi_j,\mathbf Cp^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle$
很显然上面包含的向量组是线性无关的,因为左右部分各自线性无关,而且因为它们分别是 $U$ 和 $W_0$ 中的线性无关的向量组, $W=U\oplus W_0$ 是直和,所以总的向量组是线性无关的。
它是一个循环子空间吗?
当然以这种形式肯定看不出来,但是我们可以把 $p^{h_j}(\mathbf C)$ 展开,也许有用。
因为:
\[\begin{align} p^{h_j}(\lambda)&=\lambda^{t_j}+b_{j,t_j-1}\lambda^{t_j-1}+\cdots+b_{j0}\\
\end{align}\]
可以写出:
\[\begin{align} p^{h_j}(\mathbf C)\xi_j&=\mathbf C^{t_j}\xi_j+b_{j,t_j-1}\mathbf C^{t_j-1}\xi_j+\cdots+b_{j0}\xi_j,\\
\mathbf Cp^{h_j}(\mathbf C)\xi_j&=\mathbf C^{t_j+1}\xi_j+b_{j,t_j-1}\mathbf C^{t_j}\xi_j+\cdots+b_{j0}\mathbf C\xi_j,\\
&\cdots\cdots\cdots\\
\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j&=\mathbf C^{t_j+r-1}\xi_j+b_{j,t_j-1}\mathbf C^{t_j+r-2}\xi_j+\cdots+b_{j0}\mathbf C^{r-1}\xi_j,\\
\end{align}\]
从上面的等式我们至少能得到这样的结论,向量组 $\{\mathbf C^{i-1}p^{h_j}(\mathbf C)\xi_j,i=1,2,\cdots,r\}$ 可以用向量组 $\{\mathbf C^{i-1}\xi_j,i=1,2,\cdots,t_j+r\}$ 线性表出。
以及,如果我们将上面那些等式右边第一项单独表示出来,我们又能得到结论:向量组 $\{\mathbf C^{i-1}\xi_j,i=t_j+1,t_j+2,\cdots,t_j+r\}$ 可以由向量组 $\{\mathbf C^{i-1}\xi_j,i=1,2,\cdots,t_j\}\cup\{\mathbf C^{i-1}p^{h_j}(\mathbf C)\xi_j,i=1,2,\cdots,r\}$ 线性表出。
这意味着,上面构造的子空间等于:
\[\begin{align} &\langle \xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j,p^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle\\
&=\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j,\mathbf C^{t_j}\xi_j,\cdots,\mathbf C^{t_j+r-1}\xi_j\rangle \end{align}\]
这就有了循环子空间的形状了。两边向量的个数都是 $t_j+r$ 个,而左边的向量由我们前面的讨论是线性无关的,所以也就是一组基,从而这个子空间的维数就是 $t_j+r$ ,等式右边的向量组可以线性表出左边的基,个数等于维数+可表性就能得出右边的向量组也是一组基,从而也是线性无关的。
验证循环子空间的两个条件,一是上面显示的向量组线性无关,二是考察 $\mathbf C^{t_j+r}\xi_j$ 是否可以由基线性表出。
注意到 $\langle p^{h_j}(\mathbf C)\xi_j,\mathbf Cp^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle$ 是循环子空间,所以 $\mathbf C^{r}p^{h_j}(\mathbf C)\xi_j$ 可以由这些向量线性表出,从而也就能由向量组 $\{\mathbf C^{i-1}\xi_j,i=1,2,\cdots,t_j+r\}$ 线性表出。
但是,注意到:
$\mathbf C^rp^{h_j}(\mathbf C)\xi_j=\mathbf C^{t_j+r}\xi_j+\cdots+b_{j1}\mathbf C^{r+1}\xi_j+b_{j0}\mathbf C^r\xi_j,$
从而 $\mathbf C^{t_j+r}\xi_j$ 便可以用向量组 $\{\mathbf C^{i-1}\xi_j,i=1,2,\cdots,t_j+r\}$ 线性表出。
这样我们就验证了W的子空间 $\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j,\mathbf C^{t_j}\xi_j,\cdots,\mathbf C^{t_j+r-1}\xi_j\rangle$ 是一个C-循环子空间。
我们大概立马就能想到下面的步骤,那就是对于每一个U的子空间 $\langle\xi_j,\mathbf C\xi_j,\cdots,\mathbf C^{t_j-1}\xi_j\rangle$ ,在 $W_0$ 中选取子空间 $\langle p^{h_j}(\mathbf C)\xi_j,\mathbf Cp^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle$ ,并将它们合并成为了一个循环子空间!这样我们就得到了 s 个循环子空间, $W_0$ 中剩下的(如果还有的话)就利用归纳假设!
在这之前还需要解决一个问题,我们需要回答向量组 $\bigcup_{j=1}^s\{\mathbf C^{i-1}p^{h_j}(\mathbf C)\xi_j,i=1,2,\cdots,r\}$ 是否线性无关。
现在假设存在 $d_{ji},i=0,1,\cdots,r-1,j=1,\cdots,s$ 使得:
$\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j}(\mathbf C)\xi_j=0,$
我们需要证明 $d_{ji}=0,i=0,\cdots,r-1,j=1,\cdots,s$ 。
我们可能会想到把 $p^{h_j}(\mathbf C)$ 展开,并利用商空间的基 $\bigcup_{j=1}^{s}\left\{\tilde{\mathbf C}^{i-1}(\xi_j+W_0),i=1,2,\cdots,t_j\right\}$ 的线性无关性。
但有一点无法回避,商空间的基中 $\tilde{\mathbf C}$ 的最高次幂就只到了 $t_j-1$ ,但将 $p^{h_j}(\mathbf C)$ 展开后有 $t_j$ 次幂的项。考虑到商空间的零元是 $W_0$ ,所以比较自然的做法是注意到以下:
$p(\mathbf C)\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j-1}(\mathbf C)\xi_j=0,$
从而向量 $\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j-1}(\mathbf C)\xi_j\in W_0=\ker p(\mathbf C).$
于是在商空间中,我们有:
$\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j-1}(\mathbf C)\xi_j+W_0=W_0,$
现在来将 $p^{h_j-1}(\mathbf C)$ 展开,注意到它的定义:
\[\begin{align} p^{h_j-1}(\mathbf C)\xi_j&=\mathbf C^{t_j-r}\xi_j+e_{j,t_j-1}\mathbf C^{t_j-r-1}\xi_j+\cdots+e_{j0}\xi_j,\\
\mathbf Cp^{h_j-1}(\mathbf C)\xi_j&=\mathbf C^{t_j-r+1}\xi_j+e_{j,t_j-1}\mathbf C^{t_j-r}\xi_j+\cdots+e_{j0}\mathbf C\xi_j,\\
&\cdots\cdots\cdots\\
\mathbf C^{r-1}p^{h_j-1}(\mathbf C)\xi_j&=\mathbf C^{t_j-1}\xi_j+e_{j,t_j-1}\mathbf C^{t_j-2}\xi_j+\cdots+e_{j0}\mathbf C^{r-1}\xi_j,\\
\end{align}\]
对于每一个 $j$ ,将上面的等式加起来,我们得到:
$\sum_{i=0}^{r-1}d_{ji}\mathbf C^ip^{h_j-1}(\mathbf C)\xi_j=d_{j,r-1}\mathbf C^{t_j-1}\xi_j+\sum_{i=0}^{t_j-2}h_{ji}\mathbf C^i\xi_j,$
将这个等式带入,得到:
$\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j-1}(\mathbf C)\xi_j=\sum_{j=1}^sd_{j,r-1}\mathbf C^{t_j-1}\xi_j+\sum_{j=1}^s\sum_{i=0}^{t_j-2}h_{ji}\mathbf C^{i}\xi_j$
从而在商空间中有相应的:
$\sum_{j=1}^sd_{j,r-1}\tilde{\mathbf C}^{t_j-1}(\xi_j+W_0)+\sum_{j=1}^s\sum_{i=0}^{t_j-2}h_{ji}\tilde{\mathbf C}^{i}(\xi_j+W_0)=W_0,$
因为商空间的基是线性无关的,所以从上式可得到: $d_{j,r-1}=0,j=1,2,\cdots,s$ 。
这样原来的
$\sum_{j=1}^s\sum_{i=0}^{r-1}d_{ji}\mathbf C^{i}p^{h_j}(\mathbf C)\xi_j=\sum_{j=1}^{s}\sum_{i=0}^{r-2}d_{ji}\mathbf C^{i}p^{h_j}(\mathbf C)\xi_j=0,$
按照同样的方法,可以依次证明 $d_{j,r-2}=0,d_{j,r-3}=0,\cdots,d_{j,0}=0$ ,其中 $j=1,2,\cdots,s$ 。
这样,我们就证明了向量组 $\bigcup_{j=1}^s\{\mathbf C^{i-1}p^{h_j}(\mathbf C)\xi_j,i=1,2,\cdots,r\}$ 的线性无关性。
综合起来, $W_{01}=\bigoplus_{j=1}^s\langle p^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle$ 就是直和,从而也是 $W_0$ 的一个子空间,其维数 $\dim W_{01}=rs$ 。
记 $W_{02}$ 是 $W_{01}$ 在 $W_0$ 中的补空间,即 $W_0=W_{01}\oplus W_{02}$ ,其中 $W_{02}$ 肯定满足归纳假设,所以它可以分解为 $u$ 个循环子空间的直和: $W_{02}=\bigoplus_{j=1}^u\langle \eta_j,\mathbf C\eta_j,\cdots,\mathbf C^{r-1}\eta_j \rangle.$
从分解式可以看出: $\dim W_{02}=ru$ 。从而我们可以得到 $W_0$ 的直和分解:
$W_0=\left(\bigoplus_{j=1}^s\langle p^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle\right)\oplus\left(\bigoplus_{j=1}^u\langle \eta_j,\cdots,\mathbf C^{r-1}\xi_j\rangle\right)$
这样,从 $W=U\oplus W_0$ ,以及 $U$ 的直和分解,得到:
\[\begin{align} W&=\left(\bigoplus_{j=1}^s\langle \xi_j,\mathbf C\xi_j,\cdots,\mathbf   C^{t_j-1}\xi_j,p^{h_j}(\mathbf C)\xi_j,\cdots,\mathbf C^{r-1}p^{h_j}(\mathbf C)\xi_j\rangle\right)\\
&\qquad\qquad\oplus\left(\bigoplus_{j=1}^{u}\langle \eta_j,\mathbf C\eta_j,\cdots,\mathbf C^{r-1}\eta_j\rangle\right)\\
&=\left(\bigoplus_{j=1}^s\langle \xi_j,\mathbf C\xi_j,\cdots,\mathbf   C^{t_j-1}\xi_j,\mathbf C^{t_j}\xi_j,\cdots,\mathbf C^{t_j+r-1}\xi_j\rangle\right)\\
&\qquad\qquad\oplus\left(\bigoplus_{j=1}^{u}\langle \eta_j,\mathbf C\eta_j,\cdots,\mathbf C^{r-1}\eta_j\rangle\right) \end{align}\]
在上面的直和分解中,每一个子空间都是C-循环子空间,而且其个数为 $s+u$ 个,但是因为 $sr+ur=\dim W_0$ ,所以 $s+u=\frac1 r\dim W_0$ 为C-循环子空间的个数。
这就是维数为m的线性空间对应的结论了,由归纳原理可知对于任何维数为 $m\in \mathbb N$ 的线性空间结论都成立。

3149

主题

8386

回帖

6万

积分

$\style{scale:11;fill:#eff}꩜$

积分
65391
QQ

显示全部楼层

hbghlyj 发表于 2023-6-20 07:25

矩阵与其特征多项式的伴矩阵相似的条件



Let $A$ be an $n\times n$ complex matrix.
Let $p(x)=\det(xI-A)$ be the characteristic polynomial of $A$ and write it as
\[p(x)=x^n+a_{n-1}x^{n-1}+\cdots+a_1x+a_0,\] where $a_i$ are real numbers.

Let $C$ be the companion matrix of the polynomial $p(x)$ given by
\[C=\begin{bmatrix}
0 & 0 & \dots & 0 &-a_0 \\
1 & 0 & \dots & 0 & -a_1 \\
0 & 1 & \dots & 0 & -a_2 \\
\vdots & & \ddots & & \vdots \\
0 & 0 & \dots & 1 & -a_{n-1}
\end{bmatrix}=
[\mathbf{e}_2, \mathbf{e}_3, \dots, \mathbf{e}_n, -\mathbf{a}],\] where $\mathbf{e}_i$ is the unit vector in $ℂ^n$ whose $i$-th entry is $1$ and zero elsewhere, and the vector $\mathbf{a}$ is defined by
\[\mathbf{a}=\begin{bmatrix}
a_0 \\
a_1 \\
\vdots \\
a_{n-1}
\end{bmatrix}.\]

Then prove that the following two statements are equivalent.

  1. There exists a vector $\mathbf{v}\inC^n$ such that
    \[\mathbf{v}, A\mathbf{v}, A^2\mathbf{v}, \dots, A^{n-1}\mathbf{v}\] form a basis of $ℂ^n$.
  2. There exists an invertible matrix $S$ such that $S^{-1}AS=C$.
    (Namely, $A$ is similar to the companion matrix of its characteristic polynomial.)

Proof.

Before proving the equivalence of the statements, let us first note a simple but useful fact.
Let $B$ be $n\times n$ matrix and let $\mathbf{e}_i$ be the unit vector of $ℂ^n$ as defined in the problem. Then the matrix product $B\mathbf{e}_i$ is the $i$-th column vector of the matrix $B$.

$( 1 \implies 2)$

Suppose that the statement 1 is true. That is, there exists a vector $\mathbf{v} \inC^n$ such that
\[\mathbf{v}, A\mathbf{v}, \dots, A^{n-1}\mathbf{v}\] form a basis of $ℂ^n$. In particular, these vectors are linearly independent.

Form a matrix
\[S:=[\mathbf{v}, A\mathbf{v}, \dots, A^{n-1}\mathbf{v}],\] then the matrix $S$ is invertible since the columns vectors are linearly independent.

We prove that $AS=SC$.
We have
\begin{align*}
AS&=A[\mathbf{v}, A\mathbf{v}, \dots, A^{n-1}\mathbf{v}],\\
&=[A\mathbf{v}, A^2\mathbf{v}, \dots, A^{n}\mathbf{v}].
\end{align*}

On the other hand, we have
\begin{align*}
SC&=S [\mathbf{e}_2, \mathbf{e}_3, \dots, \mathbf{e}_n, -\mathbf{a}]\\
&=[S\mathbf{e}_2, S\mathbf{e}_3, \dots, S\mathbf{e}_n, -S\mathbf{a}].
\end{align*}

As noted at the beginning, the vector $S\mathbf{e}_2$ is the second column vector of $S$, which is $A\mathbf{v}$. Similarly, $S\mathbf{e}_i$ is the $i$-th column vector of $S$, and thus we have
\[S\mathbf{e}_i=A^{i-1}\mathbf{v} \tag{*}.\] Hence we have
\begin{align*}
SC&=[A\mathbf{v}, A^2\mathbf{v}, \dots, A^{n-1}\mathbf{v}, -S\mathbf{a}].
\end{align*}

Thus, it remains to prove that $-S\mathbf{a}=A^n\mathbf{v}$.
Write
\[\mathbf{a}=\begin{bmatrix}
a_0 \\
a_1 \\
\vdots \\
a_{n-1}
\end{bmatrix}=a_0\mathbf{e}_1+a_1\mathbf{e}_2+\cdots+a_{n-1}\mathbf{e}_n.\] Then we have
\begin{align*}
S\mathbf{a}&=S(a_0\mathbf{e}_1+a_1\mathbf{e}_2+\cdots+a_{n-1}\mathbf{e}_n)\\
&=a_0S\mathbf{e}_1+a_1S\mathbf{e}_2+\cdots+a_{n-1}S\mathbf{e}_n\\
&\stackrel{(*)}{=} a_0\mathbf{v}+a_1A\mathbf{v}+\cdots+ a_{n-1}A^{n-1}\mathbf{v}\\
&=(a_0I+a_1 A+\cdots +a_{n-1}A^{n-1})\mathbf{v}\\
&=-A^n\mathbf{v},
\end{align*}
where the last step follows from the Cayley-Hamilton theorem
\[O=p(A)=A^n+a_{n-1}A^{n-1}+\cdots a_1A+a_0I.\]

This proves that $-S\mathbf{a}=A^n\mathbf{v}$ and hence $AS=SC$.
Since $S$ is invertible, we obtain
\[S^{-1}AS=C.\]

 

$( 2 \implies 1)$

Next suppose that the statement 2 is true. That is, there exists an invertible matrix $S$ such that $S^{-1}AS=C$. Then we have $AS=CS$.
Define $\mathbf{v}:=S\mathbf{e}_1$ to be the first column vector of $S$.

We prove that with this choice of $\mathbf{v}$, the vectors
\[\mathbf{v}, A\mathbf{v}, A^2\mathbf{v}, \dots, A^{n-1}\mathbf{v}\] form a basis of $ℂ^n$.

We have
\begin{align*}
AS&=A[S\mathbf{e}_1, S\mathbf{e}_2, \dots, S\mathbf{e}_n]\\
&=[AS\mathbf{e}_1, AS\mathbf{e}_2, \dots, AS\mathbf{e}_n] \end{align*}
and
\begin{align*}
SC&=S [\mathbf{e}_2, \mathbf{e}_3, \dots, \mathbf{e}_n, -\mathbf{a}]\\
&=[S \mathbf{e}_2, S\mathbf{e}_3, \dots, S\mathbf{e}_n, -S\mathbf{a}].
\end{align*}
Since $AS=SC$, comparing column vectors, we obtain
\begin{align*}
AS\mathbf{e}_1&=S\mathbf{e}_2\\
AS\mathbf{e}_2&=S\mathbf{e}_3\\
\vdots\\
AS\mathbf{e}_{n-1}&=S\mathbf{e}_n\\
AS\mathbf{e}_n&=-S\mathbf{a}.\\
\end{align*}

It follows that we have inductively
\begin{align*}
A\mathbf{v}&=S\mathbf{e}_2\\
A^2\mathbf{v}&=A(A\mathbf{v})=AS\mathbf{e}_2=S\mathbf{e}_3\\
\vdots\\
A^{n-1}\mathbf{v}&=A(A^{n-2}\mathbf{v})=AS\mathbf{e}_{n-1}=S\mathbf{e}_n.
\end{align*}
Namely we obtain
\[A^i\mathbf{v}=S\mathbf{e}_{i+1}\] for $i=0, 1, \dots, n-1$.
Now, suppose that we have the linear combinaiton
\[c_1\mathbf{v}+c_2A\mathbf{v}+ \dots c_n A^{n-1}\mathbf{v}=\mathbf{0},\] for some coefficient scalars $c_1, \dots, c_n \inC$.

Then we have using the above relations
\begin{align*}
c_1S\mathbf{e}_1+c_2S\mathbf{e}_2+\cdots +c_nS\mathbf{e}_n=\mathbf{0}.
\end{align*}
Since $S$ is invertible, the column vectors $S\mathbf{e}_i$ are linearly independent.
Thus, we must have $c_1=c_2=\cdots=c_n=0$.

Therefore the vectors
\[\mathbf{v}, A\mathbf{v}, A^2\mathbf{v}, \dots, A^{n-1}\mathbf{v}\] are linearly independent, and they form a basis of $ℂ^n$ since we have $n$ linearly independent vectors in the $n$-dimensional vector space $ℂ^n$.

手机版|悠闲数学娱乐论坛(第3版)

GMT+8, 2025-3-4 12:31

Powered by Discuz!

× 快速回复 返回顶部 返回列表