打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
如何理解特征值和特征向量

学完线性代数的同学,可能会对线性代数的很多概念有所疑惑.

这个东西有什么用?那个玩意定义出来有什么意义?

本文将探讨线性代数中及其重要的两个概念:特征值特征向量.

(PS:下文中的矩阵A均认为是方阵)


矩阵不单单是二维的数组,它更重要的角色是映射:y=Ax

y=Ax就相当于y=f(x),矩阵A是把向量x映射到向量y的一个函数,或者说,映射,算子.


从一般的角度看,这个映射无非就是矩阵乘向量,说得具体一点,就是n次的向量点积计算.

(矩阵的一行乘上向量,并对结果向量的所有元素求和,就是一次点积)

错!实际上,这个映射本质是一个缩放操作.


举一个简单的例子,矩阵A=(4231)

它的特征值分别是2和1,特征向量是(11)(23).

设向量x=(12),那么显然结果y=Ax=(01).


我们使用另一种方法计算,首先我们将x表示成特征向量(11)(23)的线性组合,即:

x=(12)=1(11)+1(23)

然后,我们将特征值和对应的系数相乘,得到:
y=12(11)+11(23)=2(11)+1(23)

显然,如果你继续计算下去,你也会得到y=(01)

特征值和特征向量的意义就在于此!

矩阵所充当的映射,实际上就是对特征向量的缩放,每个特征向量的缩放程度就是特征值.

因此,我们需要将向量x表示成特征向量的线性组合(相当于以特征向量为基),得到相应的特征向量的权重.

然后,每个权重与特征值相乘,就是这个映射最本质的缩放操作.


基于这样的理解,我们可以很简单地解释很多结论.


1.对角化分解

对角化分解实际上就是我们解释特征值含义的过程.

A=PΛP1,其中P是由特征向量组成的矩阵,Λ是由特征值组成的对角矩阵.


在解释对角化分解之前,我们还要先解释矩阵的另一个含义.

对于z=Py,事实上矩阵P还有其他含义,比如在这里有转换基向量的含义:

  • y是特征向量为基所表示的向量,上文y=2(11)+1(23),那么y在特征向量为基的表示是y=(21)

  • z则是坐标轴为基所表示的向量,假如z的表示为z=(01),相当于z=0(10)+1(01)

那么z=Py的含义就是把一个向量从特征向量为基的表示y,转变成以坐标轴为基的表示z.

相应,y=P1x的含义则相反,是把一个向量从坐标轴为基的表示x,转变成以特征向量为基的表示y.


那么y=Ax=PΛP1x,我们就可以解释了.

首先,P1x是将x转变成用特征向量表示,上文x=(12)=1(11)+1(23),就是把(12)变成了(11).

然后ΛP1x,就是对应的特征值与权重作乘法,得到(21).

最后y=PΛP1x,就是把(21)重新转换成坐标轴为基的表示,得到(01).


2.逆矩阵的特征值分别是原矩阵特征值的倒数

是因为原矩阵放大了2倍,逆矩阵就要相应地缩小到原本的12.

当然,特征向量要保持对应,因此这也解释了为什么逆矩阵的特征向量和原矩阵一样


3.特征值为0,意味着不可逆

参考第2点,0没有倒数.


4.通过解Ax=λx来寻找特征值

显然,在这里λ是特征值,x是特征向量.

x变成以A的特征向量为基来表示的话,那么权重肯定只有1个1,其他都为0,那个1对应的特征向量当然是x本身.

这个时候进行缩放,那么只有x的权重被缩放了,其他特征向量的权重都是0,0乘任何数为0.

那么,Ax的结果就相当于λx了,因为λx就是x作了相应的缩放,缩放因子就是特征值λ.

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
特征值和相似对角化
线性代数问题:当矩阵中每个列向量的和都为1时,一定有一个特征值是1,这个怎么推导啊?
特征方程的物理意义
矩阵的分解
矩阵的一些知识
「线性代数」求可逆矩阵P,使得相似矩阵对角化
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服