今天和大家聊一个非常重要,在机器学习领域也广泛使用的一个概念——矩阵的特征值与特征向量。[1] 我们先来看它的定义,定义本身很简单,假设我们有一个n阶的矩阵A以及一个实数lambda,使得我们可以找到一个非零向量x,满足: ![]() 如果能够找到的话,我们就称lambda是矩阵A的特征值,非零向量x是矩阵A的特征向量。[2] 几何意义光从上面的式子其实我们很难看出来什么,但是我们可以结合矩阵变换的几何意义,就会明朗很多。 我们都知道,对于一个n维的向量x来说,如果我们给他乘上一个n阶的方阵A,得到Ax。从几何角度来说,是对向量x进行了一个线性变换。变换之后得到的向量y和原向量x的方向和长度都发生了改变。 但是,对于一个特定的矩阵A来说,总存在一些特定方向的向量x,使得Ax和x的方向没有发生变化,只是长度发生了变化。我们令这个长度发生的变化当做是系数lambda,那么对于这样的向量就称为是矩阵A的特征向量,lambda就是这个特征向量对应的特征值。 求解过程我们对原式来进行一个很简单的变形: ![]() 这里的I表示单位矩阵,如果把它展开的话,可以得到一个n元的齐次线性方程组。这个我们已经很熟悉了,这个齐次线性方程组要存在非零解,那么需要系数行列式 ![]() 不为零,也就是系数矩阵的秩小于n。 我们将这个行列式展开: ![]() 这是一个以lambda为未知数的一元n次方程组,n次方程组在复数集内一共有n个解。我们观察上式,可以发现 lambda 只出现在正对角线上,显然,A的特征值就是方程组的解。因为n次方程组有n个复数集内的解,所以矩阵A在复数集内有n个特征值。 我们举个例子,尝试一下: 假设: ![]() 那么 ![]() 我们套入求根公式可以得出使得 f(lambda) = 0 的两个根 lambda1 lambda2,有: ![]() 这个结论可以推广到所有的n都可以成立,也就是说对于一个n阶的方阵A,都可以得到: ![]() 案例我们下面来看一个例子: ![]() 我们带入 ![]() 可以得到: ![]() ![]() ![]() 使用Python求解特征值和特征向量在我们之前的文章当中,我们就介绍过了Python在计算科学上的强大能力,这一次在特征值和特征矩阵的求解上也不例外。通过使用numpy当中的库函数,我们可以非常轻松,一行代码,完成特征值和特征向量的双重计算。 我们一起来看代码:
np.linalg.eig 方法会返回两个值,第一个返回值是矩阵的特征值,第二个返回值是矩阵的特征向量,我们看下结果: ![]() 这里的特征向量为什么是0.707呢?因为Python自动帮我们做好了单位化,返回的向量都是单位向量,不得不说实在是太贴心了。 总结关于矩阵的特征值和特征向量的介绍到这里就结束了,对于算法工程师而言,相比于具体怎么计算特征向量以及特征值。理解清楚它们的概念和几何意义更加重要,因为这两者在机器学习的领域当中广泛使用,在许多降维算法当中,大量使用矩阵的特征值和特征向量。 |
网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 风筝常识网 琼ICP备2024040248号-63