幂法与反幂法求特征值与特征向量 | 您所在的位置:网站首页 › 矩阵k次幂的特征值 › 幂法与反幂法求特征值与特征向量 |
矩阵的特征值与特征向量 若非零向量x满足 那么 被称为A的特征值,x称为A的特征向量。 一个矩阵的特征值与特征向量不是唯一的。根据定义转化 解这个方程,我们可以求出特征值,然后求出特征向量。 关于特征值与特征向量,其他up已经做出了具体的诠释,包括意义,推荐观看 https://www.bilibili.com/video/BV1vY4y1J7gd/?spm_id_from=333.1007.top_right_bar_window_history.content.click 幂法求特征向量 A是一个n阶方阵,求他的特征向量,幂法:他的特征值与特征向量可以通过矩阵A不断乘以一个初始向量(不是零向量)得到。接下来是证明 来看一下百度百科: 我们来分析一下幂法究竟是怎么求出特征值与特征向量的。 我们大致浏览一下,可以发现他是通过构造一个递归序列 选取 然后将x0用含A特征向量的基底表示。 下一步可能会看的有些迷糊, 但是这里是A^k的特征值和特征向量?是否能直接带入? 这是可以的,很容易证明: 我们继续来看 后面的一串变成了一个极小量,是因为r1是最大的特征值,所以由它作为分母的分数小于1,这个分数极大次幂是一个极小项。 我们添加一步,将xk替换成A^k*x0 这样我们可以直观的看到:矩阵A 的特征向量V1可以通过矩阵A不断乘以一个初始向量x0(不是零向量)得到。主特征向量V1与A^k*V0就相差了一个倍数。(a1r1^k) 幂法求特征值 幂法求特征值我直接放吴老师书上的过程了 注意上图的初始向量是用v0表示的,特征值是用 表示的。两式相除消去特征值的k次幂得到了最大(主)特征值。 计算方法 这是百度百科的算法,它进行了归一化处理。和吴老师的方法是一致的,同样选取了最大分量。 (吴老师的算法) 当然,up主没有那么勤劳会自己写代码,而且这篇文章也是各种截图,我只是将模糊的地方说明了一下,也理了一下幂法思路。下面是中国科学技术大学数学科学学院张瑞老师的算法: 这一个分量是任取的。 反幂法 反幂法就是一个取倒数的思路,与幂法一致。这里不做详细介绍。 微信公众号:拉格朗日数乘 |
CopyRight 2018-2019 实验室设备网 版权所有 |