矩阵的“特征值分解”和“奇异值分解”区别

      在信号处理中经常碰到观测值的自相关矩阵,从物理意义上说,如果该观测值是由几个(如 K 个)相互统计独立的源信号线性混合而成,则该相关矩阵的秩或称维数就为 K,由这 K 个统计独立信号构成 K 维的线性空间,可由自相关矩阵最大 K 个特征值所对应的特征向量或观测值矩阵最大 K 个奇异值所对应的左奇异向量展成的子空间表示,通常称信号子空间,它的补空间称噪声子空间,两类子空间相互正交。理论上,由于噪声的存在,自相关矩阵是正定的,但实际应用时,由于样本数量有限,可能发生奇异,矩阵条件数无穷大,造成数值不稳定,并且自相关矩阵特征值是观测值矩阵奇异值的平方,数值动态范围大,因而子空间分析时常采用观测值矩阵奇异值分解,当然奇异值分解也可对奇异的自相关矩阵进行。在自相关矩阵正定时,特征值分解是奇异值分解的特例,且实现时相对简单些,实际中,常采用对角加载法保证自相关矩阵正定,对各特征子空间没有影响。在信号处理领域,两者都用于信号的特征分析,但两者的主要区别在于:奇异植分解主要用于数据矩阵,而特征植分解主要用于方型的相关矩阵 。

原文地址:https://www.cnblogs.com/zhanjxcom/p/4118973.html