算法-名词解释

  1. 误差:就是每个估计值与真实值的差
  2. 均方误差:它是"误差"的平方的期望值,也就是多个样本的时候,均方误差等于每个样本的误差平方再乘以该样本出现的概率的和。
  3. 最小均方误差估计就是指估计参数时要使得估计出来的模型和真实值之间的误差平方期望值最小
  4. 方差:方差是描述随机变量的离散程度,是变量离期望值的距离,数据与平均数之差平方和的平均数
  5. 标准差:标准差=方差的算术平方根
  6. 协方差:如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值
  7. 向量的内积(点乘)

内积(点乘)的几何意义包括:

表征或计算两个向量之间的夹角

b向量在a向量方向上的投影

  1. 向量的外积(叉乘)

向量外积的几何意义

在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。

在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。

在二维空间中,外积还有另外一个几何意义就是:|a×b|在数值上等于由向量a和向量b构成的平行四边形的面积。

特征值和特征向量的实际意义

从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。
矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。
我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(power),并根据所产生的每个特征向量(一般研究特征值最大的那几个)进行分类讨论与研究。

原文地址:https://www.cnblogs.com/cj2014/p/9270174.html