CS229 斯坦福大学机器学习复习材料(数学基础)

CS229 斯坦福大学机器学习复习材料(数学基础) - 线性代数

线性代数回顾与参考

1 基本概念和符号

线性代数提供了一种紧凑地表示和运算“线性方程组”的方法。例如,考虑以下方程组:

4x15x2=132x1+3x2=9.4x_{scriptscriptstyle 1} - 5x_{scriptscriptstyle 2} = -13\ -2x_{scriptscriptstyle 1} + 3x_{scriptscriptstyle 2} = 9.

这是两个方程和两个变量,正如你从高中代数中所知,你可以找到 x1x_1x2x_2 的唯一解(除非方程以某种方式退化,例如,如果第二个方程只是第一个的倍数,但在上面的情况下,实际上只有一个唯一解)。 在矩阵表示法中,我们可以更紧凑地表达:

Ax=bAx= b

其中

A=[4523],b=[139].A=egin{bmatrix} 4 & -5 \ -2 & 3 end{bmatrix}, b=egin{bmatrix} -13 \ 9 end{bmatrix}.

我们可以看到,以这种形式分析线性方程有许多优点(包括明显的节省空间)。

1.1 基本符号

我们使用以下符号:

  • ARm×nA in Bbb{R}^{m imes n}表示一个mmnn列的矩阵,其中AA的各项都是实数。

  • xRnoldsymbol{x} in Bbb{R}^{n}表示具有nn个元素的向量。按照惯例,nn维向量。通常被认为是nn11列的矩阵,称为列向量。如果我们想表示一个行向量: 具有 11 行和nn列的矩阵 - 我们通常写xToldsymbol{x}^T(这里xToldsymbol{x}^T表示xoldsymbol{x}的转置,我们稍后将定义它)。

  • xix_i表示向量xoldsymbol{x}的第ii个元素:
    x=[x1x2xn].oldsymbol{x}=egin{bmatrix} x_1 \ x_2 \ vdots \ x_n end{bmatrix}.

  • 我们用符号aija_{scriptscriptstyle ij}(or AijA_{ij}, Ai,jA_{i,j})表示AA的第ii行第jj列元素:

    A=[a11a12a1na21a22a2nam1am2amn].A=egin{bmatrix} a_{11} & a_{12} & cdots & a_{1n} \ a_{21} & a_{22} & cdots & a_{2n} \ vdots & vdots & ddots & vdots \ a_{m1} & a_{m2} & cdots & a_{mn} end{bmatrix}.

  • 我们将AA的第jj列表示为aja^j or A:,jA_{:,j}

    A=[|||a1a2an|||].A = egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ a^1 & a^2 & cdots & a^n \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix}.

  • 我们将AA的第ii行表示为aiTa_i^T or Ai,:A_{i,:}

    A=[a1Ta2TamT].A = egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix}.

  • 在许多情况下,将矩阵视为列向量或行向量的集合是非常重要和方便的。一般来说,在数学上(和概念上)向量级别上的操作比标量级别上的操作会更简洁。表示矩阵的列或行没有通用约定,因此你可以使用任何符号明确定义它。

2 矩阵乘法

矩阵ARm×nA in Bbb{R}^{m imes n}和矩阵BRn×pB in Bbb{R}^{n imes p}的乘积仍然是一个矩阵C=ABRm×pC = AB in Bbb{R}^{m imes p},其中Cij=k=1nAikBkjC_{ij} = displaystylesum_{k=1}^n {A_{ik}B_{kj}}.
请注意,为了使矩阵乘积存在,AA中的列数必须等于BB中的行数。有很多方法可以查看矩阵乘法,我们将从检查一些特殊情况开始。

2.1 向量-向量乘法

给两个向量x,yRnoldsymbol{x},oldsymbol{y} in Bbb{R}^n, xTyoldsymbol{x}^T oldsymbol{y}通常称为向量的内积或者点积,结果是个实数:

xTyR=[x1x2xn][y1y2yn]=i=1nxiyioldsymbol{x}^T oldsymbol{y} in Bbb{R} = egin{bmatrix}x_1 & x_2 & cdots & x_nend{bmatrix} egin{bmatrix}y_1 \ y_2 \ vdots \ y_n end{bmatrix} = sum_{i=1}^n{x_iy_i}

请注意,内积实际上只是矩阵乘法的特例。xTy=yTxoldsymbol{x}^T oldsymbol{y} = oldsymbol{y}^T oldsymbol{x} 始终成立。
给定向量xRm,yRnoldsymbol{x} in Bbb{R}^m , oldsymbol{y} in Bbb{R}^n(mm不一定等于nn), xyTRm×noldsymbol{x} oldsymbol{y}^T in Bbb{R}^{m imes n}叫向量外积,它是一个矩阵,由(xyT)ij=xiyj(oldsymbol{x} oldsymbol{y}^T)_{ij} = x_iy_j组成,也就是(i.e.):

xyTRm×n=[x1x2xm][y1y2yn]=[x1y1x1y2x1ynx2y1x2y2x2ynxmy1xmy2xmyn]oldsymbol{x} oldsymbol{y}^T in Bbb{R}^{m imes n}= egin{bmatrix}x_1 \ x_2 \ vdots \ x_m end{bmatrix} egin{bmatrix}y_1 & y_2 & cdots & y_nend{bmatrix}= egin{bmatrix} x_1y_1 & x_1y_2 & cdots & x_1y_n \ x_2y_1 & x_2y_2 & cdots & x_2y_n \ vdots & vdots & ddots & vdots \ x_my_1 & x_my_2 & cdots & x_my_n end{bmatrix}

举一个外积如何使用的一个例子:让1Rnoldsymbol{1}in Bbb{R}^{n}表示一个nn维向量,其元素都等于 1,此外,考虑矩阵ARm×nA in Bbb{R}^{m imes n},其列全部是某个向量 xRmoldsymbol{x} in R^{m}。 我们可以使用外积紧凑地表示矩阵 AA:

A=[|||xxx|||]=[x1x1x1x2x2x2xmxmxm]=[x1x2xm][111]=x1TA=egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ x & x & cdots & x \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix}= egin{bmatrix} x_{1} & x_{1} & cdots & x_{1} \ x_{2} & x_{2} & cdots & x_{2} \ vdots & vdots & ddots & vdots \ x_{m} & x_{m} & cdots & x_{m} end{bmatrix}= egin{bmatrix}x_1 \ x_2 \ vdots \ x_m end{bmatrix} egin{bmatrix}1 & 1 & cdots & 1end{bmatrix}=oldsymbol{x}oldsymbol{1}^T

2.2 矩阵-向量乘法

给定矩阵 ARm×nA in mathbb{R}^{m imes n},向量 xRnoldsymbol{x} in mathbb{R}^{n} , 它们的积是一个向量 y=AxRmoldsymbol{y} = Aoldsymbol{x} in mathbb{R}^{m}。 有几种方法可以查看矩阵向量乘法。

如果我们按行写AA,那么我们可以表示AxAoldsymbol{x}为:

y=Ax=[a1Ta2TamT]x=[a1Txa2TxamTx]oldsymbol{y} = Aoldsymbol{x} = egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix}oldsymbol{x}= egin{bmatrix} a_1^Toldsymbol{x} \ a_2^Toldsymbol{x} \ vdots \ a_m^Toldsymbol{x} end{bmatrix}

换句话说,第iiyy的元素是AA的第ii行和xoldsymbol{x}的内积,即:yi=aiTxy_i=a_{i}^{T} oldsymbol{x}

同样的, 可以把 AA 写成列的方式,如下:

y=Ax=[|||a1a2an|||][x1x2xn]=[a1]x1+[a2]x2++[an]xn(1)oldsymbol{y} = Aoldsymbol{x} = egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ a^1 & a^2 & cdots & a^n \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix} egin{bmatrix}x_1 \ x_2 \ vdots \ x_n end{bmatrix}= [a^1]x_1 + [a^2]x_2 + cdots +[a^n]x_n label{1} ag{1}

换句话说,yoldsymbol{y}AA的列的线性组合,其中线性组合的系数由xoldsymbol{x}的元素给出。

到目前为止,我们一直是矩阵右乘一个列向量,但也可以是矩阵左乘一个行向量。如这样表示:yT=xTAoldsymbol{y}^T = oldsymbol{x}^TA 其中ARm×nA in mathbb{R}^{m imes n}xRmoldsymbol{x} in mathbb{R}^{m}yRnoldsymbol{y} in mathbb{R}^{n}。 和以前一样,我们可以用两种可行的方式表达yToldsymbol{y}^T,这取决于我们是否根据行或列表达AA.

首先,我们把AA用列表示:

yT=xTA=xT[|||a1a2an|||]=[xTa1xTa2xTan]oldsymbol{y}^T = oldsymbol{x}^TA = oldsymbol{x}^T egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ a^1 & a^2 & cdots & a^n \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix}= egin{bmatrix}oldsymbol{x}^Ta^1 & oldsymbol{x}^Ta^2 & cdots & oldsymbol{x}^Ta^n end{bmatrix}

这表明yToldsymbol{y}^T的第ii个元素等于xoldsymbol{x}AA的第ii列的内积。

最后,根据行表示AA,我们得到了向量-矩阵乘积的最终表示:

yT=xTA=[x1x2xn][a1Ta2TamT]=x1[a1T]+x2[a2T]++xn[anT]egin{aligned} oldsymbol{y}^T &= oldsymbol{x}^TA \&= egin{bmatrix} x_1 & x_2 & cdots & x_n end{bmatrix} egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix}\&= x_1egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash}end{bmatrix}+ x_2egin{bmatrix} ext{ extemdash} & a_2^T & ext{ extemdash}end{bmatrix}+ cdots + x_negin{bmatrix} ext{ extemdash} & a_n^T & ext{ extemdash}end{bmatrix} end{aligned}

所以我们看到yToldsymbol{y}^TAA的行的线性组合,其中线性组合的系数由xoldsymbol{x}的元素给出。

2.3 矩阵-矩阵乘法

有了这些知识,我们现在可以看看四种不同的(当然是等价的)查看矩阵与矩阵乘法C=ABC = AB的方法。

首先,我们可以将矩阵-矩阵乘法视为一组向量-向量乘积。 从定义中可以得出:最明显的观点是CC的(i,ji,j)元素等于AA的第ii行和BB的的jj列的内积。如下所示:

C=AB=[a1Ta2TamT][|||b1b2bp|||]=[a1b1a1b2a1bpa2b1a2b2a2bpamb1amb2ambp]C = AB = egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix} egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ b^1 & b^2 & cdots & b^p \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix}= egin{bmatrix} a_1b_1 & a_1b_2 & cdots & a_1b_p \ a_2b_1 & a_2b_2 & cdots & a_2b_p \ vdots & vdots & ddots & vdots \ a_mb_1 & a_mb_2 & cdots & a_mb_p end{bmatrix}

这里的矩阵ARm×n,BRn×pA in Bbb{R}^{m imes n} , B in Bbb{R}^{n imes p} , 向量aiRn,bjRna_i in Bbb{R}^n , b^j in Bbb{R}^n ,所以它们可以计算内积。当我们用行表示 AA 和用列表示 BB 时,这是最“自然”的表示。
另外,我们可以用列表示 AA,用行表示 BB。这种表示导致将 ABAB 解释为外积之和,这种表示则复杂得多。象征性地,

C=AB=[|||a1a2an|||][b1Tb2TbnT]=i=1naibiTC = AB = egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ a^1 & a^2 & cdots & a^n \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix} egin{bmatrix} ext{ extemdash} & b_1^T & ext{ extemdash} \ ext{ extemdash} & b_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & b_n^T & ext{ extemdash} \ end{bmatrix}= sum_{i=1}^n{a^ib_i^T}

换句话说,ABAB等于所有的AA的第ii列和BBii行的外积的和。因此,在这种情况下, aiRma^i in mathbb{R}^ mbiRpb_i in mathbb{R}^p, 外积aibiTa^ib_i^T的维度是m×pm×p,与CC的维度一致。

其次,我们还可以将矩阵-矩阵乘法视为一组矩阵-向量乘法。如果我们把BB用列表示,我们可以将CC的列视为AABB的列(矩阵-向量)的乘积。如下所示:

C=AB=A[|||b1b2bp|||]=[|||Ab1Ab2Abp|||](2)C = AB = A egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ b^1 & b^2 & cdots & b^p \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix}= egin{bmatrix} ext{ extbar} & ext{ extbar} & & ext{ extbar} \ Ab^1 & Ab^2 & cdots & Ab^p \ ext{ extbar} & ext{ extbar} & & ext{ extbar} end{bmatrix} label{2} ag{2}

这里CC的第ii列由矩阵-向量乘积给出,右边的向量为ci=Abic_i = Ab_i

最后,我们有类似的观点,我们用行表示AA,并将CC的行视为AA的行和BB之间的矩阵-向量乘积。如下所示:

C=AB=[a1Ta2TamT]B=[a1TBa2TBamTB]C = AB = egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix}B= egin{bmatrix} ext{ extemdash} & a_1^TB & ext{ extemdash} \ ext{ extemdash} & a_2^TB & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^TB & ext{ extemdash} \ end{bmatrix}

这里CC的第ii行由矩阵-向量乘积给出:ciT=aiTBc_i^T = a_i^T B

将矩阵乘法剖析到如此大的程度似乎有点矫枉过正,特别是当所有这些观点都紧跟在我们在本节开头给出的初始定义(C=ABC=AB)之后。

这些不同方法的直接优势在于它们允许您在向量的级别/单位而不是标量上进行操作。 为了完全理解线性代数而不会迷失在复杂的索引操作中,关键是操作尽可能大(向量而不是标量)的概念。[1]

实际上所有的线性代数都是在处理某种矩阵乘法,多花一些时间对这里提出的观点进行直观的理解是非常必要的。

除此之外,你还应该了解一些更高级别的矩阵乘法的基本性质:

  • 矩阵乘法结合律: (AB)C=A(BC)(AB)C = A(BC)
  • 矩阵乘法分配律: A(B+C)=AB+ACA(B + C) = AB + AC
  • 矩阵乘法一般是不可交换的; 也就是说,通常ABBAAB e BA。 (例如,假设ARm×nA in mathbb{R}^ {m imes n}, BRn×pB in mathbb{R}^ {n imes p},如果mmqq不相等,矩阵乘积BABA甚至不存在!)

如果您不熟悉这些性质,请花点时间自己验证它们。 例如,为了检查矩阵乘法的结合性,假设ARm×nA in mathbb{R}^ {m imes n}, BRn×pB in mathbb{R}^ {n imes p}CRp×qC in mathbb{R}^ {p imes q}。 注意ABRm×pAB in mathbb{R}^ {m imes p},所以(AB)CRm×q(AB)C in mathbb{R}^ {m imes q}。 类似地,BCRn×qBC in mathbb{R}^ {n imes q},所以A(BC)Rm×qA(BC) in mathbb{R}^ {m imes q}。 因此,所得矩阵的维度一致。 为了验证矩阵乘法的结合性,检查(AB)C(AB)C的(i,ji,j)元素是否等于A(BC)A(BC)的(i,ji,j)元素。 我们可以使用矩阵乘法的定义直接验证这一点:

((AB)C)ij=k=1p(AB)ikCkj=k=1p(l=1nAilBlk)Ckj=k=1p(l=1nAilBlkCkj)=l=1n(k=1pAilBlkCkj)=l=1nAil(k=1pBlkCkj)=l=1nAil(BC)lj=(A(BC))ijegin{aligned} % aligned &= 等号对齐 ((A B) C)_{ij} &= sum_{k=1}^p{(AB)_{ik}C_{kj}} = sum_{k=1}^p Bigg( sum_{l=1}^n{A_{il}B_{lk}} Bigg) C_{kj} \ &=sum_{k=1}^p Bigg( sum_{l=1}^n{A_{il}B_{lk}C_{kj}}Bigg) = sum_{l=1}^n Bigg( sum_{k=1}^p{A_{il}B_{lk}C_{kj}}Bigg)\ &=sum_{l=1}^nA_{il}Bigg(sum_{k=1}^p{B_{lk}C_{kj}}Bigg) = sum_{l=1}^n{A_{il}(BC)_{lj}} = (A(BC))_{ij} end{aligned}

这里,第一个和最后两个等式简单地使用了矩阵乘法的定义,第三个和第五个等式使用了标量乘法对加法的分配性质,第四个等式使用了标量加法的交换性和结合性。 这种通过简化为简单标量性质来证明矩阵性质的技术会经常出现,因此请确保您熟悉它。

3 操作及其性质

在本节中,我们将介绍矩阵和向量的几种操作和性质。 希望其中的大部分内容都可以帮您复习,此笔记可以作为参考。

3.1 单位矩阵和对角矩阵

单位矩阵IRn×nI in Bbb{R}^{n imes n}表示,它是一个方阵,对角线的元素是 1,其余元素都是 0。可以这样表示:

Iij={1i=j0ij.I_{ij} = egin{cases} 1 & i=j \ 0 & i eq j end{cases}.

对于所有矩阵ARm×nA in mathbb{R}^ {m imes n},有:
AI=A=IAAI=A=IA
注意,在某种意义上,上面单位矩阵的表示法是不明确的,因为它没有指定II的维数。通常,II的维数是从上下文推断出来的,以便使矩阵乘法成为可能。 例如,在上面的等式中,AI=AAI = A中的IIn×nn imes n矩阵,而A=IAA = IA中的IIm×mm imes m矩阵。

对角矩阵的非对角元素全为 0。对角阵通常表示为:D=diag(d1,d2,,dn)D=diag(d_1, d_2,cdots, d_n),其中:

Dij={dii=j0ij.D_{ij} = egin{cases} d_i & i=j \ 0 & i eq j end{cases}.

很明显,单位矩阵I=diag(1,1,,1)I= diag(1, 1, cdots , 1)

3.2 转置

矩阵的转置是指翻转矩阵的行和列。给定一个矩阵ARm×nA in Bbb{R}^{m imes n},它的转置ATRn×mA^T in Bbb{R}^{n imes m} ,其中的元素为:

(AT)ij=Aji.(A^T)_{ij} = A_{ji}.

事实上,我们在描述行向量时已经使用了转置,因为列向量的转置自然是行向量。

转置有以下性质,且很容易验证:

  • (AT)T=A(A^T)^T = A
  • (AB)T=BTAT(AB)^T = B^TA^T
  • (A+B)T=AT+BT(A+B)^T = A^T + B^T

3.3 对称矩阵

如果A=ATA = A^T,那么方阵ARn×nA in Bbb{R}^{n imes n}对称的。

  • 元素满足aij=aji,i,ja_{ij} = a_{ji} , forall i,j
  • A=ATA = A^T
  • 对于任意方阵AAA+ATA + A^T是对称的
  • 对角矩阵都是对称矩阵

如果A=ATA = -A^T,那么它就是反对称的。

  • 元素满足aij=aji,i,ja_{ij} = -a_{ji} , forall i,j,所以当i=ji=j时,aij=0a_{ij} = 0
  • A,BA,B都为反对称矩阵,则A±BA plusmn B仍为反对称矩阵[2]
  • AA为反对称矩阵,BB为对称矩阵,则ABBAAB-BA为对称矩阵[3]

很容易证明,对于任何矩阵ARn×nA in mathbb{R}^ {n imes n},矩阵A+ATA + A^ T是对称的,矩阵AATA -A^T是反对称的[2:1]

由此得出,任意方矩阵ARn×nA in mathbb{R}^ {n imes n}可以表示为对称矩阵和反对称矩阵的和,所以:

A=12(A+AT)+12(AAT)A=frac{1}{2}(A+A^T)+frac{1}{2}(A-A^T)

事实证明,对称矩阵在实践中用到很多,它们有很多很好的性质,我们很快就会看到它们。
通常将大小为nn的所有对称矩阵的集合表示为Snmathbb{S}^n,因此ASnA in mathbb{S}^n意味着AA是对称的n×nn imes n矩阵。

3.4 矩阵的迹

方矩阵ARn×nA in mathbb{R}^ {n imes n},表示为tr(A)operatorname{tr} (A)(或者trAoperatorname{tr} A,括号显然是隐含的),是矩阵中对角元素的总和:

trA=i=1nAiioperatorname{tr} A=sum_{i=1}^{n} A_{i i}

如 CS229 讲义中所述,迹具有以下性质(如下所示):

  • 对于矩阵ARn×nA in mathbb{R}^ {n imes n},则:trA=trAToperatorname{tr}A =operatorname{tr}A^T
  • 对于矩阵A,BRn×nA,B in mathbb{R}^ {n imes n},则:tr(A+B)=trA+trBoperatorname{tr}(A + B) = operatorname{tr}A + operatorname{tr}B
  • 对于矩阵ARn×nA in mathbb{R}^ {n imes n}tRt in mathbb{R},则:tr(tA)=ttrAoperatorname{tr}(tA) = toperatorname{tr}A.
  • 对于矩阵 AA, BBABAB 为方阵, 则:trAB=trBAoperatorname{tr}AB = operatorname{tr}BA
  • 对于矩阵 AA, BB, CC, ABCABC为方阵(包含 1*1 的矩阵-标量), 则:trABC=trBCA=trCABoperatorname{tr}ABC = operatorname{tr}BCA=operatorname{tr}CAB, 同理,更多矩阵的积也是有这个性质。

我们给出第四个性质的证明。假设ARm×nA in mathbb{R}^ {m imes n}BRn×mB in mathbb{R}^ {n imes m}(因此ABRm×mAB in mathbb{R}^ {m imes m}是方阵)。 观察到BARn×nBA in mathbb{R}^ {n imes n}也是一个方阵,因此对它们进行迹的运算是有意义的。 要证明trAB=trBAoperatorname{tr}AB = operatorname{tr}BA,注意:

trAB=i=1m(AB)ii=i=1m(j=1nAijBji)=i=1mj=1nAijBji=j=1ni=1mBjiAij=j=1n(i=1mBjiAij)=j=1n(BA)jj=trBAegin{aligned} operatorname{tr} A B &=sum_{i=1}^{m}(A B)_{i i}=sum_{i=1}^{m}left(sum_{j=1}^{n} A_{i j} B_{j i} ight) \ &=sum_{i=1}^{m} sum_{j=1}^{n} A_{i j} B_{j i}=sum_{j=1}^{n} sum_{i=1}^{m} B_{j i} A_{i j} \ &=sum_{j=1}^{n}left(sum_{i=1}^{m} B_{j i} A_{i j} ight)=sum_{j=1}^{n}(B A)_{j j}=operatorname{tr} B A end{aligned}

这里,第一个和最后两个等式使用了迹运算符和矩阵乘法的定义。 重点在第四个等式,使用标量乘法的交换性来反转每个乘积中的项的顺序,以及标量加法的交换性和结合性来重新排列求和的顺序。

3.5 范数

向量的范数x|x|是非正式度量的向量的“长度” 。 例如,我们有常用的欧几里德或2ell_{2}范数,

x2=i=1nxi2|x|_{2}=sqrt{sum_{i=1}^{n} x_{i}^{2}}

注意:x22=xTx|x|_{2}^{2}=x^{T} x

更正式地,范数是满足 4 个性质的函数(f:RnRf : mathbb{R}^{n} ightarrow mathbb{R}):

  1. 对于所有的 xRnx in mathbb{R}^ {n}, f(x)0f(x) geq 0(非负性).
  2. 当且仅当x=0x = 0 时,f(x)=0f(x) = 0 (确定性).
  3. 对于所有xRnx in mathbb{R}^ {n},tRtin mathbb{R},则 f(tx)=tf(x)f(tx) = left| t ight|f(x) (正齐次性).
  4. 对于所有 x,yRnx,y in mathbb{R}^ {n}, f(x+y)f(x)+f(y)f(x + y) leq f(x) + f(y) (三角不等式)

其他范数的例子,如:1ell_1范数:

x1=i=1nxi|x|_{1}=sum_{i=1}^{n}|x_{i}|

ell_{infty }范数:

x=maxixi|x|_{infty}=max_{i}left|x_{i} ight|

事实上,到目前为止所提出的所有三个范数都是pell_p范数族的例子,它们由实数p1p geq 1参数化,并定义为:

xp=(i=1nxip)1/p|x|_{p}=left(sum_{i=1}^{n}left|x_{i} ight|^{p} ight)^{1 / p}

也可以为矩阵定义范数,例如Frobenius范数:

AF=i=1mj=1nAij2=tr(ATA)|A|_{F}=sqrt{sum_{i=1}^{m} sum_{j=1}^{n} A_{i j}^{2}}=sqrt{operatorname{tr}left(A^{T} A ight)}

还有很多其他范数,但它们超出了这个复习材料的范围。

3.6 线性相关性和秩

一个向量集合{x1,x2,xn}Rm{ x_1,x_2, cdots x_n } subset mathbb{R}^m, 如果没有向量可以表示为其余向量的线性组合,则称称该向量是线性无关的。 相反,如果属于该组的一个向量可以表示为其余向量的线性组合,则称该向量是线性相关的。 也就是说,如果:

xj=i=1,ijnαixix_{j}=sum_{i=1,i eq j}^{n} alpha_{i} x_{i}

存在α1,αnRalpha_1,cdots alpha_{n} in mathbb{R},那么向量x1,x2,xnx_1,x_2, cdots x_n是线性相关的; 否则,向量是线性无关的。
另一种线性相关的描述(存在不全为零的数αialpha_{i},使得等式成立):

i=1nαixi=0,αi0sum_{i=1}^{n} alpha_{i} x_{i} = 0,exists alpha_i eq 0

例如,向量:

x1=[123]x2=[415]x3=[231]x_{1}= egin{bmatrix} 1 \ 2 \ 3 end{bmatrix} quad x_{2}= egin{bmatrix} 4 \ 1 \ 5 end{bmatrix} quad x_{3}= egin{bmatrix} 2 \ -3 \ -1 end{bmatrix}

是线性相关的,因为:x3=2x1+x2x_3=-2x_1+x_2

矩阵ARm×nA in mathbb{R}^{m imes n}列秩是构成线性无关集合的AA的最大列子集的大小。 由于术语的多样性,这通常简称为AA的线性无关列的数量。同样,行秩是构成线性无关集合的AA的最大行数。
对于任何矩阵ARm×nA in mathbb{R}^{m imes n},事实证明AA的列秩等于AA的行秩(尽管我们不会证明这一点),因此两个量统称为AA,用 rank(A) ext{rank}(A)表示。 以下是秩的一些基本性质:

  • 对于 ARm×nA in mathbb{R}^{m imes n}rank(A)min(m,n) ext{rank}(A) leq min(m, n),如果(A)=min(m,n) ext(A) = ext{min} (m, n),则: AA 被称作满秩
  • 对于 ARm×nA in mathbb{R}^{m imes n}rank(A)=rank(AT) ext{rank}(A) = ext{rank}(A^T)
  • 对于 ARm×nA in mathbb{R}^{m imes n},BRn×pB in mathbb{R}^{n imes p} ,rank(AB)min(rank(A),rank(B)) ext{rank}(AB) leq ext{min} ( ext{rank}(A), ext{rank}(B))
  • 对于 A,BRm×nA,B in mathbb{R}^{m imes n}rank(A+B)rank(A)+rank(B) ext{rank}(A + B) leq ext{rank}(A) + ext{rank}(B)

3.7 方阵的逆

方阵ARn×nA in mathbb{R}^{n imes n}表示为A1A^{-1},并且是这样的唯一矩阵:

A1A=I=AA1A^{-1}A=I=AA^{-1}

请注意,并非所有矩阵都具有逆。 例如,非方形矩阵根据定义没有逆(存在伪逆[4])。 然而,对于一些方形矩阵AAA1A^{-1}也可能不存在。 特别是,如果A1A^{-1}存在,我们说AA可逆的或非奇异的,否则就是不可逆奇异[5]

为了使方阵 A 具有逆A1A^{-1},则AA必须是满秩。 我们很快就会发现,除了满秩之外,还有许多其它的充分必要条件。
以下是逆的性质; 假设A,BRn×nA,B in mathbb{R}^{n imes n},而且是非奇异的:

  • (A1)1=A(A^{-1})^{-1} = A
  • (AB)1=B1A1(AB)^{-1} = B^{-1}A^{-1}
  • (A1)T=(AT)1(A^{-1})^{T} =(A^{T})^{-1}因此,该矩阵通常表示为ATA^{-T}

作为如何使用逆的示例,考虑线性方程组,Ax=bAx = b,其中ARn×nA in mathbb{R}^{n imes n}x,bRx,bin mathbb{R}, 如果AA是非奇异的(即可逆的),那么x=A1bx = A^{-1}b。 (如果ARm×nA in mathbb{R}^{m imes n},不是方阵,这公式还有用吗? - 伪逆[4:1]

3.8 正交矩阵

如果 xTy=0x^Ty=0,则两个向量x,yRnx,yin mathbb{R}^{n}正交的。如果x2=1|x|_2=1,则向量xRnxin mathbb{R}^{n}归一化。如果一个方阵URn×nUin mathbb{R}^{n imes n}的所有列彼此正交并被归一化,则方阵UU正交矩阵(注意在讨论向量与矩阵时的意义不一样,两个向量正交只需要内积为 0,正交矩阵是各列相互正交并且被归一化)。

它可以从正交性和正态性的定义中得出:

UTU=I=UUTU^ TU = I = U U^T

换句话说,正交矩阵的逆是其转置。 注意,如果UU不是方阵, 即,URm×n,n<mUin mathbb{R}^{m imes n}, n < m ,但其列仍然是正交的,则UTU=IU^TU = I,但是UUTIUU^T eq I。所以正交矩阵一定是方阵

正交矩阵的另一个好的特性是在具有正交矩阵的向量上操作不会改变其欧几里德范数,即(i.e.):

Ux2=x2(3)|U x|_{2}=|x|_{2} label{3} ag{3}

对于任何 xRnxin mathbb{R}^n , URn×nUin mathbb{R}^{n imes n}是正交矩阵。

3.9 矩阵的值域和零空间

张成一个向量集合{x1,x2,xn}{ x_1,x_2, cdots x_n }可以表示为一个向量集合{x1,xn}{ x_1, cdots x_n }的所以线性组合:

span({x1,xn})={v:v=i=1nαixi,αiR}operatorname{span}({x_1, cdots x_n }) = Bigg{v:v=sum_{i=1}^n{alpha_i x_i}, alpha_i in Bbb{R} Bigg}

可以看到,如果{x1,xn}{x_{1}, cdots x_{n}}是一组nn个线性无关的向量,其中每个xiRnx_i in mathbb{R}^{n},则span({x1,xn})=Rn ext{span}({x_{1}, ldots x_{n}})=mathbb{R}^{n}。 换句话说,任何向量vRnvin mathbb{R}^{n}都可以写成x1x_1xnx_n的线性组合。
向量yRmyin mathbb{R}^{m}投影{x1,xn}{x_{1}, ldots x_{n}}所张成的空间(这里我们假设xiRmx_i in mathbb{R}^{m})得到向量vspan({x1,,xn})v in operatorname{span}({x_{1}, ldots, x_{n}}),由欧几里德范数vy2|v - y|_2可以得知,这样vv尽可能接近yy

我们将投影表示为Proj(y;{x1,xn})operatorname{Proj}left(y ;left{x_{1}, ldots x_{n} ight} ight),并且可以将其正式定义为:

Proj(y;{x1,xn})=argminvspan({x1,,xn})yv2operatorname{Proj}left(y ;left{x_{1}, ldots x_{n} ight} ight)=operatorname{argmin}_{v in operatorname{span}left(left{x_{1}, ldots, x_{n} ight} ight)}|y-v|_{2}

矩阵ARm×nAin mathbb{R}^{m imes n}值域(有时也称为列空间),表示为R(A)mathcal{R}(A),是AA的列所张成的空间。换句话说,

R(A)={vRm:v=Ax,xRn}mathcal{R}(A)=left{v in mathbb{R}^{m} : v=A x, x in mathbb{R}^{n} ight}

做一些技术性的假设(即AA是满秩且n<mn <m),向量yRmy in mathbb{R}^{m}AA的值域的投影由下式给出:

Proj(y;A)=argminvR(A)vy2=A(ATA)1ATyoperatorname{Proj}(y ; A)=operatorname{argmin}_{v in mathcal{R}(A)}|v-y|_{2}=Aleft(A^{T} A ight)^{-1} A^{T} y

这个最后的方程应该看起来非常熟悉,因为它几乎与我们在课程中(我们将很快再次得出)得到的公式:与参数的最小二乘估计一样。
看一下投影的定义,显而易见,这实际上是我们在最小二乘问题中最小化的目标(除了范数的平方这里有点不一样,这不会影响找到最优解),所以这些问题自然是非常相关的。

AA只包含一列时,aRma in mathbb{R}^{m},这给出了向量投影到一条线上的特殊情况:

Proj(y;a)=aaTaTayoperatorname{Proj}(y ; a)=frac{a a^{T}}{a^{T} a} y

一个矩阵ARm×nAin mathbb{R}^{m imes n}零空间 N(A)mathcal{N}(A) 是所有乘以AA时等于 0 向量的集合,即:

N(A)={xRn:Ax=0}mathcal{N}(A)=left{x in mathbb{R}^{n} : A x=0 ight}

注意,R(A)mathcal{R}(A)中的向量的大小为mm,而 N(A)mathcal{N}(A) 中的向量的大小为nn,因此R(AT)mathcal{R}(A^T)N(A)mathcal{N}(A) 中的向量的大小均为Rnmathbb{R}^{n}。 事实上,还有很多例子。 证明:

{w:w=u+v,uR(AT),vN(A)}=Rn and R(AT)N(A)={0}left{w : w=u+v, u in mathcal{R}left(A^{T} ight), v in mathcal{N}(A) ight}=mathbb{R}^{n} ext { and } mathcal{R}left(A^{T} ight) cap mathcal{N}(A)={mathbf{0}}

换句话说,R(AT)mathcal{R}(A^T)N(A)mathcal{N}(A) 是不相交的子集,它们一起跨越Rnmathbb{R}^{n}的整个空间。 这种类型的集合称为正交补,我们用R(AT)=N(A)mathcal{R}(A^T)= mathcal{N}(A)^{perp}表示。

3.10 行列式

一个方阵ARn×nA in mathbb{R}^{n imes n}行列式是函数det ext {det}Rn×nRnmathbb{R}^{n imes n} ightarrow mathbb{R}^{n},并且表示为Aleft| A ight|或者detA ext{det} A(有点像迹运算符,我们通常省略括号)。在代数上,我们可以写出 A 的行列式的明确公式,但不幸的是,这并不能直观地理解它的含义。 相反,我们将从提供行列式的几何解释开始,然后访问其一些特定的代数性质。

给定一个矩阵:

[a1Ta2TanT]egin{bmatrix} ext{ extemdash} & a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_n^T & ext{ extemdash} \ end{bmatrix}

考虑通过采用AA行向量a1,anRna_{1}, ldots a_{n}in mathbb{R}^{n}的所有可能线性组合形成的点SRnS subset mathbb{R}^{n}的集合,其中线性组合的系数都在 0 和 1 之间; 也就是说,集合SSspan({a1,an}) ext{span}({a_{1}, ldots a_{n}})受到系数α1,αnalpha_{1}, ldots alpha_{n}的限制的线性组合,α1,,αnalpha_1, cdots ,alpha_n满足0αi1,i=1,,n0 leq alpha_{i} leq 1, i=1, ldots, n。从形式上看,

S={vRn:v=i=1nαiai where 0αi1,i=1,,n}S=left{v in mathbb{R}^{n} : v=sum_{i=1}^{n} alpha_{i} a_{i} ext { where } 0 leq alpha_{i} leq 1, i=1, ldots, n ight}

事实证明,AA的行列式的绝对值是对集合SS的“体积”的度量[6]

比方说:一个2×22 imes2的矩阵(4):

A=[1332](4)A= egin{bmatrix} 1 & 3 \ 3 & 2 end{bmatrix} label{4} ag{4}

它的矩阵的行是:

a1=[13]a2=[32]a_{1}=left[egin{array}{l}{1} \ {3}end{array} ight] quad a_{2}=left[egin{array}{l}{3} \ {2}end{array} ight]

对应于这些行对应的集合SS如图 1 所示。对于二维矩阵,SS通常具有平行四边形的形状。 在我们的例子中,行列式的值是A=7left| A ight| = -7(可以使用本节后面显示的公式计算),因此平行四边形的面积为 7。(请自己验证!)

在三维中,集合SS对应于一个称为平行六面体的对象(一个有倾斜边的三维框,这样每个面都有一个平行四边形)。行定义SS3×33×3矩阵 S 的行列式的绝对值给出了平行六面体的三维体积。在更高的维度中,集合SS是一个称为nn维平行体的对象。

(0, 0)
(0, 0)
a1
a1
(1, 3)
(1, 3)
a2
a2
(3, 2)
(3, 2)
(4, 5)
(4, 5)
Viewer does not support full SVG 1.1

图 1:(4)中给出的2×22×2矩阵AA的行列式的图示。 这里,a1a_1a2a_2是对应于AA行的向量,并且集合SS对应于平行四边形区域。 这个行列式的绝对值,detA=7left| ext{det} A ight| = 7,即平行四边形的面积。

在代数上,行列式满足以下三个性质(所有其他性质都遵循这些性质,包括通用公式):

  1. 单位阵的行列式为 1, I=1left| I ight|= 1(几何上,单位超立方体的体积为 1)。

  2. 给定一个矩阵 ARn×nA in mathbb{R}^{n imes n}, 如果我们将AA中的一行乘上一个标量tRt in mathbb{R},那么新矩阵的行列式是tAtleft| A ight|

    [ta1Ta2TamT]=tAleft|egin{bmatrix} ext{ extemdash} & t a_1^T & ext{ extemdash} \ ext{ extemdash} & a_2^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix} ight| = t|A|

    几何上,将集合SS的一个边乘以系数tt,体积也会增加一个系数tt

  3. 如果我们交换任意两行在aiTa_i^TajTa_j^T,那么新矩阵的行列式是A-left| A ight|,例如:
    [a2Ta1TamT]=Aleft|egin{bmatrix} ext{ extemdash} & a_2^T & ext{ extemdash} \ ext{ extemdash} & a_1^T & ext{ extemdash} \ & vdots & \ ext{ extemdash} & a_m^T & ext{ extemdash} \ end{bmatrix} ight| = -|A|
    你一定很奇怪,满足上述三个性质的函数的存在并不多。事实上,这样的函数确实存在,而且是唯一的(我们在这里不再证明了)。

从上述三个性质中得出的几个性质包括:

  • 对于 ARn×nA in mathbb{R}^{n imes n}, A=ATleft| A ight| = left| A^T ight|
  • 对于 A,BRn×nA,B in mathbb{R}^{n imes n}, AB=ABleft| AB ight|= left| A ight|left| B ight|
  • 对于 ARn×nA in mathbb{R}^{n imes n},如果A=0left| A ight|= 0 有且只有当AA是奇异的(即不可逆)(如果 AA 是奇异的,那么它没有满秩,因此它的列是线性相关的。在这种情况下,集合 SS 对应于 nn 维空间中的“平面”,因此体积为零。)
  • 对于 ARn×nA in mathbb{R}^{n imes n} 同时,AA为非奇异的,则:A1=1/Aleft| A ^{−1} ight| = 1/left| A ight|

在给出行列式的一般定义之前,我们定义,对于ARn×nA in mathbb{R}^{n imes n}Ai,jR(n1)×(n1)A_{cancel i, cancel j}in mathbb{R}^{(n-1) imes (n-1)}是由于删除第ii行和第jj列而产生的矩阵。 行列式的一般(递归)公式是:

A=i=1n(1)i+jaijAi,j( for any j1,,n)=j=1n(1)i+jaijAi,j( for any i1,,n)egin{aligned}|A| &=sum_{i=1}^{n}(-1)^{i+j} a_{i j}left|A_{ackslash i, ackslash j} ight| quad( ext { for any } j in 1, ldots, n) \ &=sum_{j=1}^{n}(-1)^{i+j} a_{i j}left|A_{ackslash i, ackslash j} ight| quad( ext { for any } i in 1, ldots, n) end{aligned}

对于 AR1×1A in mathbb{R}^{1 imes 1},初始情况为A=a11left| A ight|= a_{11}。如果我们把这个公式完全展开为 ARn×nA in mathbb{R}^{n imes n},就等于n!n!nn阶乘)不同的项。因此,对于大于3×33×3的矩阵,我们几乎没有明确地写出完整的行列式方程。然而,3×33×3大小的矩阵的行列式方程是相当常见的,建议好好地了解它们:

[a11]=a11[a11a12a21a22]=a11a22a12a21[a11a12a13a21a22a23a31a32a33]=a11a22a33+a12a23a31+a13a21a32a11a23a32a12a21a33a13a22a31egin{aligned} left|left[a_{11} ight] ight| &=a_{11} \ left|left[egin{array}{ll}{a_{11}} & {a_{12}} \ {a_{21}} & {a_{22}}end{array} ight] ight|&=a_{11} a_{22}-a_{12} a_{21} \ left|left[egin{array}{l}{a_{11}} & {a_{12}} & {a_{13}} \ {a_{21}} & {a_{22}} & {a_{23}} \ {a_{31}} & {a_{32}} & {a_{33}}end{array} ight] ight| &= egin{array}{c}{a_{11} a_{22} a_{33}+a_{12} a_{23} a_{31}+a_{13} a_{21} a_{32}} \ {-a_{11} a_{23} a_{32}-a_{12} a_{21} a_{33}-a_{13} a_{22} a_{31}} end{array} end{aligned}

矩阵ARn×nA in mathbb{R}^{n imes n}经典伴随矩阵(通常称为伴随矩阵[7])表示为adj(A)operatorname{adj}(A),并定义为:

adj(A)Rn×n,(adj(A))ij=(1)i+jAj,ioperatorname{adj}(A) in mathbb{R}^{n imes n}, quad(operatorname{adj}(A))_{i j}=(-1)^{i+j}left|A_{ackslash j, ackslash i} ight|

(注意索引Aj,iA_{ackslash j, ackslash i}中的变化)。可以看出,对于任何非奇异ARn×nA in mathbb{R}^{n imes n}

A1=1Aadj(A)A^{-1}=frac{1}{|A|} operatorname{adj}(A)

虽然这是一个很好的“显式”的逆矩阵公式,但我们应该注意,从数字上讲,有很多更有效的方法来计算逆矩阵。

3.11 二次型和半正定矩阵

给定方矩阵ARn×nA in mathbb{R}^{n imes n}和向量xRnx in mathbb{R}^{n},标量xTAxx^T Ax被称为二次型。 写得清楚些,我们可以看到:

xTAx=i=1nxi(Ax)i=i=1nxi(j=1nAijxj)=i=1nj=1nAijxixjx^{T} A x=sum_{i=1}^{n} x_{i}(A x)_{i}=sum_{i=1}^{n} x_{i}left(sum_{j=1}^{n} A_{i j} x_{j} ight)=sum_{i=1}^{n} sum_{j=1}^{n} A_{i j} x_{i} x_{j}

注意:

xTAx=(xTAx)T=xTATx=xT(12A+12AT)xx^{T} A x=left(x^{T} A x ight)^{T}=x^{T} A^{T} x=x^{T}left(frac{1}{2} A+frac{1}{2} A^{T} ight) x

小技巧:

A=A+AT2+AAT2,xTAx=xTA+AT2x+xTAAT2x=xTA+AT2x+0A = frac{A+A^T}{2} + frac{A-A^T}{2}\, \ x^{T} A x = x^{T}frac{A+A^T}{2}x + x^{T}frac{A-A^T}{2}x = x^{T}frac{A+A^T}{2}x +0

第一个等号的是因为是标量的转置与自身相等,而第二个等号是因为是我们平均两个本身相等的量。 由此,我们可以得出结论,只有AA的对称部分有助于形成二次型(A+ATA+A^T对称的)。 出于这个原因,我们经常隐含地假设以二次型出现的矩阵是对称阵。
我们给出以下定义:

  • 对于所有非零向量xRnx in mathbb{R}^nxTAx>0x^TAx>0,对称阵ASnA in mathbb{S}^n正定(PD)。这通常表示为A0Asucc0(或A>0A>0),并且通常将所有正定矩阵的集合表示为S++nmathbb{S}_{++}^n

  • 对于所有向量xTAx0x^TAxgeq 0,对称矩阵ASnA in mathbb{S}^n半正定(PSD)。 这写为A0A succeq 0(或A0A≥0),并且所有半正定矩阵的集合通常表示为S+nmathbb{S}_+^n

  • 同样,对称矩阵ASnA in mathbb{S}^n负定(ND),如果对于所有非零xRnx in mathbb{R}^n,则xTAx<0x^TAx <0表示为A0Aprec0(或A<0A <0)。

  • 类似地,对称矩阵ASnA in mathbb{S}^n半负定(NSD),如果对于所有xRnx in mathbb{R}^n,则xTAx0x^TAx leq 0表示为A0Apreceq 0(或A0A≤0)。

  • 最后,对称矩阵ASnA in mathbb{S}^n不定的,如果它既不是正半定也不是负半定,即,如果存在x1,x2Rnx_1,x_2 in mathbb{R}^n,那么x1TAx1>0x_1^TAx_1>0x2TAx2<0x_2^TAx_2<0

很明显,如果AA是正定的,那么A−A是负定的,反之亦然。同样,如果AA是半正定的,那么A−A是是半负定的,反之亦然。如果果AA是不定的,那么A−A是也是不定的。

正定矩阵和负定矩阵的一个重要性质是它们总是满秩,因此是可逆的。为了了解这是为什么,假设某个矩阵ASnA in mathbb{S}^n不是满秩。然后,假设AA的第jj列可以表示为其他n1n-1列的线性组合:

aj=ijxiaia_{j}=sum_{i eq j} x_{i} a_{i}

对于某些x1,xj1,xj+1,,xnRx_1,cdots x_{j-1},x_{j + 1} ,cdots ,x_nin mathbb{R}。设xj=1x_j = -1,则:

Ax=i=1nxiai=0Ax=sum_{i =1}^n x_{i} a_{i}=0

但这意味着对于某些非零向量xxxTAx=0x^T Ax = 0,因此AA必须既不是正定也不是负定。如果AA是正定或负定,则必须是满秩。
最后,有一种类型的正定矩阵经常出现,因此值得特别提及。 给定矩阵ARm×nA in mathbb{R}^{m imes n}(不一定是对称或偶数平方),矩阵G=ATARn×nG = A^T A in Bbb{R}^{n imes n}(有时称为Gram 矩阵)总是半正定的。 此外,如果mnmgeq n(同时为了方便起见,我们假设AA是满秩,即rank(A)=noperatorname{rank}(A) = n,则G=ATAG = A^T A是正定的。

AATAA^T(即 Gram 矩阵)是半正定矩阵;协方差矩阵要是半正定矩阵
正定矩阵的所有特征值为正实数
半正定矩阵的所有特征值为非负实数
负定矩阵的所有特征值为负实数
半负定矩阵的所有特征值为非正实数
不定矩阵的特征值既有正数也有负数

3.12 特征值和特征向量

给定一个方阵ARn×nA inmathbb{R}^{n imes n},我们认为在以下条件下,λClambda inmathbb{C}AA特征值xCnxinmathbb{C}^n是相应的特征向量[8]

Ax=λx,x0Ax=lambda x,x e 0

直观地说,这个定义意味着将AA乘以向量xx会得到一个新的向量,该向量指向与xx相同的方向,但按系数λlambda缩放。
值得注意的是,对于任何特征向量xCnxinmathbb{C}^n和标量cCcinmathbb{C}A(cx)=cAx=cλx=λ(cx)A(cx)=cAx=clambda x=lambda(cx)cxcx也是一个特征向量。因此,当我们讨论与λlambda相关的特征向量时,我们通常假设特征向量被标准化为长度为 1(这仍然会造成一些歧义,因为xxx−x都是特征向量,但我们必须接受这一点)。

我们可以重写上面的等式来说明(λ,x)(lambda,x)AA的特征值-特征向量对:

(λIA)x=0,x0(lambda I-A)x=0,x e 0

但是(λIA)x=0(lambda I-A)x=0只有当(λIA)(lambda I-A)有一个非空零空间时,同时(λIA)(lambda I-A)是奇异的,xx才具有非零解,即:

(λIA)=0|(lambda I-A)|=0

我们现在可以使用之前的行列式定义来展开这个表达式式(λIA)|(lambda I-A)|λlambda的(非常大的)多项式,其中,λlambda的次数为nn。它通常被称为矩阵AA的特征多项式。

然后我们找到这个特征多项式的nn个根(可能是复数),并用λ1,,λnlambda_1,cdots,lambda_n表示。这些都是矩阵AA的特征值,但我们注意到它们可能不明显。为了找到特征值λilambda_i对应的特征向量,我们只需解线性方程(λIA)x=0(lambda I-A)x=0,因为(λIA)(lambda I-A)是奇异的,所以保证有一个非零解(但也可能有多个或无穷多个解)。

应该注意的是,这不是实际用于数值计算特征值和特征向量的方法(记住行列式的完全展开式有n!n!项),这是一个数学论证。

以下是特征值和特征向量的性质(所有假设在ARn×nA inmathbb{R}^{n imes n}具有特征值λ1,,λnlambda_1,cdots,lambda_n的前提下):

  • AA的迹等于其特征值之和,也等于对角元素之和(迹的定义)

    trA=i=1nλi=i=1nAiioperatorname{tr} A=sum_{i=1}^{n} lambda_{i} =sum_{i=1}^{n} A_{ii}

  • AA的行列式等于其特征值的乘积

    A=i=1nλi|A|=prod_{i=1}^{n} lambda_{i}

  • AA的秩等于AA的非零特征值的个数

  • 假设AA非奇异,其特征值为λlambda和特征向量为xx。那么1/λ1/lambda是具有相关特征向量xxA1A^{-1}的特征值,即A1x=(1/λ)xA^{-1}x=(1/lambda)x。(要证明这一点,取特征向量方程,Ax=λxAx=lambda x,两边都左乘A1A^{-1}

  • 对角阵的特征值D=diag(d1,dn)D=operatorname{diag}(d_1,cdots d_n)实际上就是对角元素d1,dnd_1,cdots d_n

3.13 对称矩阵的特征值和特征向量

一般而言,一般方阵的特征值和特征向量的结构很难表征。 幸运的是,在机器学习的大多数情况下,处理对称实矩阵就足够了,其特征值和特征向量具有显着的性质。

在本节中,我们假设AA是实对称矩阵, 具有以下性质:

  1. AA的所有特征值都是实数。 我们用λ1,,λnlambda_1,cdots,lambda_n表示。

  2. 存在一组特征向量u1,,unu_1,cdots,u_n,对于所有iiuiu_i是特征值λilambda_{i}对应的特征向量。以及u1,,unu_1,cdots,u_n是单位向量并且彼此正交[9]

UU是包含uiu_i作为列的正交矩阵[10]

U=[u1u2un](5)U=left[egin{array}{cccc}{ |} & { |} & {} & { |} \ {u_{1}} & {u_{2}} & {cdots} & {u_{n}} \ { |} & { |} & {} & { |}end{array} ight] label{5} ag{5}

Λ=diag(λ1,,λn)Lambda= operatorname{diag}(lambda_1,cdots,lambda_n)是包含λ1,,λnlambda_1,cdots,lambda_n作为对角线上的元素的对角矩阵。 使用 2.3 节的方程(2)eqref{2}中的矩阵 - 矩阵向量乘法的方法,我们可以验证:

AU=[Au1Au2Aun]=[λ1u1λ2u2λnun]=Udiag(λ1,,λn)=UΛA U=left[egin{array}{cccc} { |} & { |} & {} & { |} \ {A u_{1}} & {A u_{2}} & {cdots} & {A u_{n}} \ { |} & { |} & {} & { |}end{array} ight]= left[egin{array}{ccc} { |} & { |} & { } & { |}\ {lambda_{1} u_{1}} & {lambda_{2} u_{2}} & {cdots} & {lambda_{n} u_{n}} \ { |} & { |} & {} & { |} end{array} ight]= U operatorname{diag}left(lambda_{1}, ldots, lambda_{n} ight)=U Lambda

考虑到正交矩阵UU满足UUT=IUU^T=I,利用上面的方程,我们得到:

A=AUUT=UΛUT(6)A=AUU^T=ULambda U^T label{6} ag{6}

这种AA的新的表示形式为UΛUTULambda U^T,通常称为矩阵AA对角化。术语对角化是这样来的:通过这种表示,我们通常可以有效地将对称矩阵AA视为对角矩阵--这更容易理解--关于由特征向量UU定义的基础, 我们将通过几个例子详细说明。

背景知识:关于另一个基的向量

任何正交矩阵U=[u1u2un]U=left[egin{array}{cccc}{ |} & { |} & {} & { |} \ {u_{1}} & {u_{2}} & {cdots} & {u_{n}} \ { |} & { |} & {} & { |}end{array} ight]定义了一个新的属于Rnmathbb {R}^{n}的基(坐标系),意义如下:对于任何向量xRnx inmathbb{R}^{n}都可以表示为u1,,unu_1,cdots,u_n的线性组合,其系数为x^1,,x^nhat x_1,cdots,hat x_n

x=x^1u1++x^nun=Ux^x=hat x_1u_1+cdots + hat x_nu_n=Uhat x

在第二个等式中,我们使用矩阵和向量相乘的方法,查看式(1)eqref{1}。 实际上,这种x^hat x是唯一存在的:

x=Ux^UTx=x^x=U hat{x} Leftrightarrow U^{T} x=hat{x}

换句话说,向量x^=UTxhat x=U^Tx可以作为向量xx的另一种表示,与UU定义的基有关。

“对角化”矩阵向量乘法。 通过上面的设置,我们将看到左乘矩阵AA可以被视为左乘对角矩阵,也就是特征向量组成的基。 假设xx是一个向量,x^hat x是以UU为基xx的表示。设z=Axz=Ax为矩阵向量积。现在让我们计算以UU为基来表示zz
然后,再利用UUT=UTU=IUU^T=U^TU=IA=AUUT=UΛUTA=AUU^T=ULambda U^T,也就是式(6)eqref{6},我们得到:

z^=UTz=UTAx=UTUΛUTx=Λx^=[λ1x^1λ2x^2λnx^n]hat{z}=U^{T} z=U^{T} A x=U^{T} U Lambda U^{T} x=Lambda hat{x}=left[egin{array}{c}{lambda_{1} hat{x}_{1}} \ {lambda_{2} hat{x}_{2}} \ {vdots} \ {lambda_{n} hat{x}_{n}}end{array} ight]

我们可以看到,原始空间中的左乘矩阵AA等于左乘对角矩阵ΛLambda相对于新的基,即仅将每个坐标缩放相应的特征值。
在新的基上,矩阵多次相乘也变得简单多了。例如,假设q=AAAxq=AAAx。根据AA的元素导出qq的分析形式,使用原始的基可能是一场噩ڊ#x68A6;,但使用新的基就容易多了:

q^=UTq=UTAAAx=UTUΛUTUΛUTUΛUTx=Λ3x^=[λ13x^1λ23x^2λn3x^n](7)hat{q}= U^{T} q= U^{T} AAA x= U^{T} U Lambda U^{T} U Lambda U^{T} U Lambda U^{T} x= Lambda^{3} hat{x}= left[egin{array}{c} {lambda_{1}^{3} hat{x}_{1}} \ {lambda_{2}^{3} hat{x}_{2}} \ {vdots} \ {lambda_{n}^{3} hat{x}_{n}} end{array} ight] label{7} ag{7}

“对角化”二次型。作为直接推论,二次型xTAxx^TAx也可以在新的基上简化。

xTAx=xTUΛUTx=x^TΛx^=i=1nλix^i2(8)x^{T} A x=x^{T} U Lambda U^{T} x=hat{x}^T Lambda hat{x}=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2} label{8} ag{8}

(回想一下,在旧的表示法中,xTAx=i=1,j=1nxixjAijx^{T} A x=sum_{i=1, j=1}^{n} x_{i} x_{j} A_{i j}涉及一个n2n^2项的和,而不是上面等式中的nn项。)利用这个观点,我们还可以证明矩阵AA的正定性完全取决于其特征值的符号:

  1. 如果所有的λi>0lambda_i>0,则矩阵AA正定的,因为对于任意的x^0hat x e 0,xTAx=i=1nλix^i2>0x^{T} A x=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2}>0[11]

  2. 如果所有的λi0lambda_igeq 0,则矩阵AA是为正半定,因为对于任意的x^hat x,xTAx=i=1nλix^_i20x^{T} A x=sum*{i=1}^{n} lambda*{i} hat{x}\_{i}^{2} geq 0

  3. 同样,如果所有λi<0lambda_i<0λi0lambda_ileq 0,则矩阵AA分别为负定或半负定。

  4. 最后,如果AA同时具有正特征值和负特征值,比如 λi>0lambda_i>0λj<0lambda_j<0,那么它是不定的。这是因为如果我们让x^hat x满足x^i=1 and x^k=0,kihat x_i=1 ext{ and } hat x_k=0, forall k e i,那么xTAx=i=1nλix^i2>0x^{T} A x=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2}>0 ,同样的我们让x^hat x满足x^j=1 and x^k=0,kjhat x_j=1 ext{ and } hat x_k=0,forall k e j,那么xTAx=i=1nλix^i2<0x^{T} A x=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2}<0[12]

特征值和特征向量经常出现的应用是最大化矩阵的某些函数。特别是对于矩阵ASnA in mathbb{S}^{n},考虑以下最大化问题:

maxxRn xTAx=i=1nλix^i2 subject to x22=1(9)max _{x in mathbb{R}^{n}} x^{T} A x=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2} quad ext { subject to }|x|_{2}^{2}=1 label{9} ag{9}

也就是说,我们要找到(范数 1)的向量,它使二次型最大化。假设特征值的阶数为λ1λ2λnlambda_1 geq lambda _2 geq cdots lambda_n,此优化问题的最优值为λ1lambda_1,且与λ1lambda_1对应的任何特征向量u1u_1都是最大值之一。(如果λ1>λ2lambda_1 > lambda_2,那么有一个与特征值λ1lambda_1对应的唯一特征向量,它是上面那个优化问题(9)eqref{9}的唯一最大值。)

我们可以通过使用对角化技术来证明这一点:注意,通过公式Ux2=(3)x2|U x|_{2}overset{eqref{3}}{=}|x|_{2}推出x2=x^2|x|_{2}=|hat{x}|_{2},并利用公式xTAx=xTUΛUTx=x^TΛx^=i=1nλix^_i2,也就是式(8)x^{T} A x=x^{T} U Lambda U^{T} x=hat{x}^T Lambda hat{x}=sum*{i=1}^{n} lambda*{i} hat{x}\_{i}^{2} , ext{也就是式}eqref{8},我们可以将上面那个优化问题改写为:

maxx^Rn x^TΛx^=i=1nλix^i2 subject to x^22=1max _{hat{x} in mathbb{R}^{n}} hat{x}^{T} Lambda hat{x}=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2} quad ext { subject to }|hat{x}|_{2}^{2}=1

然后,我们得到目标的上界为λ1lambda_1

x^TΛx^=i=1nλix^i2i=1nλ1x^i2=λ1hat{x}^{T} Lambda hat{x}=sum_{i=1}^{n} lambda_{i} hat{x}_{i}^{2} leq sum_{i=1}^{n} lambda_{1} hat{x}_{i}^{2}=lambda_{1}

此外,设置x^=[100]hat{x}=left[egin{array}{c}{1} \ {0} \ {vdots} \ {0}end{array} ight]可让上述等式成立,这与设置x=u1x=u_1相对应。

4.矩阵微积分

虽然前几节中的主题通常在线性代数的标准课程中涵盖,但一个似乎不经常涉及(我们将广泛使用)的主题是微积分对向量设置的扩展。 尽管我们使用的所有实际微积分都相对微不足道,但符号通常会使事情看起来比实际困难得多。 在本节中,我们将介绍矩阵微积分的一些基本定义并提供一些示例。

4.1 梯度

假设f:Rm×nRf: mathbb{R}^{m imes n} ightarrow mathbb{R}是将维度为m×nm imes n的矩阵ARm×nAin mathbb{R}^{m imes n}作为输入并返回实数值的函数。 然后ff梯度(相对于ARm×nAin mathbb{R}^{m imes n})是偏导数矩阵,定义如下:

Af(A)Rm×n=[f(A)A11f(A)A12f(A)A1nf(A)A21f(A)A22f(A)A2nf(A)Am1f(A)Am2f(A)Amn] abla_{A} f(A) in mathbb{R}^{m imes n}=left[egin{array}{cccc}{frac{partial f(A)}{partial A_{11}}} & {frac{partial f(A)}{partial A_{12}}} & {cdots} & {frac{partial f(A)}{partial A_{1n}}} \ {frac{partial f(A)}{partial A_{21}}} & {frac{partial f(A)}{partial A_{22}}} & {cdots} & {frac{partial f(A)}{partial A_{2 n}}} \ {vdots} & {vdots} & {ddots} & {vdots} \ {frac{partial f(A)}{partial A_{m 1}}} & {frac{partial f(A)}{partial A_{m 2}}} & {cdots} & {frac{partial f(A)}{partial A_{m n}}}end{array} ight]

即,m×nm imes n矩阵:

(Af(A))ij=f(A)Aijleft( abla_{A} f(A) ight)_{i j}=frac{partial f(A)}{partial A_{i j}}

请注意Af(A) abla_{A} f(A)的维度始终与AA的维度相同。特殊情况,如果AA只是向量ARnAin mathbb{R}^{n},则

xf(x)=[f(x)x1f(x)x2f(x)xn] abla_{x} f(x)=left[egin{array}{c}{frac{partial f(x)}{partial x_{1}}} \ {frac{partial f(x)}{partial x_{2}}} \ {vdots} \ {frac{partial f(x)}{partial x_{n}}}end{array} ight]

重要的是要记住,只有当函数是实值时,即如果函数返回标量值,才定义函数的梯度。例如,ARm×nAin mathbb{R}^{m imes n}相对于xx,我们不能取AxAx的梯度,因为这个量(输出)是向量值。

直接从偏导数的等价性质得出:

  • x(f(x)+g(x))=xf(x)+xg(x) abla_{x}(f(x)+g(x))= abla_{x} f(x)+ abla_{x} g(x)

  • For tR,x(tf(x))=txf(x) ext{For }t in mathbb{R}, abla_{x}(t f(x))=t abla_{x} f(x)

原则上,梯度是偏导数对多维变量函数的自然延伸。然而,在实践中,由于符号的原因,使用梯度有时是很棘手的。例如,假设ARm×nAin mathbb{R}^{m imes n}是一个固定系数矩阵,假设bRmbin mathbb{R}^{m}是一个固定系数向量。设f:RmRf: mathbb{R}^{m} ightarrow mathbb{R}f(z)=zTzf(z)=z^Tz定义的函数,因此zf(z)=2z abla_{z}f(z)=2z。但现在考虑表达式,

f(Ax) abla f(Ax)

该表达式应该如何解释? 至少有两种可能性:

  1. 在第一个解释中,回想起zf(z)=2z abla_{z}f(z)=2z。 在这里,我们将f(Ax) abla f(Ax)解释为评估点AxAx处的梯度,因此:

f(Ax)=2(Ax)=2AxRm abla f(A x)=2(A x)=2 A x in mathbb{R}^{m}

  1. 在第二种解释中,我们将数量f(Ax)f(Ax)视为输入变量xx的函数。 更正式地说,设g(x)=f(Ax)g(x) =f(Ax)。 然后在这个解释中:

f(Ax)=xg(x)Rn abla f(A x)= abla_{x} g(x) in mathbb{R}^{n}

在这里,我们可以看到这两种解释确实不同。 一种解释产生mm维向量作为结果,而另一种解释产生nn维向量作为结果(xx的维度是nn,所以xg(x) abla_{x} g(x)也是nn,上面有讲到)! 我们怎么解决这个问题?

这里,关键是要明确我们要区分的变量。
在第一种情况下,我们将函数ff与其参数zz进行区分,然后替换参数AxAx
在第二种情况下,我们将复合函数g(x)=f(Ax)g(x)=f(Ax)直接与xx进行微分。

我们将第一种情况表示为zf(Ax) abla zf(Ax),第二种情况表示为xf(Ax) abla xf(Ax)[13]

保持符号清晰是非常重要的,以后完成课程作业时候你就会发现。

4.2 黑塞矩阵

假设f:RnRf: mathbb{R}^{n} ightarrow mathbb{R}是一个函数,它接受Rnmathbb{R}^{n}中的向量并返回实数。那么关于xx黑塞矩阵(也有翻译作海森矩阵),写做:x2f(Ax) abla_x ^2 f(A x),或者简单地说,HHn×nn imes n的偏导数矩阵:

x2f(x)Rn×n=[2f(x)x122f(x)x1x22f(x)x1xn2f(x)x2x12f(x)x222f(x)x2xn2f(x)xnx12f(x)xnx22f(x)xn2] abla_{x}^{2} f(x) in mathbb{R}^{n imes n}=left[egin{array}{cccc}{frac{partial^{2} f(x)}{partial x_{1}^{2}}} & {frac{partial^{2} f(x)}{partial x_{1} partial x_{2}}} & {cdots} & {frac{partial^{2} f(x)}{partial x_{1} partial x_{n}}} \ {frac{partial^{2} f(x)}{partial x_{2} partial x_{1}}} & {frac{partial^{2} f(x)}{partial x_{2}^{2}}} & {cdots} & {frac{partial^{2} f(x)}{partial x_{2} partial x_{n}}} \ {vdots} & {vdots} & {ddots} & {vdots} \ {frac{partial^{2} f(x)}{partial x_{n} partial x_{1}}} & {frac{partial^{2} f(x)}{partial x_{n} partial x_{2}}} & {cdots} & {frac{partial^{2} f(x)}{partial x_{n}^{2}}}end{array} ight]

换句话说,x2f(x)Rn×n abla_{x}^{2} f(x) in mathbb{R}^{n imes n},其:

(x2f(x))ij=2f(x)xixjleft( abla_{x}^{2} f(x) ight)_{i j}=frac{partial^{2} f(x)}{partial x_{i} partial x_{j}}

注意:黑塞矩阵通常是对称阵:

2f(x)xixj=2f(x)xjxifrac{partial^{2} f(x)}{partial x_{i} partial x_{j}}=frac{partial^{2} f(x)}{partial x_{j} partial x_{i}}

与梯度相似,只有当f(x)f(x)为实值时黑塞矩阵才有定义。

很自然地认为梯度与向量函数的一阶导数的相似,而黑塞矩阵与二阶导数的相似(我们使用的符号也暗示了这种关系)。 这种直觉通常是正确的,但需要记住以下几个注意事项。
首先,对于一个变量f:RRf: mathbb{R} ightarrow mathbb{R}的实值函数,它的基本定义:二阶导数是一阶导数的导数,即:

2f(x)x2=xxf(x)frac{partial^{2} f(x)}{partial x^{2}}=frac{partial}{partial x} frac{partial}{partial x} f(x)

然而,对于向量的函数,函数的梯度是一个向量,我们不能取向量的梯度,即:

xxf(x)=x[f(x)x1f(x)x2f(x)xn] abla_{x} abla_{x} f(x)= abla_{x}left[egin{array}{c}{frac{partial f(x)}{partial x_{1}}} \ {frac{partial f(x)}{partial x_{2}}} \ {vdots} \ {frac{partial f(x)}{partial x_{n}}}end{array} ight]

上面这个表达式没有意义。 因此,黑塞矩阵不是梯度的梯度。 然而,下面这种情况却这几乎是正确的:如果我们看一下梯度(xf(x))i=f(x)/xileft( abla_{x} f(x) ight)_{i}=partial f(x) / partial x_{i}的第ii个元素,并取关于于xx的梯度我们得到:

xf(x)xi=[2f(x)xix12f(x)x2x2f(x)xixn] abla_{x} frac{partial f(x)}{partial x_{i}}=left[egin{array}{c}{frac{partial^{2} f(x)}{partial x_{i} partial x_{1}}} \ {frac{partial^{2} f(x)}{partial x_{2} partial x_{2}}} \ {vdots} \ {frac{partial f(x)}{partial x_{i} partial x_{n}}}end{array} ight]

这是黑塞矩阵第ii行(列),所以:

x2f(x)=[x(xf(x))1x(xf(x))2x(xf(x))n] abla_{x}^{2} f(x)=left[ abla_{x}left( abla_{x} f(x) ight)_{1} quad abla_{x}left( abla_{x} f(x) ight)_{2} quad cdots quad abla_{x}left( abla_{x} f(x) ight)_{n} ight]

简单地说:我们可以说由于:x2f(x)=x(xf(x))T abla_{x}^{2} f(x)= abla_{x}left( abla_{x} f(x) ight)^{T},只要我们理解,这实际上是取xf(x) abla_{x} f(x)的每个元素的梯度,而不是整个向量的梯度。

最后,请注意,虽然我们可以对矩阵ARnAin mathbb{R}^{n}取梯度,但对于这门课,我们只考虑对向量xRnx in mathbb{R}^{n}取黑塞矩阵。
这会方便很多(事实上,我们所做的任何计算都不要求我们找到关于矩阵的黑森方程),因为关于矩阵的黑塞方程就必须对矩阵所有元素求偏导数2f(A)/(AijAk)partial^{2} f(A) /left(partial A_{i j} partial A_{k ell} ight),将其表示为矩阵相当麻烦。

4.3 二次函数和线性函数的梯度和黑塞矩阵

现在让我们尝试确定几个简单函数的梯度和黑塞矩阵。 应该注意的是,这里给出的所有梯度都是CS229讲义中给出的梯度的特殊情况。

对于xRnx in mathbb{R}^{n}, 设f(x)=bTxf(x)=b^Tx 的某些已知向量bRnb in mathbb{R}^{n} ,则:

f(x)=i=1nbixif(x)=sum_{i=1}^{n} b_{i} x_{i}

所以:

f(x)xk=xki=1nbixi=bkfrac{partial f(x)}{partial x_{k}}=frac{partial}{partial x_{k}} sum_{i=1}^{n} b_{i} x_{i}=b_{k}

由此我们可以很容易地看出xbTx=b abla_{x} b^{T} x=b。 这应该与单变量微积分中的类似情况进行比较,其中/(x)ax=apartial /(partial x) a x=a
现在考虑ASnAin mathbb{S}^{n}的二次函数f(x)=xTAxf(x)=x^TAx。 记住这一点:

f(x)=i=1nj=1nAijxixjf(x)=sum_{i=1}^{n} sum_{j=1}^{n} A_{i j} x_{i} x_{j}

为了取偏导数,我们将分别考虑包括xkx_kx2kx_2^k因子的项:

f(x)xk=xki=1nj=1nAijxixj=xk[ikjkAijxixj+ikAikxixk+jkAkjxkxj+Akkxk2]=ikAikxi+jkAkjxj+2Akkxk=i=1nAikxi+j=1nAkjxj=2i=1nAkixiegin{aligned} frac{partial f(x)}{partial x_{k}} &=frac{partial}{partial x_{k}} sum_{i=1}^{n} sum_{j=1}^{n} A_{i j} x_{i} x_{j} \ &=frac{partial}{partial x_{k}}left[sum_{i eq k} sum_{j eq k} A_{i j} x_{i} x_{j}+sum_{i eq k} A_{i k} x_{i} x_{k}+sum_{j eq k} A_{k j} x_{k} x_{j}+A_{k k} x_{k}^{2} ight] \ &=sum_{i eq k} A_{i k} x_{i}+sum_{j eq k} A_{k j} x_{j}+2 A_{k k} x_{k} \ &=sum_{i=1}^{n} A_{i k} x_{i}+sum_{j=1}^{n} A_{k j} x_{j}=2 sum_{i=1}^{n} A_{k i} x_{i} end{aligned}

最后一个等式,是因为AA是对称的(我们可以安全地假设,因为它以二次形式出现)。 注意,xf(x) abla_{x} f(x)的第kk个元素是AAxx的第kk行的内积。 因此,xxTAx=2Ax abla_{x} x^{T} A x=2 A x。 同样,这应该提醒你单变量微积分中的类似事实,即/(x)ax2=2axpartial /(partial x) a x^{2}=2 a x

最后,让我们来看看二次函数f(x)=xTAxf(x)=x^TAx黑塞矩阵(显然,线性函数bTxb^Tx的黑塞矩阵为零)。在这种情况下:

2f(x)xkx=xk[f(x)x]=xk[2i=1nAixi]=2Ak=2Akfrac{partial^{2} f(x)}{partial x_{k} partial x_{ell}}=frac{partial}{partial x_{k}}left[frac{partial f(x)}{partial x_{ell}} ight]=frac{partial}{partial x_{k}}left[2 sum_{i=1}^{n} A_{ell i} x_{i} ight]=2 A_{ell k}=2 A_{k ell}

因此,应该很清楚x2xTAx=2A abla_{x}^2 x^{T} A x=2 A,这应该是完全可以理解的(同样类似于2/(x2)ax2=2apartial^2 /(partial x^2) a x^{2}=2a的单变量事实)。

简要概括起来:

  • xbTx=b abla_{x} b^{T} x=b

  • xxTAx=2Ax abla_{x} x^{T} A x=2 A x (如果AA是对称阵)

  • x2xTAx=2A abla_{x}^2 x^{T} A x=2 A (如果AA是对称阵)

4.4 最小二乘法

让我们应用上一节中得到的方程来推导最小二乘方程。假设我们得到矩阵ARm×nAin mathbb{R}^{m imes n}(为了简单起见,我们假设AA是满秩)和向量bRmbin mathbb{R}^{m},从而使bR(A)b otin mathcal{R}(A)。在这种情况下,我们将无法找到向量xRnxin mathbb{R}^{n},由于Ax=bAx = b,因此我们想要找到一个向量xx,使得AxAx尽可能接近 bb,用欧几里德范数的平方Axb_22|A x-b|\_{2}^{2}来衡量。

使用公式x2=xTx|x|^{2}=x^Tx,我们可以得到:

Axb22=(Axb)T(Axb)=xTATAx2bTAx+bTbegin{aligned}|A x-b|_{2}^{2} &=(A x-b)^{T}(A x-b) \ &=x^{T} A^{T} A x-2 b^{T} A x+b^{T} b end{aligned}

根据xx的梯度,并利用上一节中推导的性质:

x(xTATAx2bTAx+bTb)=xxTATAxx2bTAx+xbTb=2ATAx2ATbegin{aligned} abla_{x}left(x^{T} A^{T} A x-2 b^{T} A x+b^{T} b ight) &= abla_{x} x^{T} A^{T} A x- abla_{x} 2 b^{T} A x+ abla_{x} b^{T} b \ &=2 A^{T} A x-2 A^{T} b end{aligned}

将最后一个表达式设置为零,然后解出xx,得到了正规方程:

x=(ATA)1ATbx = (A^TA)^{-1}A^Tb

这和我们在课堂上得到的相同。

4.5 行列式的梯度

现在让我们考虑一种情况,我们找到一个函数相对于矩阵的梯度,也就是说,对于ARn×nAin mathbb{R}^{n imes n},我们要找到AA abla_{A}|A|。回想一下我们对行列式的讨论:

A=i=1n(1)i+jAijAi,j( for any j1,,n)|A|=sum_{i=1}^{n}(-1)^{i+j} A_{i j}left|A_{ackslash i, ackslash j} ight| quad( ext { for any } j in 1, ldots, n)

所以:

AkA=Aki=1n(1)i+jAijAi,j=(1)k+Ak,=(adj(A))kfrac{partial}{partial A_{k ell}}|A|=frac{partial}{partial A_{k ell}} sum_{i=1}^{n}(-1)^{i+j} A_{i j}left|A_{ackslash i, ackslash j} ight|=(-1)^{k+ell}left|A_{ackslash k,ackslash ell} ight|=(operatorname{adj}(A))_{ell k}

从这里可以知道,它直接从伴随矩阵的性质得出:

AA=(adj(A))T=AAT abla_{A}|A|=(operatorname{adj}(A))^{T}=|A| A^{-T}

现在我们来考虑函数f:S++nRf : mathbb{S}_{++}^{n} ightarrow mathbb{R}f(A)=logAf(A)=log |A|。注意,我们必须将ff的域限制为正定矩阵,因为这确保了A>0|A|>0,因此A|A|的对数是实数。在这种情况下,我们可以使用链式法则(没什么奇怪的,只是单变量演算中的普通链式法则)来看看:

logAAij=logAAAAij=1AAAijfrac{partial log |A|}{partial A_{i j}}=frac{partial log |A|}{partial|A|} frac{partial|A|}{partial A_{i j}}=frac{1}{|A|} frac{partial|A|}{partial A_{i j}}

从这一点可以明显看出:

AlogA=1AAA=A1 abla_{A} log |A|=frac{1}{|A|} abla_{A}|A|=A^{-1}

我们可以在最后一个表达式中删除转置,因为AA是对称的。注意与单值情况的相似性,其中/(x)logx=1/xpartial /(partial x) log x=1 / x

4.6 特征值优化

最后,我们使用矩阵演算以直接导致特征值/特征向量分析的方式求解优化问题。 考虑以下等式约束优化问题:

maxxRnxTAx subject to x22=1max _{x in mathbb{R}^{n}} x^{T} A x quad ext { subject to }|x|_{2}^{2}=1

对于对称矩阵ASnAin mathbb{S}^{n}。求解等式约束优化问题的标准方法是采用拉格朗日形式,一种包含等式约束的目标函数[14],在这种情况下,拉格朗日函数可由以下公式给出:

L(x,λ)=xTAxλxTxmathcal{L}(x, lambda)=x^{T} A x-lambda x^{T} x

其中,λlambda被称为与等式约束关联的拉格朗日乘子。可以确定,要使xx^{star}成为问题的最佳点,拉格朗日的梯度必须在xx^star处为零(这不是唯一的条件,但它是必需的)。也就是说,

xL(x,λ)=x(xTAxλxTx)=2ATx2λx=0 abla_{x} mathcal{L}(x, lambda)= abla_{x}left(x^{T} A x-lambda x^{T} x ight)=2 A^{T} x-2 lambda x=0

请注意,这只是线性方程Ax=λxAx =lambda x。 这表明假设xTx=1x^T x = 1,可能最大化(或最小化)xTAxx^T Ax的唯一点是AA的特征向量。

名词索引

column vector 列向量
row vector 行向量
inner product 内积
dot product 点积
outer product 外积
linear combination 线性组合
identity matrix 单位矩阵
diagonal matrix 对角矩阵
transpose 转置
symmetric matrix 对称矩阵
anti-symmetric matrix 反对称矩阵
trace 迹
norm 范数
(linearly) independent 线性无关
(linearly) dependent 线性相关
column rank 列秩
row rank 行秩
rank 秩
full rank 满秩
inverse 逆
invertible 可逆的
non-singular 非奇异
non-invertible 不可逆
singular 奇异
orthogonal 正交
normalized 归一化
span 张成
projection 投影
range 值域
columnspace 列空间
nullspace 零空间
orthogonal complements 正交补
determinant 行列式
classical adjoint(adjugate) matrix 经典伴随矩阵
adjoint(adjugate) matrix 伴随矩阵
minor 余子式
cofactor 代数余子式
cofactor matrix 代数余子式矩阵
quadratic form 二次型
positive definite(PD) 正定
positive semidefinitee (PSD) 半正定
negative definite (ND) 负定
negative semidefinite(NSD) 半负定
indefinite 不定
Gram matrix 格拉姆矩阵
eigenvalue 特征值
eigenvector 特征向量
Diagonalizing 对角化
gradient 梯度
Hessian 黑塞矩阵
Lagrangian 拉格朗日


  1. E.g., 如果你可以用矩阵或向量来写出你所有的数学推导,那会比用标量元素来写要好。 ↩︎

  2. A,BA,B为反对称矩阵,即有AT=A,BT=BA^T = -A , B^T=-B则:(A±B)T=AT±BT=(A)±(B)=(A±B)(A plusmn B)^T = A^T plusmn B^T = (-A) plusmn (-B) = -(A plusmn B) ↩︎ ↩︎

  3. AA为反对称矩阵,BB为对称矩阵,即有AT=A,BT=BA^T = -A , B^T=B则:

    (ABBA)T=(AB)T(BA)T=BTATATBT=BA+AB=(ABBA)(AB - BA)^T = (AB)^T - (BA)^T = B^TA^T - A^TB^T = -BA + AB =(AB - BA) ↩︎

  4. 参考Moore–Penrose inverse ↩︎ ↩︎

  5. 很容易混淆并认为非奇异意味着不可逆。 但实际上,意思正好相反! 小心! ↩︎

  6. 诚然,我们实际上并没有定义我们在这里所说的“体积”是什么意思,但希望直觉应该足够清楚。 当 n=2n = 2 时,我们的“体积”概念对应于笛卡尔平面中 SS 的面积。 当 n=3n = 3 时,“体积”对应于我们通常的三维物体体积概念。 ↩︎

  7. AijA_{ij}余子式(余子式其实是一个数)表示为Mij=Ai,jM_{ij} = left|A_{ackslash i, ackslash j} ight|,就是删除第 i 行和第 j 列而产生矩阵的行列式;AijA_{ij}代数余子式(代数余子式也是一个数)表示为Cij=(1)i+jMijC_{ij} = (-1)^{i+j}M_{ij}AA余子矩阵(代数余子式矩阵,记为 cof)是一个nn阶矩阵CC,使得其第ii行第jj列的元素是AA关于第ii行第jj列的代数余子式。则伴随矩阵的定义如下:

    A=adj(A)=CTRn×n,(adj(A))ij=(1)i+jAj,i=CjiA^* = operatorname{adj}(A) = C^T in mathbb{R}^{n imes n}, quad(operatorname{adj}(A))_{i j}=(-1)^{i+j}left|A_{ackslash j, ackslash i} ight| =C_{ji}

    伴随矩阵的一些性质(这里用AA^*表示adj(A)operatorname{adj}(A)):

    • AA可逆当且仅当AA^*可逆
    • AA可逆,则A=AA1A^* = |A|A^{-1}
    • A=An1|A^*|=|A|^{n-1}
    • (kA)=kn1A(kA)^*=k^{n-1}A^*
    • AA可逆,则(A1)=(A)1(A^{-1})^* = (A^*)^{-1}
    • (AT)=(A)T(A^T)^* = (A^*)^T
    • (AB)=BA(AB)^* = B^*A^*
    • rank(A)=n,rank(A)=nrank(A)=1,rank(A)=n1rank(A)=0,rank(A)<n1operatorname{rank}(A^*) = n, operatorname{rank}(A) = n\operatorname{rank}(A^*) = 1, operatorname{rank}(A) = n-1\operatorname{rank}(A^*) = 0, operatorname{rank}(A) < n-1
    ↩︎
  8. 请注意,λlambdaxx 的元素实际上在 CC中,即复数集,而不仅仅是实数; 我们很快就会看到为什么这是必要的。 现在不要担心这个问题,你可以像实向量一样思考复向量。 ↩︎

  9. 在数学上,我们有i,Aui=λiui,ui2=1,and ji,uiTuj=0forall{i},Au_i = lambda_iu_i, |u_i|_2 = 1, ext{and } forall{j} eq i, u_i^Tu_j = 0。此外,我们注意到任意矩阵 A(而这里我们主要描述对称矩阵)的特征向量,并不是都满足彼此正交,因为特征值可以是重复的,特征向量也是如此。 ↩︎

  10. 这里为了符号的简单性,我们偏离了前几节中矩阵列的符号约定(本来是应该用uiu^i表示的,这里我们用uiu_i来表示)。 ↩︎

  11. 注意x^0x0hat x e 0 hArr x e 0 ↩︎

  12. 注意x=Ux^x=U hat x,因此构造x^hat x给出来xx的隐式构造 ↩︎

  13. 我们必须接受这种符号的一个缺点是,在第一种情况下,zf(Ax) abla zf(Ax) 似乎我们正在对一个变量进行微分,而这个变量甚至没有出现在被微分的表达式中! 出于这个原因,第一种情况通常写为 f(Ax) abla f(Ax),并且可以理解我们对 ff 的参数进行微分这一事实。 然而,第二种情况总是写成 xf(Ax) abla xf(Ax)↩︎

  14. 如果您以前没有见过拉格朗日,请不要担心,因为我们将在后面的 CS229 中更详细地介绍它们。 ↩︎

翻译不易,https://github.com/openjw/open/blob/master/MachineLearning/cs229/cs229-linalg.md
原文地址:https://www.cnblogs.com/kingreatwill/p/15108159.html