线性代数期末复习小结以及常见题型的解法

1、 角与向量

a·b的另一种表示法:(a, b)

a·b = a1b1 + a2b2 + … + anbn

a·b = |a||b|·cosθ

|a| = √(a1^2+ a1^2 + … + an^2)

向量单位化 e = a/|a|

2、A、A^-1、A*、|A|

       AA*=A*A=|A|E

       A^-1=A*/|A|

       若A为方阵,则|A*|=|A|^(n-1)

3、求行列式

求行列式的两种方法

①    化为上三角矩阵或者下三角矩阵或者对角矩阵,行列式的值为对角线各项元素的积

②    代数余子式法

行初等变换对行列式的影响

①    交换一次行与行:行列式的值变为原来的负值

②    某一行乘以k:行列式的值变为原来的k倍

③    将一行的k倍加到其他行上:行列式的值保持不变

4、求逆矩阵

①    伴随矩阵法 A^-1=A*/|A|

②    初等变换法 将A | E 通过初等变换变为 E | A^-1

5、线性方程组:A为系数矩阵 A’为增广矩阵 n为方程组未知数的个数

若R(A) ≠ R(A’) 则非齐次线性方程组无解

若R(A) = R(A’),则

①    若R(A) = n 则齐次线性方程组有唯一的零解

②    若R(A) < n 则齐次线性方程组有无数解,以及n-R(A)个解向量和自由未知量

解齐次线性方程组的步骤

①    写出系数矩阵,用初等行变换法,化为行阶梯形矩阵判断齐次线性方程组解的情况

②    若R(A) < n,写出行阶梯形矩阵对应的方程组,且有n-R(A)个自由未知量

③    把非线性无关的变量作为自由未知量,进行线性无关的赋值,得到n-R(A)个通解

④    根据通解写出基础解系

解非齐次线性方程组的步骤

①    将增广矩阵通过行初等变换化为行阶梯形矩阵,若R(A) = R(A’), 则非齐次线性方程有解

②    根据行阶梯形矩阵的系数矩阵部分,按求解其次线性方程组的方法,写出通解部分

③    根据行阶梯形矩阵,写出对应的方程组,将非线性无关的自由未知量赋以任意值,求出非齐次线性方程组的一个特解

④    根据特解+通解,写出基础解系

6、 求向量组的极大无关组

①      将向量组中的向量组按列排成矩阵

②      将矩阵转换为行最简矩阵

③      极大无关组即为1所在且其余皆为0的各个列

④      按行写出方程即可得到其余向量的该极大无关组的线性组合

7、 求特征值与特征向量

若Ax = λx,则λ为特征值,x为特征向量

①      求(A-λE)x=0,即|A-λE|=0,得到λ的值

②      将λ带进齐次线性方程组(A-λE)x=0,求解这个其次线性方程组,得到的通解即为对应特征值的特征向量

8、 标准型

1)       已知f(x1,x2,…,xn) (含未知数t)正定,求t的取值范围

①     写出二次型代表的矩阵 (以三阶矩阵为例)

②     写出方程组|a1|>0、 ||>0、||>0

③      解上面的不等式组,得到t的取值范围

2)       求二次型f(x1,x2,…,xn)的可逆的线性变换

①      将二次型化为只含有二次项的式子

②      用y1、y2、…、yn取代各个二次项

③      再将x1,x2,…,xn用y1、y2、…、yn表示,即X = AY

④      矩阵A即为变换矩阵

3)       求二次型f(x1,x2,…,xn)的正交变换

①      写出二次型对应的矩阵A

②      使用Ax=λx,求出A的特征值以及特征向量

③      求对应特征值的标准正交特征向量

④     将标准正交特征向量按列排序,得到正交矩阵P,且满足P^-1AP=

⑤      取正交变换x = Py,f可化成f = λ1y1 + … λnyn

9、 向量的标准正交化

施密特正交法

设n维向量组a1, a2, … ,an线性无关,令

b1 = a1, 则

b2 = a2 - [(a2,b1)/(b1,b1)]*b1

b3 = a3 - [(a3,b1)/(b1,b1)]*b1 - [(a3,b2)/(b2,b2)]*b2

bn = an - [(an,b1)/(b1,b1)]*b1 - [(an,b2)/(b2,b2)]*b2 - … - [(an,bn-1)/(bn-1,bn-1)]*bn-1

最后再将b1, b2, … ,bn单位化得到的e1, e2, … ,en即为标准正交向量组

备注:个人原创内容(原创指知识的总结而非知识本身),将不断补正,用于期末线代考试的复习;内容如有错误,恳请评论指出

原文地址:https://www.cnblogs.com/scau/p/13492362.html