数学题,我暂时分数不够了,答完后我一定会追加分数的,谢谢!
发布网友
发布时间:2023-07-04 02:52
我来回答
共1个回答
热心网友
时间:2023-09-23 15:39
19. 等价关系R应满足:
(1) 对任意x, 有xRx.
(2) 对任意x, y, 若xRy, 则yRx.
(3) 对任意x, y, z, 若xRy且yRz, 则xRz.
已知R满足(2)和(3), 只需讨论R是否满足(1).
II. 就是(1), 因此是(在(2)(3)前提下)R为等价关系的充分必要条件.
I. 对任意x, 由I知存在y使xRy, 由(2)有yRx.
再由(3), xRy且yRx可得到xRx.
于是I可推出(1), I也是R为等价关系的充分必要条件 (必要性由xRx).
20. P是可对角化的.
设全空间为V, dim(V) = n.
线性变换P的像im(P)和核ker(P)都是V的线性子空间.
设P在一组基下的矩阵为A, 可知dim(im(P)) = r(A), dim(ker(P)) = n-r(A).
即有dim(im(P))+dim(ker(P)) = n.
(如果学了同态基本定理im(P) = V/ker(P), 可直接得到上述结论).
实际上, ker(P)是P的属于0的特征子空间, 即满足P(x) = 0的向量全体.
而在P² = P的条件下, im(P)包含于(其实就是)P的属于1的特征子空间.
因为对任意x∈im(P), 存在y∈V使x = P(y).
于是P(x) = P(P(y)) = P²(y) = P(y) = x, 即x是属于1的特征向量.
属于不同特征值的特征子空间彼此构成直和(direct sum), 交集为{0}.
又由dim(im(P))+dim(ker(P)) = n即得dim(im(P)⊕ker(P)) = n = dim(V).
于是im(P)⊕ker(P) = V.
im(P)的一组基和ker(P)的一组基合起来构成V的一组基, 它们都是P的特征向量.
在这组基下P的矩阵就是对角阵.
以上主要是用线性变换的语言, 也可用矩阵的语言. 我写个大意.
设P在一组基下的矩阵为A, 则A² = A, 即A(A-E) = 0 (E为单位阵).
r(A)+r(A-E)-n ≤ r(A(A-E)) = 0, 故r(A)+r(A-E) ≤ n.
特征值0的几何重数(AX = 0解空间维数) = n-r(A) ≤ 0的代数重数(特征多项式中的重数).
特征值1的几何重数(AX = X解空间维数) = n-r(A-E) ≤ 1的代数重数(特征多项式中的重数).
n ≤ (n-r(A))+(n-r(A-E)) ≤ 0的代数重数+1的代数重数 ≤ n.
于是0的几何重数 = 0的代数重数, 1的几何重数 = 1的代数重数, 且特征值只能是0或1.
A的任意特征值的几何重数 = 代数重数, 故A可对角化, 也即P可对角化.
至于P可逆显然是有反例的, 例如P = 0.
稍微不平凡的例如具有如下矩阵的线性变换:
1 0
0 0.
不用追加分数, 留着问其它问题吧.