当前位置: 首页 > news >正文

秩为1的矩阵的特征和性质

秩为1的矩阵即r(A)=1r(A)=1r(A)=1的矩阵,

当然,严格来讲,秩一矩阵不一定非要是方阵,例如下面这一个矩阵:

A=[123246]A=\begin{bmatrix} 1 & 2 & 3 \\ 2 & 4 & 6 \end{bmatrix}A=[122436]
其并不是一个方阵,化简后
A=[123000]A=\begin{bmatrix} 1 & 2 & 3 \\ 0 & 0 & 0 \end{bmatrix}A=[102030]只有一个线性无关的向量,因此秩为1。

但是,在考研和日常应用中需要讨论秩一矩阵的迹、特征值这些性质,因此基本上秩一矩阵默认都是方阵。

秩一矩阵有一些有常用的性质,介绍如下:

性质1:秩一矩阵的行列成比例

这也可以说是一个特征。行列成比例则可以化简为只有一个线性无关的向量的最简形式,从而得出矩阵的秩为1

性质2:r(A)=1⇔A=αβTr(A)=1\Leftrightarrow A=\alpha \beta^Tr(A)=1A=αβT,即秩一矩阵A可以化为两个一维向量相乘的形式
秩一矩阵可以化为一列向量乘一行向量的形式, 从线性代数的几何性质来理解就是即秩一矩阵A的列空间是一维的, 两个一维向量分别是列空间和行空间的基。从数值方面来理解秩为一的矩阵任何一行(列)向量都是某行(列)向量的k1,k2,k3⋯k_1,k_2,k_3 \cdotsk1,k2,k3倍,矩阵要实现这种效果就是使用矩阵乘法,也就是列向量乘行向量

例如:
A=[1232464812]=[124]⋅[123]A=\begin{bmatrix} 1 & 2 & 3 \\ 2 & 4 & 6 \\ 4 & 8 & 12 \end{bmatrix}=\begin{bmatrix} 1 \\ 2 \\ 4 \end{bmatrix} \cdot \begin{bmatrix} 1 & 2 & 3 \\ \end{bmatrix}A=1242483612=124[123]

性质3:tr(A)=βTαtr(A)=\beta^T \alphatr(A)=βTαAAA的迹等于两个向量的内积
AAA的迹tr(A)tr(A)tr(A)即为矩阵的对角线元素相加

举一个三阶矩阵的例子来证明:
tr(A)=tr(αβT)=tr((α1α2α3)(β1β2β3))=α1β1+α2β2+α3β3=αTβ=βTαtr(A) = tr(\alpha\beta^T)= tr(\begin{pmatrix} \alpha_1\\ \alpha_2\\ \alpha_3 \end{pmatrix} \begin{pmatrix} \beta_1& \beta_2 &\beta_3 \end{pmatrix}) \\ =\alpha_1\beta_1+\alpha_2\beta_2 +\alpha_3\beta_3 = \alpha^T \beta=\beta^T\alpha tr(A)=tr(αβT)=tr(α1α2α3(β1β2β3))=α1β1+α2β2+α3β3=αTβ=βTα

这一个性质经常和性质2结合来处理秩一矩阵的的高次方。
nnn阶矩阵AAA的秩为1 ,则A=αβT,tr(A)=βTαA=\alpha \beta^T,tr(A)=\beta^T \alphaA=αβTtr(A)=βTα
An=(αβT)n=αβTαβTαβT⋯αβTαβT=α[tr(A)]n−1βT=[tr(A)]n−1αβT=[tr(A)]n−1AA^n=(\alpha \beta^T)^n=\alpha \beta^T\alpha \beta^T\alpha \beta^T \cdots \alpha \beta^T\alpha \beta^T \\[15pt]=\alpha[tr(A)]^{n-1} \beta^T=[tr(A)]^{n-1} \alpha\beta^T=[tr(A)]^{n-1} AAn=(αβT)n=αβTαβTαβTαβTαβT=α[tr(A)]n1βT=[tr(A)]n1αβT=[tr(A)]n1A

性质4: nnn阶秩一矩阵AAAnnn个特征值是1个tr(A)tr(A)tr(A)n−1n-1n1个 0

证明:
法1(方程组法)

nnn阶矩阵AAA的秩为1 ,则Ax=0Ax=0Ax=0 的基础解系含 n−1n-1n1个线性无关解向量,由于 Ax=0=0⋅xAx=0=0 \cdot xAx=0=0x,所以这 n−1n-1n1个线性无关的解向量都是属于特征值0的特征向量,因此0至少是 AAAn−1n-1n1重特征值。

λ1=λ2=⋯λn−1=0\lambda _1=\lambda _2=\cdots \lambda _{n-1}=0λ1=λ2=λn1=0,则由特征值的性质特征值之和等于矩阵的迹,即λ1+λ2+⋯λn−1+λn=∑i=1naii\lambda _1+\lambda _2+\cdots \lambda _{n-1}+\lambda _n=\sum_{i=1}^n{a_{ii}}λ1+λ2+λn1+λn=i=1naii得: λn=∑i=1naii=tr(A)\lambda _n=\sum_{i=1}^n{a_{ii}}=tr(A)λn=i=1naii=tr(A)

所以当矩阵的迹tr(A)=0tr(A)=0tr(A)=0时,0就是矩阵的nnn重特征值,当矩阵的迹tr(A)≠0tr(A) \ne 0tr(A)=0时,0就是矩阵的n−1n-1n1重特征值

法2(特征方程法)

nnn阶矩阵AAA的秩为1 ,则AAA的列向量组的秩为 1,不妨设AAA的第一列为α=(a1,a2,⋯ ,an)T≠0(a1≠0)\alpha=\left(a_{1}, a_{2}, \cdots, a_{n}\right)^{T} \neq 0 \quad\left(a_{1} \neq 0\right)α=(a1,a2,,an)T=0(a1=0),则其它列均可由α\alphaα线性表示,于是矩阵可表示为A=(b1α,b2α,⋯ ,bnα)=αβTA=\left(b_{1} \alpha, b_{2} \alpha, \cdots, b_{n} \alpha\right)=\alpha \beta^{T}A=(b1α,b2α,,bnα)=αβT,其中 b1=1,β=(b1,b2,⋯ ,bn)Tb_{1}=1, \quad \beta=\left(b_{1}, b_{2}, \cdots, b_{n}\right)^{T}b1=1,β=(b1,b2,,bn)T

∣λE−A∣=∣λ−a1b1−a1b2⋯−a1bn−a2b1λ−a2b2⋯−a2bn⋮⋮⋮−anb1−anb2⋯λ−anbn∣=∣λ−a1b1−a1b2⋯−a1bn−a2a1λλ⋯0⋮⋮⋮−ana1λ0⋯λ∣=λ−∑i=1naibi−a1b2⋯−a1bn0λ⋯0⋮⋮⋮00⋯λ=λn−1(λ−∑i=1naibi)|\lambda E-A|=\left|\begin{array}{cccc}\lambda-a_{1} b_{1} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ -a_{2} b_{1} & \lambda-a_{2} b_{2} & \cdots & -a_{2} b_{n} \\ \vdots & \vdots & & \vdots \\ -a_{n} b_{1} & -a_{n} b_{2} & \cdots & \lambda-a_{n} b_{n}\end{array}\right| \\[24pt] \\ =\left|\begin{array}{cccc} \lambda-a_{1} b_{1} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ -\frac{a_{2}}{a_{1}} \lambda & \lambda & \cdots & 0 \\ \vdots & \vdots & & \vdots \\ -\frac{a_{n}}{a_{1}} \lambda & 0 & \cdots & \lambda \end{array}\right| \\[24pt] =\begin{array}{|cccc|} \lambda-\sum_{i=1}^{n} a_{i} b_{i} & -a_{1} b_{2} & \cdots & -a_{1} b_{n} \\ 0 & \lambda & \cdots & 0 \\ \vdots & \vdots & & \vdots \\ 0 & 0 & \cdots & \lambda \end{array} \\[24pt] =\lambda^{n-1}\left(\lambda-\sum_{i=1}^{n} a_{i} b_{i}\right) λEA=λa1b1a2b1anb1a1b2λa2b2anb2a1bna2bnλanbn=λa1b1a1a2λa1anλa1b2λ0a1bn0λ=λi=1naibi00a1b2λ0a1bn0λ=λn1(λi=1naibi)

性质5: α\alphaα是矩阵AAAtr(A)tr(A)tr(A)特征值对应的特征向量。

nnn阶矩阵AAA的秩为1 ,则AAA可表示为
A=αβT=[a1a2⋯an]⋅[b1b2⋯b3]=[a1b1a1b2⋯a1bna2b1a2b2⋯a2bn⋮⋮⋮anb1anb2⋯anbn]A=\alpha \beta^T=\begin{bmatrix} a_1 \\ a_2 \\ \cdots \\ a_n \end{bmatrix} \cdot \begin{bmatrix} b_1 & b_2 & \cdots & b_3 \\ \end{bmatrix}=\begin{bmatrix} a_1b_1 & a_1b_2 & \cdots & a_1b_n\\ a_2b_1& a_2b_2 & \cdots & a_2b_n \\ \vdots & \vdots & & \vdots \\ a_nb_1 & a_nb_2& \cdots & a_nb_n \end{bmatrix} A=αβT=a1a2an[b1b2b3]=a1b1a2b1anb1a1b2a2b2anb2a1bna2bnanbn

首先求特征值0对应的特征向量,有:
(0E−A)X=0(0E-A)X=0(0EA)X=0

AX=0AX=0AX=0
解这一方程组,由于AAA为秩一矩阵,可将AAA化为最简的形式:
[b1b2⋯bn00⋯0⋮⋮⋮00⋯0]\begin{bmatrix} b_1 & b_2 & \cdots & b_n\\ 0& 0 & \cdots & 0 \\ \vdots & \vdots & & \vdots \\ 0 & 0& \cdots & 0 \end{bmatrix} b100b200bn00
则特征值0对应有n−1n-1n1个线性无关的特征向量,分别为:
ξ1=[−b2b1,1,0,⋯ ,0]Tξ2=[−b3b1,0,1,⋯ ,0]T⋯ξn−1=[−bnb1,0,0,⋯ ,1]T\xi_1=[-\frac{b_2}{b_1},1,0,\cdots,0]^T\\\xi_2=[-\frac{b_3}{b_1},0,1,\cdots,0]^T\\\cdots\\\xi_{n-1}=[-\frac{b_n}{b_1},0,0,\cdots,1]^Tξ1=[b1b2,1,0,,0]Tξ2=[b1b3,0,1,,0]Tξn1=[b1bn,0,0,,1]T
则特征值0对应的特征向量为:k1ξ1+k2ξ2+⋯+kn−1ξn−1k_1\xi_1+k_2\xi_2+ \cdots+k_{n-1}\xi_{n-1}k1ξ1+k2ξ2++kn1ξn1,其中k1,k2,⋯ ,kn−1k_1,k_2, \cdots,k_{n-1}k1,k2,,kn1均为任意常数。

接下来再求特征值为tr(A)tr(A)tr(A)时对应的特征向量。由之前讲到的性质可以推出:
Aα=αβTα=tr(A)αA\alpha=\alpha \beta^T\alpha=tr(A)\alphaAα=αβTα=tr(A)α
所以tr(A)tr(A)tr(A)特征值对应的特征向量就是α\alphaα

性质6:tr(A)=0tr(A)=0tr(A)=0时,矩阵不能相似对角化,当tr(A)≠0tr(A)\ne 0tr(A)=0时,可以相似对角化。

首先先介绍几个线性代数中的名词和定理:

  1. 矩阵可相似对角化的充要条件是nnn阶矩阵有nnn个线性无关的特征向量。
  2. 特征根的代数重数:某一特征值对应特征方程的解向量的重数,即求解特征方程∣λE−A∣=0|\lambda E-A|=0λEA=0重复特征值的重数
  3. 特征根的几何重数:即同一个特征值对应线性无关的特征向量个数,计算方法为n−r(λE−A)n-r(\lambda E-A)nr(λEA),而有nnn个线性无关的特征向量,则这些特征向量就可以最多可生成nnn维空间.可以以坐标轴为例理解,两条线最多可以生成一个二维平面,三条线最多可以组成一个立体三维空间。
  4. 特征根的几何重数≤代数重数,其对应的就是在学习线性代数时一个结论:nnn重特征值最多有nnn个线性无关的特征向量。

tr(A)=0tr(A)=0tr(A)=0时, 则特征值0对应的线性方程组Ax=0Ax=0Ax=0 的线性无关解的个数等于n−r(A)n-r(A)nr(A),即n−1n−1n1 ,nnn阶矩阵只有n−1n-1n1个线性无关的特征向量,因此不可以对角化;

tr(A)≠0tr(A)\ne0tr(A)=0时,上面说过有n−1n-1n1重特征值0和一重特征值tr(A)tr(A)tr(A).n−1n-1n1重特征值0对应有n−1n-1n1个线性无关的解,也就是n−1n-1n1个线性无关的特征向量,而特征值tr(A)tr(A)tr(A)对应也有一个特征向量,而不同特征值对应的特征向量线性无关,所以矩阵有nnn个线性无关的特征向量,可对角化。

在这里插入图片描述

http://www.lryc.cn/news/602275.html

相关文章:

  • 青少年编程高阶课程介绍
  • 青少年编程中阶课
  • 『 C++ 入门到放弃 』- 哈希表
  • 攻防世界-引导-Web_php_unserialize
  • 《LeetCode 热题 100》整整 100 题量大管饱题解套餐 中
  • cacti的RCE
  • 关于“PromptPilot” 之3 -Prompt构造器核心专项能力:任务调度
  • keepalived原理及实战部署
  • MBR和GPT分区的区别
  • 电商项目DevOps一体化运维实战
  • 【Datawhale夏令营】端侧Agent开发实践
  • CodeBuddy的安装教程
  • JAVA东郊到家按摩服务同款同城家政服务按摩私教茶艺师服务系统小程序+公众号+APP+H5
  • 基于BEKK-GARCH模型的参数估计、最大似然估计以及参数标准误估计的MATLAB实现
  • openlayer根据不同的状态显示不同的图层颜色
  • Fortran实现 3维反距离加权(IDW)插值算法
  • 初识 docker [下] 项目部署
  • ETH 交易流程深度技术详解
  • 二、Linux文本处理与文件操作核心命令
  • 从0开始学习R语言--Day60--EM插补法
  • git stash apply 冲突合并方法解决
  • Kafka 3.9.1的KRaft模式部署
  • linux系统----Ansible中的playbook简单应用
  • 从零开始的云计算生活——第三十七天,跬步千里,ansible之playbook
  • 【Blender小技巧】Blender使用多边形建形工具创建多边形模型,挤出面,模型创建修改编辑UV贴图
  • 【第四章:大模型(LLM)】01.神经网络中的 NLP-(2)Seq2Seq 原理及代码解析
  • 从0到500账号管理:亚矩阵云手机多开组队与虚拟定位实战指南
  • 【归并排序】排序数组(medium)
  • Rust/Tauri 优秀开源项目推荐
  • C/C++ 调用lua脚本,lua脚本调用另一个lua脚本