較為深度的了解,這裡做了一個總結,詳細内容請看連結
線性代數
行列式
圖文詳解
2x2的行列式實際上是兩個行向量之間組成的平行四邊形的面積,3x3的行列式實際上是三個行向量組成的長方體體積,以此類推到nxn是廣義的“體積”
矩陣乘法
圖文詳解
矩陣乘法就是線性函數。
将矩陣看做函數,矩陣乘法其實是在做線性映射
同一個線性變換,不同基下的矩陣稱為相似矩陣
線性變換和仿射變換
圖文詳解
“仿射變換”:“線性變換”+“平移”
有的線性變換是可逆的,有的不行,比如行列式=0這樣的線性變換就是不可逆的。
線性變換從幾何直覺有三個要點:
- 變換前是直線的,變換後依然是直線
- 直線比例保持不變
- 變換前是原點的,變換後依然是原點
線性變換是通過矩陣乘法來實作的。
仿射變換從幾何直覺隻有兩個要點:
- 變換前是直線的,變換後依然是直線
- 直線比例保持不變
少了原點保持不變這一條。
仿射變換不能隻通過矩陣乘法來實作,還得有加法。
但是在增加一個次元之後,就可以在高次元通過線性變換來完成低緯度的仿射變換
秩
圖文詳解
矩陣的秩:矩陣中所有行向量中極大線性無關組的元素個數。
秩:是圖像經過矩陣變換之後的矩陣次元
秩:列空間的次元,行空間的次元,行秩與列秩相等
可以了解為圖像所包含的資訊的豐富程度。不嚴謹的講,低秩表征一種備援程度。秩越低表示資料備援性越大,因為用很少幾個基就可以表達所有資料了。相反,秩越大表示資料備援性越小。
特征值和特征向量
圖文詳解
将特征向量當做一個普通的向量,使用很多個矩陣和它相乘,做乘法之後方向不變的那個矩陣的特征向量就是這個矩陣的特征向量,大小的變動就是特征值。
特征向量其實是個方向,特征值其實是個大小,特征向量所在直線上的向量都是特征向量
特征值分解可以認為有一個基,首先左乘一個正交陣變為标準基,然後乘一個對角陣做伸縮變換,然後再乘一個正交陣變回去
矩陣特征值是對特征向量進行伸縮和旋轉程度的度量,實數是隻進行伸縮,虛數是隻進行旋轉,複數就是有伸縮有旋轉。
正交化
圖文詳解
施密特正交化就是把非正交基變為正交基的。
二次型
圖文詳解
通過矩陣來研究二次函數(方程),這就是線性代數中二次型的重點。
線上代裡面,就是通過一個對稱矩陣,去研究某個二次型。
對 稱 矩 陣 ⇔ 二 次 型 矩 陣 ⇔ 二 次 型 對稱矩陣\Leftrightarrow二次型矩陣\Leftrightarrow二次型 對稱矩陣⇔二次型矩陣⇔二次型
一個平面在圓錐體上運動,可以得到圓、橢圓、雙曲線,這也是它們之間具有線性關系的來源
圓錐曲線都可以表示為:
[ x    y ] [ a b b c ] [ x y ] = 1 X = [ x y ] A = [ a b b c ] } ⇒ X T A X \begin{array}{l}\left.\begin{array}{rcl}\lbrack x\;y\rbrack&\begin{bmatrix}a&b\\b&c\end{bmatrix}\begin{bmatrix}x\\y\end{bmatrix}=\begin{array}{c}1\end{array}\\X&=\begin{array}{c}\begin{bmatrix}x\\y\end{bmatrix}\end{array}\\A&=\begin{array}{c}\begin{bmatrix}a&b\\b&c\end{bmatrix}\end{array}\end{array}\right\}\Rightarrow X^TAX\\\end{array} [xy]XA[abbc][xy]=1=[xy]=[abbc]⎭⎪⎪⎪⎪⎪⎪⎬⎪⎪⎪⎪⎪⎪⎫⇒XTAX
規範化是指比如一個橢圓看起來有點歪,不太好處理,我們将它扶正。
二次型矩陣包含了旋轉和拉伸兩種變換,将其拆分為三個矩陣相乘的形式對其進行規範化隻保留拉伸的部分去掉旋轉的部分,其中旋轉的部分是列向量機關向量并且是正交向量。
二次型矩陣,都是對稱矩陣,是以特征值分解總可以得到正交矩陣與對角矩陣。
(還有一個問題是連結中沒有講到的)為什麼二次型矩陣一定是實對稱矩陣?
如果A是一個未必對稱的方陣,令 B = ( A + A T ) 2 B=\frac{(A+A^T)}2 B=2(A+AT)
那麼B對稱,并且二次型 x T A x = x T B x x^TAx=x^TBx xTAx=xTBx
也就是說即使A不對稱,一定存在一個等效的對稱矩陣來表示這個二次型
是以為了研究友善就選擇(或者了解成規定)用對稱陣來表示二次型