之前寫了特徵值和特徵向量的幾何直觀,來更形象地理解它們。由於它們過於重要,本文繼續。

一、性質:矩陣冪

  1. Trace=特徵值之和
  2. det=特徵值之乘積
  3. 引出線性代數第3個經典公式:A=S^{}Lambda  S^{-1} 前提A可逆
  4. if Ax=lambda x,則A^{2} x=lambda Ax=lambda ^{2}x ,即矩陣A^{2} 的特徵值為lambda ^{2} ,特徵向量相同;k階同樣成立

二、應用:求解差分方程

u_{k+1} =Au_{k}

  1. u_{k} =A^{k} u_{0} ,遞歸
  2. A=S^{}Lambda  S^{-1} ,前提A可逆,則對角化

  3. u_{0} =c_{1}x_{1} +c_{2}x_{2}+ ......+c_{n}x_{n}神來之筆:拆解u_{0}
  4. Au_{0} =c_{1}lambda _{1} x_{1} +c_{2}lambda _{2}x_{2}+ ......+c_{n}lambda _{n}x_{n},左乘A
  5. A^{100} u_{0} =c_{1}lambda _{1}^{100}  x_{1} +c_{2}lambda _{2}^{100}x_{2}+ ......+c_{n}lambda _{n}^{100}x_{n}核心結論
  6. A^{100} u_{0} =Lambda ^{100}SC ,This is the Matrix language.
  7. lambda <1,則收斂;lambda >1,,則發散

採用特徵值、特徵向量將矩陣對角化後,它具有了「不怕乘」的特異功能,將矩陣冪運算簡化到極致,於是有了上述推導過程。

推薦閱讀:

相關文章