從微積分和線性代數角度看線性最小二乘原理
線性最小二乘
線性最小二乘(Linear least squares),簡稱為最小二乘(Least squares),是統計學中用來進行線性回歸分析,線性擬合最核心的方法。給定一些離散數據點,確定一條直線,使得該直線與這些點誤差的平方和最小,這就是最小二乘法。
Wikipedia:In statistics and mathematics, linear least squares is an approach fitting a mathematical or statistical model to data in cases where the idealized value provided by the model for any data point is expressed linearly in terms of the unknown parameters of the model. The resulting fitted model can be used to summarize the data, to predict unobserved values from the same system, and to understand the mechanisms that may underlie the system.
問題
Q:現在笛卡爾坐標系中給定三個離散數據點,確定一條直線,使得直線與各數據點誤差的平方和最小。
從微積分角度
設這條直線函數,則誤差的平方和函數為
要是誤差的平方和最小,那麼就是求函數的最小值!而是關於的多元函數,多元函數的極值問題當然就是分別對求偏導咯。
令,則解得,則直線方程為
從線性代數角度
我們仍然設直線方程為,則要求直線擬合三個點就是求以下線性方程組的解。
其矩陣形式為:
顯然是無解,而確定的過程就是求線性方程最優解的過程,使得向量最靠近向量。即最小,而即為誤差。要求最優解則需將向量投影到矩陣的列空間中去,得到對應投影向量,從而線性方程變為,解得。因此,直線方程為。
推薦閱讀:
※透明化體驗身臨其境——工博會系列之一
※人們對徵信的十大誤區
※如果未來人工智慧有了思維,感情,我們需要怎麼應對?
※人工智慧會使哪些行業受益?
※人工智慧應用於檢測設備市場潛力巨大——工博會系列之二