向量 L1 範數最小化問題?

Weighted median is the solution to the following cost function:

(Cost(eta )=sum_{i=1}^{N-1}{W_{i}*|x_{i}-eta|} )

其中x是一個N維向量。求一個eta ,使得Cost(eta )最小。

想問一下,為啥eta 就是x向量的中值加權濾波呢?


要求min_eta J(eta)=sum_{i=1}^n w_i|x_i-eta|quad(w_i ge 0, sum_{i=1}^nw_i=1),不妨假設x_1<cdots<x_n。取subdifferential,則最優點滿足0insum_{i=1}^nw_icdotpartial|x_i-eta|,其中(不區分單點集和其中的點,下同)

partial|x_i-eta|=egin{cases}
1  x_i>eta\<br />
[-1,1]  x_i=eta\<br />
-1  x_i <eta
end{cases}

sum_{i=1}^nw_icdotpartial|x_i-eta|=egin{cases}
1  eta>x_n\<br />
sum_{i=k+1}^nw_i-sum_{i=1}^kw_i x_k <eta < x_{k+1}\
left(sum_{i=k+1}^nw_i-sum_{i=1}^{k-1}w_i
ight)+[-w_k, w_k]  eta=x_k\
-1  eta < x_1
end{cases}

因此要令0insum_{i=1}^nw_icdotpartial|x_i-eta|,需找到k使得sum_{i=k+1}^nw_i=sum_{i=1}^kw_i=1/2(情形2),此時x_k <eta < x_{k+1},可取eta = (x_k + x_{k+1})/2;或使得sum_{i=1}^{k-1}w_ile 1/2sum_{i=k+1}^{n}w_ile 1/2(情形3),此時eta=x_k。兩種情況均表明eta{x_1,cdots,x_n}的以{w_1,cdots,w_n}為權的加權中位數。若w_iequiv 1/n,則eta退化為{x_1,cdots,x_n}的中位數。


推薦閱讀:

語音識別領域的最新進展目前是什麼樣的水準?
當前人工智慧特別是深度學習最前沿的研究方向是什麼?
有沒有可能讓機器讀遍github上的開源代碼,然後學會編程?
梯度下降法的神經網路容易收斂到局部最優,為什麼應用廣泛?
深度學習晶元?

TAG:數學 | 機器學習 | 凸優化 | 深度學習DeepLearning | 壓縮感知貪婪演算法 |