![机器学习:从公理到算法](https://wfqqreader-1252317822.image.myqcloud.com/cover/786/920786/b_920786.jpg)
上QQ阅读APP看书,第一时间看更新
5.2 非负矩阵分解
在许多应用之中,样本的描述特征是非负值,如图像的颜色值特征、文本的词频特征等。但是这些特征同样数目巨大,需要数据降维。为了保持样本特性,降维后的特征也需要保持非负特性。这时候用到的学习算法常常是非负矩阵分解。
在非负矩阵分解(non negative matrix factorization,NMF)中,输入类表示为原点为0的原输入p维坐标第一象限的d(d<p)斜角坐标系。对第一象限的限制体现了“非负”的特点。斜角坐标系强调了NMF并不要求学到的低维空间的基向量正交。在NMF中输入类表示与输出类表示相同,即,当输入数据为X=[xrk]p×N,输出数据为Y=[hrk]d×N=H时,NMF限定xrk,hrk,wrk均大于等于0。
与之前针对PCA分析类似,可以定义类相异性映射为。由于类唯一表示公理成立,类紧致性准则要求我们在寻找最佳的类表示时,应最小化如下的目标函数
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00074.jpg?sign=1739278695-x9LmHDqB5GxGmcGkWrP4dgIKYxdbfBLD-0-a143b4b7035c9c5347b5de0ad2763860)
由此我们引出了NMF的目标函数
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00075.jpg?sign=1739278695-Lc1oQYhsUblfD51nWO3CsJtHeGhqSe6W-0-f72c4460b0333fdb02adf51bcbd6d2f9)
对于问题(5.7)仍然采用拉格朗日乘子法求解,给定拉格朗日方程
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00076.jpg?sign=1739278695-VtKyy58W0MemiqQwWkDeHVBcPxOyt0xH-0-8f272a2c2440e4bd47ba00de86d6b1d1)
其中A,B为乘子项,〈·,·〉为内积操作。针对H求偏导得
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00077.jpg?sign=1739278695-ipaPbETmE4iNYefBm6nkJUeNvUD9CCy0-0-f21ab7cb58d5bbf3acf7f7ff7daa3f99)
根据KKT条件,且BijHij=0,可得
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00071.jpg?sign=1739278695-QmCdSdMmTWtedGZY9VpEbGvvRkOtI2bX-0-efc85a67bbfdc10b7ef403053326dc63)
由此可得关于H的更新公式为
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00072.jpg?sign=1739278695-WSKT3kmlz0yDu9kHPwqNf4sGZjQoFon9-0-d7f57005ac0fd36d2f0edbcaf9ed4e73)
同理,可以得到关于W的更新公式为
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00073.jpg?sign=1739278695-lpZBfqF3W7hyvkcrfid6yfckQhln5sQj-0-8c96a976a888c54238b0170b4113fbbb)
在文献中给出按照此迭代形式下非负分解的收敛性证明。