推荐文章 Compressed Learning: Universal Sparse Dimensionality Reduction and Learning in the Measurement Domain。Robert Calderbank写的。
压缩感知的特点是:对于高维稀疏数据,我们可以通过nonadptive的方式(多为随机采样)来对其进行降维DR,并通过求解优化问题来恢复原数据。机器学习的问题有:维数灾难。高维数据会带来很多问题,使得回归或者分类等问题需要的样本数大大增加。将机器学习和压缩感知结合起来,从而避免高维空间中学习遇到的克服维数灾难问题(这里貌似可以将线性的传感矩阵当做一个核方法吧)。
这里有些优势,压缩感知对于稀疏这件事情其实并不是很挑剔的(有些数据本来就是稀疏的;很多类型的数据,如自然图像,等在小波或者其他正交域下是自然稀疏的;有些数据在一些字典或者冗余框架下是稀疏的,某些情况下这样数据直接进行随机降维仍然是有效的)。
有些有问题,就是重构的问题,如果只是考虑分类,No problem。如果考虑的问题涉及到重构的事情。这个事情就要做想一想了。