一般在machine learning意义上,我们常说的feature,是一种对数据的表达。当然,要衡量一种feature是否是合适的表达,要根据数据,应用,ML的模型,方法....很多方面来看。
一般来说,Feature应该是informative(富有信息量),discriminative(有区分性)和independent(独立)的。
那么具体怎么选择feature,其实一直是一个开放的问题。
在机器学习里面,feature的选择是至关重要的:对于同一种学习的模型,同样的学习方法,同样的数据,选择不同的feature来表达,可能会产生完全不同的效果。
Feature有很多种特性和分类:Feature可以是Linear(线性),也可以是Non-linear(非线性)的;Feature可以是Fixed(固顶的),也可以是Adaptive(适应性的)....甚至feature都可以不是numerical的,但因为题主问的是sparse feature,所以我就在这里特指numerical的feature。
如果把我们的每一个数据点,想象成一个vector(向量),记作y,对应的feature则可以用另外一个vector来表示,记作x。
而稀疏特性的feature(sparse feature),就是x这个向量里面有很多index都是0....而非零的index远小于x的维度(x向量的长度)。
实际上,稀疏特征和特征的区别就是零比较多。
参考资料:https://www.zhihu.com/question/31951092/answer/54137923
下面放一个京东白条部门的大佬写的关于特征工程的文章。
特征工程到底是什么? - 京东白条的回答 - 知乎 https://www.zhihu.com/question/29316149/answer/417545247