最后更新于
最后更新于
更换损失函数, 使得损失函数尽量少地考虑负样本, 更多的考虑正样本, 即正样本带来的损失要远大于负样本.
使用特殊的损失函数
, 降低分类问题的自信程度, 过于自信的网络对于噪音也会很极端的分类, 通过引入每个样本对于每个类别的损失, 降低网络的自信程度, 减少过拟合的现象.
对于分类问题, 有时更关注样本最后的特征向量, 而不是最后类别. 因为在应用中, 我们对最后的分类没有兴趣, 而是通过训练分类任务得到一个表征模型, 然后进行下一步的任务.
但实际上, 如果使用softmax作为最后损失的计算方法, 则整个模型得到的特征不一定具有聚类特性, 相反, 它们会尽量布满整个空间(参考center loss的相关论文和文章).
为了使训练之后的表征具有聚类特性, 使用center loss, 对原来的cross entropy增加一个聚类的惩罚项:
第二项就是额外的惩罚项, 它给每个类定义了可训练的中心, 要求每个类要跟各自的中心靠得很近.