选用回归Loss的话,Target Label自然从[0档, 1档, 2档, 3档]映射到[0.0, 0.33, 0.66, 1.0]分,直接体现出类别之间的有序性,
直觉上感觉不容易出排序上严重的badcase?,因为如果一个数据如果本来是0.5分,错误顶多可能给预测到0.7分,还行,但是选分类Loss的话,如果本来0档是可能给预测成3档,会是比较严重的badcase。
但是问Gemini,Gemini在实践中,好的分类模型通过其内在机制,可以很好地规避这种风险,并且通常比回归模型更鲁棒。
经过实践,发现如果一个错误测试数据,在分类Loss本来是0档,给预测到了3档,换成回归Loss,可以说本来0.1的分数,还是给预测到了0.98-0.99的高分。
如果数据质量较高的话,足够把类别之间的有序性在数据里体现,可选分类Loss。