文本生成任务评估方法(三):实际业务中如何评估生成模型的好坏?

在前两篇文章中,我们已经介绍了基于统计方法的文本生成评估方案基于 bert 表征的语义匹配评估方法。但在实际业务当中,用上方法,并不能满足评估需求,业务中往往对生成的事实性有较高要求,并且希望每个用户看到的东西不一样,也就是对多样性有较高的要求。接下来,我们将介绍在实际业务中,如何评估生成模型的好坏。

多样性评估:distinct-n

应用场景

在实际应用当中,一般需要生成具有多样性的文案,保证千人千面。例如在电商中的商品标题生成、电商广告中商品文案生成,还有在智能客服场景下,如果一个问题,用户询问了好几次,如果每次回答的内容都一样,那用户体验就会很不好,如果每个轮次生成的答案不同,不仅可以解决用户的问题,也会提高在咨询过程中的满意度。

计算方法

  • 核心思路

    • 主要的想法就是判断同一个句子中,不同的 n-gram 个数,占总的 n-gram 片段的比例,这个比例越高,说明同一个句子的重复度约低;
    • 不同候选集之间也可以按照如上的思路,只是这个 n-gram 片段是所有句子的 n-gram
  • 计算方法

<math xmlns="http://www.w3.org/1998/Math/MathML"> D i s t i n c t ( n ) = C o u n t ( u n i q u e n − g r a m ) / C o u n t ( w o r d ) Distinct(n) = Count(unique n-gram)/Count(word) </math>Distinct(n)=Count(uniquen−gram)/Count(word)

其中,count(word) 表示回复中 n-gram 词语的总数量。

  • 参考代码
ini 复制代码
def get_map(tokens, n, dicts=None):
    token_dict = {}
    if dicts is not None:
        token_dict = dicts
    
    lens = len(tokens)

    for i in range(0, lens - n +1):
        ngram_token = "".join(tokens[i:(i+n)])

        if token_dict.get(ngram_token) is not None:
            token_dict[ngram_token] += 1
        else:
            token_dict[ngram_toal] = 1
    return token_dict

def distinct_ngram(pair, n):
    ngram_toal = 0
    ngram_dsitinct = 0

    pred_dict = {}

    for pred, - in pair:
        get_map(pred, n, pred_dict)
    
    for k, v in pred_dict.items():
        ngram_toal += v
        ngram_dsitinct += 1
    
    return ngram_dsitinct/ngram_toal

# 1-gram
distict1 = distinct_ngram(lists, 1)

人工评测方法

人工评测的方法

人工评测的方法也有很多种,例如:

  • 打分法: 直接让一个标注人员根据标准打分
  • 投票法: 三个人,每个人打分后取平均
  • 对比法: 给出生成的和人工写的,让标注人员判断哪个是机器哪个是人工
人工评测标准

比起打分,大家可能更加关心"如何"打分,毕竟大家遇到比较头疼的是,好像自己也不是很确定评测的标准是什么。这里依照经验给大家一些建议,例如我们在做商品文案生成的时候,可以考虑:

人工评测维度 解释 指标(打分制度)
可读性 生成的句子不流畅、可读性较差; 0分
忠实度 生成的句子流程,无重复截断,但生成句子与输入描述不一致【输出的商品特性和输入「冲突】例如写的是高筒袜子,输出是低筒袜子; 1分
生成句子中存在部分不实信息 2分
语法正确 生成的句子流程、无重复截断、输入输出一致,无大毛病偶尔 存在语法问题,例如鞋子适合搭配鞋子这种 3分
无事实性错误,卖点比较多 生成的句子流程、无重复截断、输入输出一致;无语法错误,无事实性错误(即不存在和商品本身特性冲突的描述) 4分
具有吸引力、有一定的创作 在4分的基础上,有一些额外信息,如更吸引人的文案、输入信息不具备的特性描述(但这些特性是正确的、符合商品客观事实的 5分

除了上面的信息,可以结合业务的特性再加入需要的评估方面

总结

至此,我们已经介绍了基于统计方法,以 BLEU为代表的统计评估方法、以 bert 表征做语义相似度评估的向量方法、多样性评估的自动化方法、还有人工评估方法。 目前,机器翻译任务会看 BLEU,学术界看的比较多。在生成任务中,多样性评估、人工评估依然占据主导地位。人工评测依然有很多可以探索的点,本文给出了自己在实战中的一些经验,希望能给大家一些帮助和启发。

相关推荐
开MINI的工科男32 分钟前
深蓝学院-- 量产自动驾驶中的规划控制算法 小鹏
人工智能·机器学习·自动驾驶
limingade2 小时前
手机实时提取SIM卡打电话的信令和声音-新的篇章(一、可行的方案探讨)
物联网·算法·智能手机·数据分析·信息与通信
AI大模型知识分享2 小时前
Prompt最佳实践|如何用参考文本让ChatGPT答案更精准?
人工智能·深度学习·机器学习·chatgpt·prompt·gpt-3
张人玉4 小时前
人工智能——猴子摘香蕉问题
人工智能
草莓屁屁我不吃4 小时前
Siri因ChatGPT-4o升级:我们的个人信息还安全吗?
人工智能·安全·chatgpt·chatgpt-4o
小言从不摸鱼4 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
AI科研视界4 小时前
ChatGPT+2:修订初始AI安全性和超级智能假设
人工智能·chatgpt
jiao000014 小时前
数据结构——队列
c语言·数据结构·算法
霍格沃兹测试开发学社测试人社区4 小时前
人工智能 | 基于ChatGPT开发人工智能服务平台
软件测试·人工智能·测试开发·chatgpt
小R资源5 小时前
3款免费的GPT类工具
人工智能·gpt·chatgpt·ai作画·ai模型·国内免费