人工评估 | 人工标注员

这是 人工评估 系列文章的第二篇《人工标注员》,全系列包括:

推荐阅读这篇综述的第三章,介绍了许多数据标注质量管理的实践经验。如果你追求的是生产级的质量,并且具备实施条件,那么请继续阅读吧!

Analyzing Dataset Annotation Quality Management in the Wildhttps://aclanthology.org/2024.cl-3.1/

9d38f4de47c8df276eb43a5ffdd68653.png
Best_annotation_practices

无论项目规模多大,一旦定义了具体的评估任务和打分细则,请注意:

  • 选择合适的标注员,如果可能的话提供经济激励你可能希望参与任务的标注员具有以下品质:

  1. 符合特定的人口统计特征。
    例如:母语是测试目标语言、较高的教育水平、特定领域的专业知识、多样化的地域背景等。根据评估任务不同,对标注员统计特征需求也不一样。

  2. 提供高质量标注。
    有些任务中筛选合适的标注员很重要,比如近期有一种任务是检查回答是否是 LLM 生成的。
    个人认为,除非你众包标注员有强烈的自我驱动意识,否则一般还是支付合理的费用更好。

设计标注准则请务必深入思考制定标注准则,非常值得花费大量时间去做!我们在制作GAIA数据集时的耗时最多的地方就是这里。

迭代标注很多时候标注员会误解标注指南 (他们的想法可能比你想象的更模棱两可),所以要做好多轮迭代标注的准备,来不断改进直到达到你的需求。

质量检查手动筛选你需要仔细检查答案的质量 (检查标注员间的答案一致性),并筛选出质量最优、相关性最高的答案。

你也可以使用专用工具来构建高质量标注数据集,如Argilla。

深入阅读推荐链接:

  • ⭐五分钟构建自己的标注平台,Moritz Laurer 出品的数据标注教程。这篇文章介绍了使用开源工具 (如 Argilla 和 Hugging Face) 的实际经验,可以帮助更好的理解大规模人工标注的注意事项。https://hf.co/learn/cookbook/enterprise_cookbook_argilla

  • ⭐标注实践指南。这是一篇 2023 年所有关于人工标注论文的综述,内容完整,干货满满,但很容易理解。https://aclanthology.org/2024.cl-3.1/

  • ScaleAI 出品的另一篇标注实践指南,专注于人工评估。它是对上述文档的更轻量级补充。https://scale.com/guides/data-labeling-annotation-guide

  • 关于减少人工标注分歧的假设与挑战,论文探讨了标注员间分歧来源的原因,以及在实践中的缓解方法。https://aclanthology.org/2024.naacl-long.126/

  • Argillahttps://argilla.io/

原文链接:https://github.com/huggingface/evaluation-guidebook/blob/main/contents/human-evaluation/using-human-annotators.md

作者: clefourrier

译者: SuSung-boy

审校: adeenayakup

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值