本文是LLM系列文章,针对《Psychological Assessments with Large Language Models: A Privacy-Focused and Cost-Effective Approach》的翻译。
摘要
本研究探索了使用大型语言模型(LLM)来分析Reddit用户的文本评论,旨在实现两个主要目标:首先,找出支持对自杀风险进行预定义心理评估的关键摘录;其次,总结材料,以证实预先分配的自杀风险水平。这项工作仅限于使用可以在本地运行的“开源”LLM,从而增强数据隐私。此外,它优先考虑计算需求低的模型,使个人和机构都可以使用有限的计算预算。实现的策略只依赖于精心制作的提示和语法来指导LLM的文本完成。尽管它很简单,但评估指标显示出了出色的结果,使其成为一种有价值的以隐私为重点且具有成本效益的方法。这项工作是计算语言学和临床心理学(CLPsych)2024共享任务的一部分。
1 引言
2 任务和数据
3 方法
4 结果
5 讨论
6 结论
评估了六种不同的“开源”大型语言模型&#x