研究揭示​大量 “垃圾” 数据影响大语言模型推理能力

根据一项新研究,大语言模型(LLM)在持续接触无意义的在线内容后,可能会出现显著的性能下降。这项研究表明,这些模型的推理能力和自信心都受到影响,引发了对它们长期健康的担忧。研究团队来自多个美国大学,提出了 “LLM 脑衰退假说”,借鉴了人类在过度接触无脑在线内容时可能造成的认知损害。

为验证这一理论,研究人员进行了控制实验,使用2010年的 twitter 数据。他们训练了四个较小的模型,包括 llama3-8b-instruct 和 qwen 系列模型,采用不同比例的 “垃圾” 数据与高质量的控制数据进行对比。

研究者们以两种方式定义 “垃圾” 数据。第一种方法(M1)通过互动量来筛选,认为短于30个字且高互动(超过500个赞、转发或评论)的帖子为垃圾内容,而长于100个字但互动少的帖子则作为控制内容。第二种方法(M2)则使用 gpt-4o-mini 根据内容质量进行排序,标记阴谋论、夸大说法和吸引眼球的标题为垃圾内容,更深思熟虑的材料则被视为高质量内容。

研究揭示​大量 “垃圾” 数据影响大语言模型推理能力

研究发现,随着垃圾数据比例的增加,模型在推理准确性上的表现急剧下降。例如,在 ARC 挑战基准测试中,推理准确率从74.9% 降至57.2%。对于需要长文本理解的任务,准确率甚至从84.4% 降至52.3%。而基于互动量的垃圾内容定义对模型的伤害更为明显,显示出互动量带来了与标准语义检查不同的数据质量维度。

此外,模型在接触大量互动驱动的垃圾内容后,表现出了一些 “黑暗” 个性特征,包括较高的自恋和操控倾向。安全性指标也出现了下降,尽管接触内容质量差的垃圾数据有时会提高某些积极特征。

错误分析显示,“思维跳跃” 是最常见的问题,超过70% 的错误没有任何推理,特别是在接触互动型垃圾内容时,跳跃率达到了84%。模型在进行逻辑推理链时,往往无法完成推理步骤,导致基本错误。

研究揭示​大量 “垃圾” 数据影响大语言模型推理能力

豆包大模型

字节跳动自主研发的一系列大型语言模型

研究揭示​大量 “垃圾” 数据影响大语言模型推理能力834

查看详情 研究揭示​大量 “垃圾” 数据影响大语言模型推理能力

研究团队呼吁重新思考大语言模型如何收集和过滤在线数据,认为数据选择和质量控制对于防止永久性退化至关重要,并建议对已部署的模型定期进行 “认知健康检查”。

立即进入豆包AI人工智官网入口”;

立即学习豆包AI人工智能在线问答入口”;

上一篇
下一篇
text=ZqhQzanResources