想象一下,训练一个庞大的神经网络——一个能够诊断疾病、驾驶自动驾驶汽车或生成类似人类的文本的庞然大物——却发现部署如此庞大的模型就像试图驾驶一辆油箱很小的跑车跑马拉松一样。这就是模型提炼的艺术和科学发挥作用的地方。
在这篇文章中,我们将探讨模型蒸馏(最初由 Hinton 及其同事提出)如何将这些庞然大物转变为灵活、高效的模型。我们将讨论 Hinton 的主要发现、蒸馏如何用于判别任务(如预测模型),并将我们的讨论扩展到使用大型语言模型 (LLM) 的生成任务领域。我们还将阐明在使用合成输出时蒸馏和标准监督微调 (SFT) 之间的差异。