本文是LLM系列文章,针对《A Moral Imperative: The Need for Continual Superalignment of Large Language Models》的翻译。
摘要
本文探讨了在人工智能系统,特别是大型语言模型(LLM)中实现终身超对齐所面临的挑战。超级对准是一个理论框架,旨在确保超级智能人工智能系统按照人类的价值观和目标行事。尽管其愿景很有希望,但我们认为,实现超对齐需要对当前的LLM架构进行实质性的改变,因为它们在理解和适应这些人类伦理和不断演变的全球场景的动态性质方面存在固有的局限性。我们剖析了将不断变化的人类价值观编码到LLM中的挑战,强调了静态人工智能模型与人类社会动态本质之间的差异。为了说明这些挑战,我们分析了两个不同的例子:一个展示了人类价值观的质的转变,而另一个则呈现了可量化的变化。通过这些例子,我们说明了LLM如何受到其训练数据的约束,无法与当代人类价值观和场景保持一致。论文最后探讨了解决并可能缓解这些对齐差异的潜在策略,为追求更具适应性和响应能力的人工智能系统指明了前进的道路。