ZipNada 撰文:新研究表明,大型语言模型(LLM)像 ChatGPT 无法独立学习或获取新技能,而不需要明确的指令,这使它们变得可预测和可控。该研究消除了人们对这些模型发展复杂推理能力的担忧,强调了 LLM 可以生成复杂的语言,但它们不太可能构成存在主义威胁。然而,AI 的潜在滥用,如生成假新闻,仍需要关注。该研究今天作为第 62 届计算语言学协会年会(ACL 2024)会议论文集的一部分发布--这是自然语言处理领域的顶级国际会议--揭示了 LLM 只有浅薄的能力来遵循指令和语言熟练度,但它们没有潜力在没有明确指令的情况下掌握新技能。这意味着它们仍然是可控的、可预测的和安全的。 "这种 AI 是对人类的威胁的普遍叙事,阻碍了这些技术的广泛采用和发展,也将注意力从真正需要关注的问题上转移了。" University of Bath 的计算机科学家、该新研究的合著者 Dr. Harish Tayyar Madabushi 说。 Iryna Gurevych 教授补充道:“我们的结果并不意味着 AI 不是威胁。相反,我们表明了与特定威胁相关的复杂思考技能的出现缺乏证据,并且我们可以非常好地控制 LLM 的学习过程。因此,未来的研究应该集中在模型可能带来的其他风险上,如它们被用于生成假新闻的潜力。”
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...