移民百答
2023-11-27 15:08:45

科技生活| AI语言模型从错误中学习 自主解决问题

[星岛综合报道] 在一篇尚未经过同行评议的论文中,来自东北大学和麻省理工学院的一个研究小组提出,大型语言模型(LLM)可能能够从自己的错误中学习,就像人类一样。他们说,教他们这样做,也许能够推动人工智能技术进入自主解决问题的新阶段。

研究人员在论文中写道:「自我反思使人类能够通过一个『尝试与犯错』(trial-and-error)过程有效地解决新问题。在最近的研究基础上,我们提出了Reflexion,一种赋予代理人动态记忆和自我反思能力的方法,以增强其现有的推理痕迹和特定任务的行动选择能力。」

换句话说,他们的方法被称为 Reflexion,是一个通过提示教人工智能模型对其产出应用「尝试与犯错」技术的框架。

因此,就像我们一样,如果一开始,他们没有成功,他们可以尝试,再尝试。

测试他们的新框架是一个相对简单的过程。机器,或「代理」,被提出了解决问题的任务,并被要求完成这些任务;当它搞砸了,它被提示用反思技术(Reflexion technique)为自己找到这些错误,他们声称这个过程有助于程序的发展,就像人类。

「为了实现完全自动化,我们引入了一种直接而有效的启发式方法,使代理人能够准确地指出幻觉实例,避免行动序列中的重复,并且在某些环境中,构建一个给定环境的内部记忆地图,」研究人员在他们的论文中写道。

使用一系列标准化的「决策任务」,研究人员发现,他们的方法能够极大地提高模型的给定成功率。科学家们指出,他们的研究是使用GPT-3GPT-3.5驱动的AI进行的。这是一个重要的考虑,因为OpenAI刚刚发布了功能更强大的GPT-4。不过,在讨论这篇论文的附带博文中,科学家们说,当应用于GPT-4时,一个「稍加改进的基于ReflexionGPT-4代理」有88%的时间是正确的,超过了Reflexion之前的67%的成功率。

同样,这篇论文没有经过同行评议,所以一定要对研究人员的结果抱有平常心。

也就是说,人工智能程序有很多乱七八糟的东西,随着它们继续被嵌入到各行业和平台的工作流程中,当然需要解决它们的缺陷的框架。虽然这项研究或多或少是一项提示工程的练习,而不是从内到外解决幻觉问题,但它可以帮助开发工具,以验证人工智能语言模型为人诟病的不可靠输出。

此外,一点自我反省永远不会伤害任何人,不论人类或机器。

图片:futurism

T09