科技生活| AI语言模型从错误中学习 自主解决问题

[星岛综合报道] 在一篇尚未经过同行评议的论文中,来自东北大学和麻省理工学院的一个研究小组提出,大型语言模型(LLM)可能能够从自己的错误中学习,就像人类一样。他们说,教他们这样做,也许能够推动人工智能技术进入自主解决问题的新阶段。

研究人员在论文中写道:“自我反思使人类能够通过一个‘尝试与犯错’(trial-and-error)过程有效地解决新问题。在最近的研究基础上,我们提出了Reflexion,一种赋予代理人动态记忆和自我反思能力的方法,以增强其现有的推理痕迹和特定任务的行动选择能力。”

换句话说,他们的方法被称为 Reflexion,是一个通过提示教人工智能模型对其产出应用“尝试与犯错”技术的框架。

因此,就像我们一样,如果一开始,他们没有成功,他们可以尝试,再尝试。

测试他们的新框架是一个相对简单的过程。机器,或“代理”,被提出了解决问题的任务,并被要求完成这些任务;当它搞砸了,它被提示用反思技术(Reflexion technique)为自己找到这些错误,他们声称这个过程有助于程序的发展,就像人类。

“为了实现完全自动化,我们引入了一种直接而有效的启发式方法,使代理人能够准确地指出幻觉实例,避免行动序列中的重复,并且在某些环境中,构建一个给定环境的内部记忆地图,”研究人员在他们的论文中写道。

使用一系列标准化的“决策任务”,研究人员发现,他们的方法能够极大地提高模型的给定成功率。科学家们指出,他们的研究是使用GPT-3GPT-3.5驱动的AI进行的。这是一个重要的考虑,因为OpenAI刚刚发布了功能更强大的GPT-4。不过,在讨论这篇论文的附带博文中,科学家们说,当应用于GPT-4时,一个“稍加改进的基于ReflexionGPT-4代理”有88%的时间是正确的,超过了Reflexion之前的67%的成功率。

同样,这篇论文没有经过同行评议,所以一定要对研究人员的结果抱有平常心。

也就是说,人工智能程序有很多乱七八糟的东西,随着它们继续被嵌入到各行业和平台的工作流程中,当然需要解决它们的缺陷的框架。虽然这项研究或多或少是一项提示工程的练习,而不是从内到外解决幻觉问题,但它可以帮助开发工具,以验证人工智能语言模型为人诟病的不可靠输出。

此外,一点自我反省永远不会伤害任何人,不论人类或机器。

图片:futurism

T09

 

---------------------------------------------

>>>立即浏览【移民百答】栏目:新移民抵埗攻略,老华侨也未必知道的事,移民、工作、居住、食玩买、交通、报税、银行、福利、生育、教育。

>>>即读【新移民专栏】:新移民第一身经验,与你分享当下年轻移民生活日常大小事,即读“新移民专栏”。

>>>下载【星岛新闻(加拿大版) 】App,随时看到最新最快新闻:
iPhone:https://apple.co/2IBi812
Android:https://bit.ly/2Pe8anu

>>>订阅【加拿大星岛网电邮快讯】,每天可收到最快新闻资讯电邮:
https://www.singtao.ca/subscribe/singtao.php

>>>立即关注加拿大星岛新闻网TG Channel,让加国新闻无遗漏全天候向你推送:
https://t.me/singtaoca

>>>订阅CCUE YouTube 频道,查看更多吃喝玩乐、生活资讯影片。
点击以下6大平台 接收加拿大新闻及生活资讯
share to wechat

延伸阅读

延伸阅读

【有声访问】外国干预疑云听证会进入尾声 对加拿大人有何意义?

部分省道驾驶速度上限将提高 时速可达每小时110公里

【有片 / 后台专访】Bob林盛斌多伦多栋笃笑观众互动爆笑连场 欧美站独有惊喜演出 Bob:我畀自己0分

【有声新闻】星岛A1中文电台 晨早新闻专辑

都市网新闻