科技生活| AI語言模型從錯誤中學習 自主解決問題

[星島綜合報道] 在一篇尚未經過同行評議的論文中,來自東北大學和麻省理工學院的一個研究小組提出,大型語言模型(LLM)可能能夠從自己的錯誤中學習,就像人類一樣。他們說,教他們這樣做,也許能夠推動人工智能技術進入自主解決問題的新階段。

研究人員在論文中寫道:「自我反思使人類能夠通過一個『嘗試與犯錯』(trial-and-error)過程有效地解決新問題。在最近的研究基礎上,我們提出了Reflexion,一種賦予代理人動態記憶和自我反思能力的方法,以增強其現有的推理痕跡和特定任務的行動選擇能力。」

換句話說,他們的方法被稱為 Reflexion,是一個通過提示教人工智能模型對其產出應用「嘗試與犯錯」技術的框架。

因此,就像我們一樣,如果一開始,他們沒有成功,他們可以嘗試,再嘗試。

測試他們的新框架是一個相對簡單的過程。機器,或「代理」,被提出了解決問題的任務,並被要求完成這些任務;當它搞砸了,它被提示用反思技術(Reflexion technique)為自己找到這些錯誤,他們聲稱這個過程有助於程序的發展,就像人類。

「為了實現完全自動化,我們引入了一種直接而有效的啓發式方法,使代理人能夠準確地指出幻覺實例,避免行動序列中的重複,並且在某些環境中,構建一個給定環境的內部記憶地圖,」研究人員在他們的論文中寫道。

使用一系列標準化的「決策任務」,研究人員發現,他們的方法能夠極大地提高模型的給定成功率。科學家們指出,他們的研究是使用GPT-3GPT-3.5驅動的AI進行的。這是一個重要的考慮,因為OpenAI剛剛發布了功能更強大的GPT-4。不過,在討論這篇論文的附帶博文中,科學家們說,當應用於GPT-4時,一個「稍加改進的基於ReflexionGPT-4代理」有88%的時間是正確的,超過了Reflexion之前的67%的成功率。

同樣,這篇論文沒有經過同行評議,所以一定要對研究人員的結果抱有平常心。

也就是說,人工智能程序有很多亂七八糟的東西,隨著它們繼續被嵌入到各行業和平台的工作流程中,當然需要解決它們的缺陷的框架。雖然這項研究或多或少是一項提示工程的練習,而不是從內到外解決幻覺問題,但它可以幫助開發工具,以驗證人工智能語言模型為人詬病的不可靠輸出。

此外,一點自我反省永遠不會傷害任何人,不論人類或機器。

圖片:futurism

T09

 

點擊以下6大平台 接收加拿大新聞及生活資訊
加拿大星島WhatsApp報料熱線:(437)428-9394

下載「星島新聞(加拿大版)」App,隨時看到最新最快新聞:
iPhone:https://apple.co/2IBi812
Android:https://bit.ly/2Pe8anu

訂閱加拿大星島網電郵快訊,每天可收到最快新聞資訊電郵: https://www.singtao.ca/subscribe/singtao.php

>>>訂閱CCUE YouTube 頻道,查看更多吃喝玩樂、生活資訊影片。
share to wechat

延伸閱讀

share to wechat

延伸閱讀

女子於TTC巴士無故遭持棍痛毆 疑犯逃去無蹤

【有聲新聞】星島A1中文電台 晨早新聞專輯

保時捷Porsche公開電動新車路線圖 混能911夏季現身│3款純電動車緊接出場 巨型旗艦級SUV準備

【有聲訪問】莫斯科恐怖襲擊 對世界大局有何影響?

都市網新聞