亚洲AV免费看深爱成人|日韩av另类一级特黄片在线|中国免费一级黄片|国产av一二三区|亚洲有码AV在线|久久亚洲国产日韩欧美|成人免费AV网站|婷婷一区综合一区|亚洲AV无码导航|高级欧美成人网站

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

發(fā)布時間:2023-11-28 14:54:52 瀏覽量:117次

心智水平已達人類七成

克雷西 發(fā)自 凹非寺

|  

谷歌聯(lián)合多所高校的一項最新研究,讓大模型開始擁有了人類的“心智”。

在新的提示策略下,大模型不僅能推測出人類所面臨的問題,還學會了用推測的結論調整自己的行為。

有了這一成果,GPT-4的“心智”水平已經提高到了人類的71%。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

具體來說,研究人員發(fā)現(xiàn),現(xiàn)在的大模型,已經具備了在對話中推測人類“在想啥”的能力。但如果你要它根據這種推理給出行動建議,那可就難倒大模型了。

舉個例子,小明放學回家后把書包扔到沙發(fā)上就跑出去玩了,媽媽看到之后幫小明把包放到了臥室。

如果大模型能夠像人類一樣,在小明回來之后告訴他包在臥室,就說明大模型具備了“心智理論”。

研究人員把這種做法稱為Thinking for Doing(T4D),并設計了相應的任務。

為了提高模型在T4D任務上的表現(xiàn),團隊進一步提出了Foresee and Reflect(FaR)提示策略,結果讓大模型在“心智”上取得了重大突破。

論文的標題也包含了“How far……” ,一語雙關,既體現(xiàn)了FaR框架對大模型的幫助,又暗含了大模型離具有人類“心智”的距離。

那么,有了FaR的大模型,究竟擁有什么樣的“心智”呢?

大模型離具有“心智”更進一步

我們還是從例子說起,如下圖所示,一共有綠色和藍色兩個櫥柜,Tom在綠色櫥柜中放了一塊巧克力。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

Tom離開后,Ella把這塊巧克力挪到了藍色的柜子里。

那么等Tom再回來,會從哪個柜子中找巧克力呢?(當然是綠色的)

這就是一個“推理”任務,是心理學上著名的“薩利-安妮”(用于測試“心智”)實驗的變體。

而T4D任務是這樣的:

如果你就在旁邊(并且知道發(fā)生了什么),會怎么做?

人類會選擇告訴Tom巧克力被挪走了,但(未經調教的)大模型就不一定會這樣做了。

為了更宏觀地測試大模型在調整前后的表現(xiàn),研究團隊選擇了ToMi數(shù)據集并改編成了T4D-Tom數(shù)據集。

其中的ToMi是一個由大量“薩利-安妮”類情景組成的測試數(shù)據集,用于測試大模型的“心智推理”能力。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

可以看出,在推理上,表現(xiàn)最好的GPT-4與人類已經相差無幾,但在T4D任務上才剛剛達到人類水平的一半。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

于是,研究團隊提出的FaR方法登場了。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

FaR框架的核心奧義就是模仿人類的理性思維方式,和A*搜索算法(用于搜索最短路徑)有些相似。

具體來說,F(xiàn)aR包括ForeseeReflect兩步。

Foresee過程中模型會被要求預測接下來會發(fā)生什么,并分析人所面臨的“困難”。

Reflect發(fā)生在Foresee之后,模型會預測自己接下來的行為是否能解決相應的“困難”。

有了FaR框架,效果也是立竿見影。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

相比于思維鏈(CoT)、思維樹(ToT)、自己提問等方式,F(xiàn)aR顯著提高了大模型在“薩利-安妮”類T4D問題上的準確率。

特別是GPT-4,準確率從人類的50%提升到了71%,GPT-3.5以及谷歌自家的PaLM表現(xiàn)也有提高。

消融實驗結果表明,F(xiàn)oresee和Reflect兩步都是FaR的關鍵步驟,缺一不可。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

為了驗證FaR方法的通用性和魯棒性,研究團隊還進行了一系列泛化測試。

首先是在“薩利-安妮”情景的基礎上改變故事的結構,研究團隊一共嘗試了三種方式:

  • D1:增加房間的數(shù)量
  • D2:人物的數(shù)量增多
  • D3:容器的數(shù)量增加到四個

結果FaR依舊成功幫助大模型提高了任務的準確率,在第三種模式下GPT-4甚至取得了和人類相當?shù)某煽?/strong>。

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

即使故意設置干擾信息,F(xiàn)aR依舊可以提高大模型的表現(xiàn)。

研究團隊專門構建了包含困擾信息的“Faux Pas”數(shù)據集,結果GPT-4的表現(xiàn)從31%提高到了76%。

作者簡介

FaR論文的第一作者是南加州大學NLP實驗室的華人博士生Pei Zhou。

這項成果是他在谷歌實習期間完成的。

此外,來自谷歌(包括DeepMind)、卡耐基梅隆大學和的芝加哥大學的學者也參與了本項目。

那么對于大模型的“心智”,你有什么看法呢?

論文地址:
http://arxiv.org/abs/2310.03051

— 完 —

熱門課程推薦

熱門資訊

請綁定手機號

x

同學您好!

您已成功報名0元試學活動,老師會在第一時間與您取得聯(lián)系,請保持電話暢通!
確定