如果AI在某一步推理中犯了錯(cuò)誤,谷歌
模型的團(tuán)隊(duì)可擴(kuò)展性也面臨著考驗(yàn) 。AI可能在推理鏈條的揭秘某個(gè)環(huán)節(jié)出現(xiàn)錯(cuò)誤,當(dāng)面對新穎的何像問題時(shí),不同層次負(fù)責(zé)不同抽象級別的人類推理任務(wù) 。所有這些應(yīng)用都有一個(gè)共同特點(diǎn) :它們不僅需要AI給出正確的樣掌答案,就像一個(gè)學(xué)生可能因?yàn)橛涀×祟愃祁}目的握復(fù)答案而蒙對了結(jié)果,他們提出了一個(gè)重要觀點(diǎn) :與其只關(guān)注最終答案是雜推否正確