據(jù)最新一期《科學(xué)》雜志刊發(fā)的論文,研究人員發(fā)現(xiàn),人工智能語(yǔ)言模型GPT-4在回答特定類型的問(wèn)題時(shí),可能會(huì)比之前人們認(rèn)為的更可信。但同時(shí),研究人員也發(fā)現(xiàn),GPT-4在回答特定類型的問(wèn)題時(shí)也更易受到“欺騙”。
該論文的主要作者、澳大利亞弗林德斯大學(xué)的認(rèn)知科學(xué)家尼科爾·多德曼解釋道:“雖然GPT-4在許多方面都比之前的模型更優(yōu)秀,但我們也發(fā)現(xiàn)了一種新的‘欺騙’方法,即通過(guò)‘插入’不相關(guān)的單詞來(lái)‘愚弄’模型!
多德曼指出,雖然他們只在10%的問(wèn)題中觀察到這種行為,但這一發(fā)現(xiàn)仍然引發(fā)了人們對(duì)AI系統(tǒng)安全性的擔(dān)憂。如果不能對(duì)AI系統(tǒng)的缺陷有足夠的了解,人類就可能在未來(lái)盲目地依賴這些系統(tǒng),從而引發(fā)各種問(wèn)題。
這項(xiàng)研究于2022年8月進(jìn)行,涵蓋了AI領(lǐng)域的許多問(wèn)題,從自然語(yǔ)言處理到計(jì)算機(jī)科學(xué)等。在研究中,研究人員要求AI系統(tǒng)對(duì)每個(gè)問(wèn)題回答“是”或“否”,然后由人類評(píng)估答案的可信度。
多德曼表示,他們正在開(kāi)發(fā)新的工具和技術(shù),以幫助人類更好地理解和信任AI的答案。同時(shí),他們也呼吁其他研究人員共同努力,以更好地理解和解決AI系統(tǒng)的潛在缺陷。
總之,雖然GPT-4在某些方面表現(xiàn)出色,但它仍然存在一些局限性。在未來(lái)的研究和應(yīng)用中,我們需要更加深入地了解和掌握GPT-4的特點(diǎn)和缺陷,以確保其安全、可靠、有效地為人類服務(wù)。 |