科學家揭秘:AI 竟能假裝愚笨?
一項新的研究表明,先進的人工智能模型在表現出比實際智能水平更低的能力方面表現出色,這一發現可能隨著它們智能的不斷提高,帶來深遠的影響。該研究發佈於《PLOS One》期刊,由柏林洪堡大學的研究人員進行,他們在對一個大型語言模型(LLM)進行所謂的「心智理論」標準測試時發現,這種人工智能不僅能模仿兒童語言學習階段表現的能力,似乎還能表達出與這些階段相關的心智能力。 心智理論與人工智能的結合 洪堡大學的研究助理兼主要研究作者,也是一位心理語言學專家的Anna Maklová,在接受《PsyPost》訪問時解釋了她的研究領域如何與這一發現相關。「得益於心理語言學,我們對兒童在各個年齡階段的能力有了相對全面的了解,」Marklová表示。「特別是心智理論發揮了重要作用,因為它探索了兒童的內心世界,而這不是通過觀察簡單的統計模式就能輕易模仿的。」 以兒童為中心的心智理論作為背景,研究人員和她在布拉格查理大學的同事們試圖確定像OpenAI的GPT-4這樣的LLM「是否能假裝比實際上更不具能力」。為了找出答案,這個主要由捷克研究團隊指導模型,像一到六歲之間的兒童一樣給出回應。在超過1000次試驗和認知測試中,這些「模擬兒童人格」確實似乎在像那些年齡的兒童一樣進步,最終證明了模型可以假裝比它們實際上更不聰明。 人格建構:人工智能的新範疇 Marklová總結說,「大型語言模型能夠假裝智力低於它們實際擁有的水平。」正如該研究本身警告的,雖然將人工智能擬人化或許是一種「有用的簡稱」來按人類條款理解這些模型,通常是無益的。相反,他們提出了一種新的心智理論,這種理論從模型是「好」或「壞」,「有幫助」或「無幫助」轉變為它們如何「構建人格」,例如他們實驗中的那些孩童般的人格。 最終,正如 Maklová 在網站上所說,這些發現可能有助於人工超智能(ASI)的發展,這是人類水平的人工普通智能(AGI)之後的下一步——並且在我們做到這一點時幫助使其更安全。她告訴《PsyPost》:「在發展 ASI 的過程中,我們必須謹慎,不要要求它們模仿有限的人類智能,此外,這表明我們可能會低估它們的能力很長一段時間,這不是一個安全的情況。」