隨住AI發展得越黎越成熟,唔少人都期望「通用型AI」(AGI),即係能夠執人類所有工作嘅萬能AI已經咫尺。不過據Apple於WWDC前就發佈咗一個新研究,指出目前市面上嘅AI遇上複雜問題時,反而會放棄思考,準確率跌到接近零,甚至質疑依家嘅AI都只係「扮諗嘢」,而非有真正嘅推理能力。 |
|
![]() 圖片:ImageFX |
|
Apple於上星期嘅WWDC之前發佈咗一篇名為《思考的幻覺》嘅學術論文,測試目前市面上嘅「大型語言模型(LLM)」以及「大型推理模型(LRM)」AI嘅解難能力。具體而言就即係叫AI試圖解決唔同難度嘅「河內塔」、「家族過河」等經典推理問題,分析能否得出正確答案、個思考過程又係點。 研究發現,如果問題本身非常簡單,咁LLM會比LRM更快得出答案;如果問題係中等難度,LRM依然能夠得出正確答案,但過程中可能會花費大量時間及資源去修正思考方向,顯示其解題效率唔太理想。而如果問題變得更高難度、更複雜的話,不論係LLM定LRM嘅準確性都會大幅下降。而當準確率跌到臨界點時,AI更會突然放棄思考,求其答啲嘢出黎,亦即係同人類「拚䠋」嘅行為非常相似。 |
|
![]() 圖片:ImageFX |
|
雖然Apple研究用嘅謎題唔一定能代表所有日常任務,亦未有經過學術界嘅審查,但有唔少學者仍然認為其結果有重大含義。美國心理學家兼AI專家Gary Marcus認為,報告反映現時大家對AI嘅能力過於樂觀,並指出「任何認為LLM就是實現通用型AI捷徑的人,都是在自欺欺人」;英國Surrey大學人工智慧研究所嘅Andrew Rogoyski則認為研究顯示目前嘅AI技術已經到達極限。 另一方面,Apple於WWDC——一個佢自己都會講AI發展嘅活動——前發佈呢個研究,似乎亦表示佢想將自己定位成「AI批判者」或「標準設定者」嘅角色,一方面降低大家對於AI嘅期望(從而令落後嘅Apple睇落冇咁差),同時試圖掌握未來AI發展嘅更多話語權。 |
|
資料來源:Technews、Guardian、Futurism、The Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Modelsvia the Lens of Problem Complexity |
|