{ SKIP }

POSTED ON 17 Jun 2025

隨住AI發展得越黎越成熟,唔少人都期望「通用型AI」(AGI),即係能夠執人類所有工作嘅萬能AI已經咫尺。不過據Apple於WWDC前就發佈咗一個新研究,指出目前市面上嘅AI遇上複雜問題時,反而會放棄思考,準確率跌到接近零,甚至質疑依家嘅AI都只係「扮諗嘢」,而非有真正嘅推理能力。

圖片:ImageFX

Apple於上星期嘅WWDC之前發佈咗一篇名為《思考的幻覺》嘅學術論文,測試目前市面上嘅「大型語言模型(LLM)」以及「大型推理模型(LRM)」AI嘅解難能力。具體而言就即係叫AI試圖解決唔同難度嘅「河內塔」、「家族過河」等經典推理問題,分析能否得出正確答案、個思考過程又係點。

研究發現,如果問題本身非常簡單,咁LLM會比LRM更快得出答案;如果問題係中等難度,LRM依然能夠得出正確答案,但過程中可能會花費大量時間及資源去修正思考方向,顯示其解題效率唔太理想。而如果問題變得更高難度、更複雜的話,不論係LLM定LRM嘅準確性都會大幅下降。而當準確率跌到臨界點時,AI更會突然放棄思考,求其答啲嘢出黎,亦即係同人類「拚䠋」嘅行為非常相似。

圖片:ImageFX

雖然Apple研究用嘅謎題唔一定能代表所有日常任務,亦未有經過學術界嘅審查,但有唔少學者仍然認為其結果有重大含義。美國心理學家兼AI專家Gary Marcus認為,報告反映現時大家對AI嘅能力過於樂觀,並指出「任何認為LLM就是實現通用型AI捷徑的人,都是在自欺欺人」;英國Surrey大學人工智慧研究所嘅Andrew Rogoyski則認為研究顯示目前嘅AI技術已經到達極限。

另一方面,Apple於WWDC——一個佢自己都會講AI發展嘅活動——前發佈呢個研究,似乎亦表示佢想將自己定位成「AI批判者」或「標準設定者」嘅角色,一方面降低大家對於AI嘅期望(從而令落後嘅Apple睇落冇咁差),同時試圖掌握未來AI發展嘅更多話語權。

資料來源:TechnewsGuardianFuturismThe Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Modelsvia the Lens of Problem Complexity

近期我哋提到AI嘅新聞都無咩好嘢,唔係話佢助長青少年不當行為,就係話佢嚴重影響網站流量。不過其實AI對人類黎講依然係有好處嘅,例如大家記唔記得生成式AI開始出現時,好多人拎黎整AI美女寫真?經過一段時間發展後 ...
tech
【AI】日本神人整AI美女寫真 極度像真幾乎毫無破綻
30 Sep 2025
Apple於AI發展遠遠落後於Google、Samsung等已經唔係咩新聞,尤其係備受期待、結合AI功能嘅新版Siri,更要去到明年初先有望見街。不過據Mark Gurman報導,新版Siri終於有重大進展。據報Apple內部開發咗個叫「Veritas ...
tech
【科技】新版Siri終於有進展? Apple開發內部Chatbot「Veritas」測試新版Siri
30 Sep 2025