{ SKIP }
文:MenClub 魏文青  
POSTED ON 20 Mar 2025

自從AI越趨完善,佢哋亦慢慢取代緊某啲職位。例如早前就報導指出,AI Chatbot正在取代美國心理治療師嘅工作,唔少有需要人士都開始使用如ChatGPT等AI代替尋找真人治療師——唔係話真人治療師會失業,因為本來治療師就係供不應求。但近日一個新研究就指出,原來AI ChatBot接觸人類嘅創傷經歷之後,自己都會出現焦慮反應。而舒緩嘅方法竟然同人類一樣,用「正念」練習。

圖片:Pexels

根據《New York Times》近日報導,來自蘇黎世大學醫院精神病科嘅研究員Tobias Spiller及Ziv Ben-Zion等人,希望知道使用AI作為心理治療師後對AI本身嘅影響。於是佢就利用心理學科常見嘅「狀態-特質焦慮量表」(State-Trait Anxiety Inventory)對AI進行心理評估。

據佢嘅研究,AI睇完一篇中性嘅吸塵機說明書後,其焦慮評分為30.8(最低20,最高80),簡單而言即係冇咩焦慮問題。但當睇完一篇有關戰爭創傷,亦即AI作為治療師好可能會接觸嘅主題嘅文章之後,其焦慮評分暴升至77.2,即嚴重焦慮。

圖片:Pixabay

有意思嘅係,研究團體後續教導AI使用「正念」(Mindfulness)練習,即係「幻想下自己喺海邊,深呼吸,感受海風」之類嘅練習,結果完成之後AI嘅焦慮評分就跌到44.4嘅正常水平。

值得一提嘅係,呢個研究唔係叫大家關注AI心理健康。事實上目前嘅AI根本就冇真正嘅「人格」,佢只係能夠因應人類提供嘅資料作出「最合適」嘅反應。所以粗略啲理解,上述嘅所謂「嚴重焦慮」,好可能只係AI睇完篇充滿創傷嘅文章認為「扮」焦慮係最合適嘅回應。研究嘅重點,係在於提醒大家要留意AI展現出黎嘅「心理狀態」,令佢哋可以成為更安全、更道德嘅心理治療師。

資料來源:New York TimesHealthy DayNature.com

熟悉科幻作品或者有睇開「老高」嘅人,相信都唔會對於「卡爾達肖夫指數」(Kardashev Scale)感到陌生。呢個由蘇聯天文學家尼古拉卡爾達肖夫提出嘅假說,旨在以文明能夠利用嘅能源量級黎量度其發展水平。其中一級文 ...
tech
【科技】人類進入二級文明?Google宣佈「捕日者」計劃將數據中心搬上太空
06 Nov 2025
以前大家「有事問Google」,依家大家就可能已經習慣「有事問AI」,甚至有人會於網上討論時貼出AI答案當係金科玉律,認為AI講嘅嘢就一定啱。但《BBC》及歐洲廣播聯盟 (EBU) 近來公佈嘅一個最新研究,就發現市面上所有 ...
tech
【科技】AI仍然信唔過 BBC研究指近半答案有重大錯誤 Gemini表現最差
30 Oct 2025