- SITE MAP
- |
- CONTACT US
- |
- ADVERTISING
- |
- PRIVACY
- |
- MOBILE
- |
- RSS
|
雖然話ChatGPT、Gemini等AI(準確黎講係大型語言模型LLM)功能越黎越勁,甚至慢慢取代傳統搜尋引擎成為大家收集資詢嘅首選辦法。但其實到目前為止,各大AI都未解決到所謂「AI幻覺」(hallucination)問題,換言之AI提供嘅資訊仍然可能有錯漏。近日《PC World》就整理出四種AI出現幻覺嘅Red Flag表現,以及各位人類用家可以點樣將影響減到最低。 |
|
![]() 圖片:ImageFX |
|
|
所謂嘅「AI幻覺」並非AI嘅程式本身有問題,而源自係AI模型本身嘅設計又或用黎訓練佢嘅資料有錯漏導致。所以從AI自己嘅角度而言,佢係向你提供緊「正確」嘅資料,於是就會出現「一本正經亂講一通」嘅情況。而據《PC World》整理,用家可以透過以下四個Red Flag判斷AI是否出現幻覺。 第一係「錯誤事實」,亦即AI提供與事實不符嘅資訊,例如事情發生嘅年份錯誤等,通常係源自AI本身就無足夠嘅相關資訊去回答。第二係「答非所問」,例如你問佢A,但佢就答你B,源自AI無法理解對話嘅語景。第三係「邏輯錯誤」,最常見於數學類問題之中,例如佢答你「1+1 = 3」咁。第四就係「模組之間嘅錯配」,最常見於圖片生成AI,亦即你叫生成一張「紅色嘅車」但佢畀張「藍色嘅車」你。 |
|
![]() 圖片:ImageFX |
|
|
咁可以點樣避免因為AI幻覺帶來嘅問題呢?《PC World》就提出四個方法。第一就係重要資詢要自己用搜尋引擎或其他可信任嘅來源Fact-Check。其次,可以就AI回答中有可疑嘅部份向AI追問,如果AI答唔出、認錯,又或提供不一樣嘅資訊,就好可能係被AI幻覺所影響。第三就係要求AI提供資料來源,例如外部網站連結等,當然你都要撳入去睇下係咪真有其事。最後一個方法就係用多個AI作交叉比對,即係同一個問題又問ChatGPT又問Gemini,如果兩者有所差異就證明是但一個有問題。 講到尾,目前嘅AI雖然強大,但仍然未係完美。作為用家嘅我哋依舊要保留些少警覺性及主動性,唔好AI講咩你就信呀。 |
|
|
資料來源:PC World |
|