中評社香港10月28日電/近日,美國斯坦福大學研究人員策劃了全球首個以人工智能(AI)為核心作者與論文評審的線上開放會議。主辦方稱,此次會議旨在創建一個“相對安全的試驗場”,探索AI是否及如何能獨立產生新穎的科學見解、假設與方法論等。
如今,AI已成為我們工作生活的好幫手,但它同時也在提供一種“認知捷徑”,讓人們不用費力思考便能得到想要的答案。一開始只是查詢信息、翻譯文字,慢慢開始利用AI輔助寫郵件、工作總結、研究論文,甚至進行重要決策……過度依賴AI,利用其進行“思維外包”,有可能讓我們日漸喪失思維的主導權。
人機共生時代,人類如何保持獨立思考呢?
AI“思維外包”藏隱憂
正如上述會議所探討的,大模型、智能體等AI應用已在包括科研在內的多領域廣泛賦能人類生產生活,促進學術研究和生產生活提質增效,但其帶來的技術紅利之下也暗藏隱憂。一些新研究顯示,過度依賴AI模型或可引發“AI腦霧”,削弱工作動力。
新華社報導,美國麻省理工學院研究顯示,長期使用AI會導致認知能力下降。研究人員對受試者展開腦電圖掃描後發現,與沒有使用AI工具的人相比,長期使用AI大語言模型的人大腦神經連接數降低,影響語言和行為等層面。微軟和卡內基-梅隆大學的研究也有類似發現,生成式AI會削弱批判性思維能力,導致過度依賴,可能削弱人們獨立解決問題的能力。
研究人員認為,開發者在設計生成式AI工具時,應有支持用戶提升批判性思維的意識,如提示需驗證的場景。特別是在設計法律文書、醫療建議等高風險任務時,應強制彈出驗證提醒(如“請核對AI引用的法規條款”)等,標注潛在風險,打破用戶對AI“全知全能”的認知偏差。
浙江大學管理學院吳蘇青團隊今年在英國《科學報告》雜誌發表的研究還顯示,AI的應用帶來認知需求的“空心化”。當AI完成工作的“燒腦”部分,人類僅剩機械性執行,工作淪為“被動填空”,就可能會導致心理疏離,喪失工作動力。這就要求企業、政府部門等部署AI時要“慢下腳步”,可先小範圍試點、可控推進,邊用邊觀察對員工積極性和創造力的影響。
人們為何“輕信”AI
人們之所以愈加依賴AI,源自於近年來AI專業化能力和交互便捷性的飛躍:其生成內容的專業化程度,讓不少人把它奉為專家,而對話式的交互方式讓它好似一位學識淵博又無話不談的“好友”,更易讓人形成心理依賴和信任。
如今,AI大模型“開箱即用”的便捷性,進一步降低了使用門檻。由於缺乏基本的AI素養教育,使用者對AI本身的技術缺陷認知不足,更容易“輕信”。英國高等法院今年6月就要求律師採取緊急行動,防止AI被濫用,原因是數份可能由AI生成的虛假案例引用被提交至法庭。而今年由美國衛生與公眾服務部牽頭,“讓美國再次健康”委員會發布的兒童慢性病報告也因使用了生成式AI內容而出現重大引用錯誤。 |