】 【打 印】 
【 第1頁 第2頁 第3頁 】 
警惕人工智能時代的“智能體風險”
http://www.CRNTT.com   2024-07-17 18:37:29


 
  以GPT為代表的大語言模型(LLM)的出現,標誌著智能體進入批量化生產時代。此前,智能體需靠專業的計算機科學人員歷經多輪研發測試,現在依靠大語言模型就可迅速將特定目標轉化為程序代碼,生成各式各樣的智能體。而兼具文字、圖片、視頻生成和理解能力的多模態大模型,也為智能體的發展創造了有利條件,使它們可以利用計算機視覺“看見”虛擬或現實的三維世界,這對於人工智能非玩家角色和機器人研發都尤為重要。

風險值得警惕

  智能體可以自主決策,又能通過與環境交互施加對物理世界影響,一旦失控將給人類社會帶來極大威脅。哈佛大學齊特雷恩認為,這種不僅能與人交談,還能在現實世界中行動的AI的常規化,是“數字與模擬、比特與原子之間跨越血腦屏障的一步”,應當引起警覺。

  智能體的運行邏輯可能使其在實現特定目標過程中出現有害偏差。齊特雷恩認為,在一些情況下,智能體可能只捕捉到目標的字面意思,沒有理解目標的實質意思,從而在響應某些激勵或優化某些目標時出現異常行為。比如,一個讓機器人“幫助我應付無聊的課”的學生可能無意中生成了一個炸彈威脅電話,因為AI試圖增添一些刺激。AI大語言模型本身具備的“黑箱”和“幻覺”問題也會增加出現異常的頻率。

  智能體還可指揮人在真實世界中的行動。美國加利福尼亞大學伯克利分校、加拿大蒙特利爾大學等機構專家近期在美國《科學》雜誌發表《管理高級人工智能體》一文稱,限制強大智能體對其環境施加的影響是極其困難的。例如,智能體可以說服或付錢給不知情的人類參與者,讓他們代表自己執行重要行動。齊特雷恩也認為,一個智能體可能會通過在社交網站上發布有償招募令來引誘一個人參與現實中的敲詐案,這種操作還可在數百或數千個城鎮中同時實施。

  由於目前並無有效的智能體退出機制,一些智能體被創造出後可能無法被關閉。這些無法被停用的智能體,最終可能會在一個與最初啟動它們時完全不同的環境中運行,徹底背離其最初用途。智能體也可能會以不可預見的方式相互作用,造成意外事故。
 


 【 第1頁 第2頁 第3頁 】 


掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: