文章最後談到人工智能的安全風險,以及大國合作控制這種風險的重要性。文章承認,在最壞的情況下,人工智能戰爭甚至可能危及人類。使用OpenAI、Meta和 Anthropic的AI模型進行的戰爭遊戲發現,與人類進行的遊戲相比,AI模型往往會突然升級為動態戰爭,包括核戰爭。如果真正使用這些人工智能系統,不需太多想象力就可以看出事情會如何變得嚴重錯誤。
作者表示,值得慶幸的是,中國和美國似乎認識到他們必須在人工智能方面進行合作。舊金山峰會兩國領導人承諾共同討論人工智能風險和安全問題,第一輪會談於5月在日內瓦舉行。這次對話是必要的。即使兩個超級大國之間的合作從小規模開始,也可以為更大的事情奠定基礎。北京有動力與華盛頓合作控制新武器。美國和中國有著不同的全球願景,但兩國都不希望恐怖分子擁有危險的機器人,他們可能還想阻止其他國家獲取此類技術。擁有強大軍事技術的大國幾乎總是有重叠的利益來保留這些技術。
米利和施密特指出,美國應該確保自己的軍事人工智能受到嚴格控制;應該確保人工智能系統能夠區分軍事目標和民用目標;必須讓人工智能處於人類的指揮之下;應該不斷測試和評估系統,以確認人工智能在現實條件下按預期運行。他們稱,美國應該向其他國家(無論是盟友還是對手)施壓,要求他們採取類似的程序。如果其他國家拒絕,華盛頓及其合作夥伴應該利用經濟限制來限制他們獲得軍事人工智能。
|