中評社北京10月21日電/眼下,不少地區布局人工智能領域,推動新一代人工智能健康發展。人工智能正廣泛應用於金融、醫療、交通、製造業等領域,成為推動經濟社會發展的重要引擎。不過,正如“硬幣的兩面”,人工智能在帶來高效便利的同時,也可能引發隱患和危機。對此,要增強風險防範意識,以富有前瞻性的有力舉措,管控好人工智能技術可能帶來的各類風險。
從目前情況看,人工智能可能引發的風險主要包括如下幾方面。從技術角度看,人工智能本身的技術邏輯及其應用過程存在模糊性,可能引發數據、算法和模型風險。如果數據的數量或質量出現問題,可能無法反映現實世界的真實情況;算法“黑箱”和不可解釋性問題,在容錯率低的行業,甚至可能造成不可挽回的安全隱患;另外,模型完整性攻擊,又稱“對抗攻擊”,即干擾模型的學習和預測過程,可能誤導人工智能“指鹿為馬”。
從法律倫理道德層面看,人工智能的廣泛應用可能衍生技術濫用、數據安全、隱私保護等方面的安全挑戰,給公民的信息安全、財產安全甚至生命安全造成威脅。例如,惡意運用人工智能偽造虛假人臉,危害個人金融安全;在采集、使用和分析海量數據的過程中,發生隱私洩露、數據篡改、真假難辨等隱患;智能推送算法還引發了“信息繭房”、極化現象以及大數據“殺熟”現象;人工智能運用到無人駕駛、醫療診斷等領域,可能引發權責邊界模糊問題;人工智能文本數據挖掘可能產生的知識產權爭議問題等,都是引發法律和倫理道德風險的典型案例。
人工智能所帶來的風險並非單一的、直線的,而是多種風險交織交融的。這就要求我們系統全面地認識人工智能,提早開展人工智能風險治理。
一方面,要推動技術進步。針對人工智能的模型、算法、數據、隱私和應用等風險和安全威脅,加強安全保護基礎理論研究和前沿安全技術研究,推動關鍵技術應用,構建人工智能安全治理技術體系,是有效管控人工智能風險的關鍵。這是一個需要各個層面通力合作、集智攻關的長期工作。在社會層面,網絡安全龍頭企業可以牽頭組建創新聯合體,在開展理論研究和技術攻關的同時,加強數字安全人才培養,規範技術標準、測試標準和應用規範,增進數字安全的國內外交流合作,以技術創新引領人工智能安全治理。
另一方面,還要不斷加強管理。不久前,我國《生成式人工智能服務管理暫行辦法》頒布施行,國家層面的人工智能法草案在提速,各種專門立法也在積極探索。我國正以高度負責任的態度參與全球人工智能治理,在貢獻中國智慧的同時搶占全球人工智能治理話語權。在實踐中,對發展中的問題應及時回應,充分發揮處於實踐前沿的企業、行業組織的作用。主管單位要與企業、行業組織、科研機構以及公眾建立廣泛的合作和溝通機制,以有效引導企業和行業組織進行自我監管,發揮科研機構協助監督和識別潛在風險的作用,幫助公眾提升人工智能風險防範意識。
來源:經濟日報 作者:申崢崢 金學慧
|