管控人工智能等新興技術帶來的風險
近年來,以深度學習為代表的新一代人工智能技術取得突破性進展,機器也可以有“思維”逐步成為現實。本屆北京香山論壇高端訪談、分組會議設置專場,討論人工智能安全、新興技術如何向善等議題。與會專家圍繞人工智能能否自主決策、是否可信,如何管控人工智能等新興技術可能帶來的風險等進行了深入討論。
人工智能可信嗎?對此,東京大學生產技術研究所特聘教授胡昂表示,人腦不可替代,“至少在短時間內人工智能難以取代人腦做決策”。
“人類技術人員都會犯錯,何況機器?”在聯合國教科文組織人工智能與數據科學促進社會發展教席、荷蘭海牙應用科技大學數據科學教授蘭普羅斯·斯特吉烏拉斯看來,人工智能是否能取代人腦自主決策,這是一個哲學問題,也是一個現實問題。他認為,當前對人工智能的監管面臨很大挑戰,相關監管要加速,要更加敏捷。
清華大學信息科學技術學院院長戴瓊海認為,未來幾年,人工智能發展將進入快車道。由於人工智能發展的不可預測性,相關倫理規範、技術治理要走在前面,降低人工智能應用的安全風險,使其為人類謀福祉。
為解決人工智能技術發展帶來的技術倫理、技術鴻溝等問題,中國積極發揮作用,加強人工智能領域治理的國際合作。去年10月,中國提出《全球人工智能治理倡議》,就全球人工智能發展與治理提出中國方案。今年7月1日,第78屆聯合國大會協商一致通過中國主提的加強人工智能能力建設國際合作決議,140多個國家參與決議聯署。這充分彰顯出中國對人工智能發展和治理的負責任態度和重要引領作用。
同濟大學中國戰略研究院副院長夏立平表示,中國政府高度重視人工智能技術治理。各國應在人工智能治理中加強信息交流和技術合作,共同做好風險防範,形成具有廣泛共識的人工智能治理框架和標準規範,不斷提升人工智能技術的安全性、可靠性、可控性、公平性,更好解決人工智能發展中遇到的挑戰。
在人道主義對話中心人工智能與新興技術高級顧問尼爾·戴維森看來,面對人工智能等新興技術可能帶來的風險,各方應展開對話,共同探討解決方案。 |