中評社北京12月27日電/近日,江蘇省科技廳相關負責人在回應媒體關注時表示,將組織開展科技人員公開發表論文的自查和主動抽查,並開展科技倫理審查,採取措施防範ChatGPT引發的學術不端行為,引導科技人員提高誠信意識。
人工智能作為一種戰略性新興技術,已經融入人們的生產生活,正在重構生產、分配、交換、消費等經濟活動各環節,極大提高了工作效率,降低生產、管理等成本,並不斷催生新技術、新產品、新產業,為經濟社會發展不斷注入新動能。近段時間以來,生成式人工智能的爆發式應用,也引發了人們對其安全性、可靠性的廣泛關注。
面對生成式人工智能為人類經濟社會發展帶來的無限可能,我們應該積極擁抱這一新機遇。而對其帶來的新問題,也要加以重視、積極應對,從技術、倫理、法律等多方面設置“安全閥門”,防範生成式人工智能帶來的風險,共同推動生成式人工智能健康發展。
防範生成式人工智能風險,源頭在於進一步完善相關法律法規的界定。在法律上劃出生成式人工智能發展不可逾越的紅線,並列明具體的負面清單。同時,加快立法進程,針對數據、內容安全、知識產權等生成式人工智能發展的關鍵問題,進行分類管理、分類立法,通過政策立法對生成式人工智能的設計、演進進行有效引導、統籌管理。
防範生成式人工智能風險,核心在於確定底線,提升外部監督監管力度。要加快制定相應的技術使用規則和應急處理措施,強化對應用生成式人工智能的企業、平台的監管和約束,建立完整的安全評估規範和管理流程規範,定期檢查評估,及時發現和處理違規行為,保障數據安全及隱私安全,防止技術濫用造成損失,確保其符合法律法規和社會公德。
防範生成式人工智能風險,重點在於強化引導企業、平台和個人加強自我約束。企業應增強底線意識,在技術開發環節,遵循人工智能開發原則,遵循基本的社會價值規範和公共道德,承擔相應的社會責任,不觸犯相關法律法規;軟件平台要嚴格檢驗應用權限,確保用戶使用的安全性;個人用戶要加強自我約束意識和行動,提升技術使用素養,培養正確認識、合理使用技術的能力。
來源:經濟日報 作者:蔣波
|