首页 >> 圖片頻道

阮可韵:AI科技新革命狂歡背後“幸福”思考

2025-11-03 15:33:26
阮可韵:傳播AI時代的幸福理念。
阮可韵:研究AI革命的“幸福學”。
  中評社香港11月3日電(作者 紀碩鳴)2025年10月29日,這一天必將被載入科技與金融史。芯片巨頭英偉達(Nvidia)股價突破5萬美元大關,總市值一度超過全球部分中型經濟體的GDP,意味著人工智能(AI)時代的全面到來。市場將這一刻視為“科技革命的分水嶺”,正如兩百多年前的蒸汽機點燃了工業革命,AI正以驚人的速度重塑人類社會的結構、金融市場的邏輯與個體生活的秩序。

  如同1769年瓦特改良蒸氣機,揭開工業革命的序幕;如同1947年貝爾實驗室發明晶體管,開啟電子時代;如同1990年代互聯網普及,讓信息時代奔流而至。如今,AI時代的“蒸氣機”,已然點火。蒸氣機讓人類第一次駕馭了能量;AI芯片則讓人類第一次駕馭了智能。

  美國總統關注AI下人類福祉

  面對這股AI狂熱及金融盛宴,今年的1月23日,美國總統特朗普在人工智能(AI)行政命令中,將“human flourishing(人類茁壯/人類繁榮)”與“經濟競爭力”“國家安全”並列為AI發展的首要目標之一,為全球科技治理釋出明確信號:AI的方向盤,必須對准人的整體福祉。

  AI風險管控專家阮可韵博士在倫敦接受訪問時也提出警示:這在美國政策史上相當罕見。過去美國AI政策強調的往往是技術競爭和國防安全,而這份文件首次將“人類福祉”置於首位,這其實是對社會焦慮的一種回應:人類不能只當技術的用戶或受害者,而應該是技術發展的主人。

  阮可韵博士認為,科技革命若無倫理與風險防控的框架,可能會成為人類文明的災難性危機。她呼籲:AI革命需要“幸福學”的平衡,她正致力於讓AI“回歸人性”的研究。

  阮可韵博士(Dr. Keyun Ruan)是一位享譽國際的計算機科學家與經濟學家,她服務GOOGLE倫敦,以在雲端鑒識(Cloud Forensics)與風險經濟學(RiskEconomics)等領域的開創性工作而知名。從計算機科學出發,她深諳數字化對經濟活動的重塑;轉入經濟學後,她將風險視角帶入科技治理,提出“科技若不創造幸福,即是社會風險”的判准。她的專著《數位資產估價與網路風險衡量:網路經濟學原理》;《網路犯罪與雲端取證:調查過程中的應用》在業內頗受歡迎。

  五年前,她在英國創立“幸福基金會”(Happiness Foundation),嘗試搭起科技、幸福學與經濟學之間的橋梁,將人類福祉置於人工智能時代的決策中樞。

  阮可韵關注到,AI的狂潮開啟了算力競賽到人類命運的抉擇。英偉達掌握的高性能GPU,是AI運算的基石;而資本市場的瘋狂追捧,體現出投資者對這場“智能革命”的集體信仰。自ChatGPT問世後,生成式AI迅速滲透各行各業,從醫療診斷、金融投資到藝術創作,AI正在重塑“生產力”與“創造力”。

  但是,阮可韵認為,不能只是看到“AI如何強大”,而看不到“AI如何反噬人類”。這正是任何科技革命中最深刻、也最容易被忽略的部分。

  正如每一次技術革命一樣,當光芒照亮未來,也在背後投下陰影。數據濫用、算法偏見、AI倫理、勞動市場被取代等問題,正成為全球科技政策的新焦點。

  “我們發現,AI不僅改變工作方式,更在重塑人的情感結構與幸福感。”阮可韵博士在接受採訪時表示,“當機器開始理解人類,甚至取代人類時,我們應該問自己:我們還幸福嗎?”

  這位出身於計算機科學領域的博士,近年活躍於國際論壇與倫理研究領域。達沃斯連續數年將“AI與幸福”納入討論,關注技術進步下人類福祉的衡量與治理;梵蒂岡則從倫理視角出發,促成科技界與人文社群的橫向對話。阮可韵博士近年多次受邀於這兩個平台發表演講,分享“幸福科技經濟學”的研究與實踐,並與來自牛津、哈佛等機構的學者持續交流。她指出,這些跨場域的碰撞,有助於把分散的研究與倡議收斂為一套可被企業采納、被監管理解、被投資使用、也能被公眾感知的共同語言。

  受聘哈佛推動AI風險防治

  2025年5月,哈佛大學邀請阮可韵博士擔任其AI風險防治研究項目總監,負責領導跨學科團隊,研究人工智能對社會結構、心理健康及倫理治理的長期影響。這個項目,哈佛團隊已經有長達十年之久的研究。

  “我們希望不僅停留在理論層面,而是真正讓研究成果進入政策和企業決策流程。”阮可韵博士強調。

  研究的結果將以產品形式呈現。在她看來,AI風險防治將成為下一個萬億級市場——從數據安全、算法審核、心理輔導到AI倫理顧問服務,都將形成新型產業鏈。

  她指出:“如今全世界都在投資AI的生產力,但很少人投資AI的‘防護力’。未來十年,誰能讓人工智能更安全、更可控,誰才是真正的贏家。”

  阮可韵博士認為,這不僅是科技治理的問題,更是文化選擇的問題。“人類社會需要一次新的覺醒。”她說,“如果蒸汽機解放了人類的肌肉,計算機解放了人類的腦力,那麼AI革命將挑戰人類的靈魂。我們必須確保,AI的未來是為人服務,而不是讓人服從。”

  AI給人類發展帶來六大負能

  各類研究表明,如同工業革命帶來機器束縛人類、環境污染等各種問題一樣,以AI為標誌的科技革命,同樣給人類自身發展帶來負能。大概包括六大問題:

  1,勞動的“異化”與“無用階層”問題。AI並非僅奪走“體力勞動”,而是開始取代腦力工作——客服、設計師、程序員、記者、律師助理、教師、甚至藝術創作者。麥肯錫預測,2030年前全球約有3億人的工作可能被AI重構或淘汰。必將造成社會分化、心理失衡、以及政治後果。

  2,人際疏離與情感“數字替代”。AI取代的不只是工作,還取代陪伴。智能手機、虛擬助手、聊天機器人逐漸讓人與人之間的交流變得次要。日本已有“AI女友”“虛擬伴侶”應用,甚至有人舉行與AI結婚的“儀式”。美國心理學界報告指出,青少年因沉迷於社交媒體和智能互動,孤獨感與焦慮症比例急升。人類社會正由“社會性動物”逐步變成“個體化的用戶網絡”。

  3,心理健康與數字依附症人被手機與算法“綁架”。AI透過推送、推薦、情緒演算,不斷塑造人的行為與思想。美國研究顯示,智能手機用戶平均每天觸摸手機超過2600次,且青少年抑鬱率與屏幕時間呈正比。中國與韓國已出現多起青少年因沉迷AI聊天或虛擬角色而自殺的事件。“數字成癮症”成為21世紀的全民心理病;AI不再是工具,而是精神麻醉劑。

  4,真實感與認知崩壞。AI生成的文字、圖片、聲音、影片幾乎無法與真實區分。真實與虛構的界線被摧毀。AI生成的“假記者”“假科學報告”影響輿論與學術;生成式AI藝術作品奪獎,引發創作者身份混亂。“真假不分”的時代來臨,人類認知基礎動搖。

  5,倫理與道德空洞化。AI沒有倫理,只學習模式與結果。當決策交給AI,價值判斷可能被數據取代。例如:你將面對自動駕駛在“撞人與自保”間如何決策?醫療AI在生死取舍中如何定義“最優”?司法AI根據統計概率判罪,可能放大偏見。結果是人類道德被算法統計稀釋;“效率至上”成為新信仰;人類逐步放棄判斷權與責任。

  6,自我消解與文明自吞的風險。當AI具備生成知識、創造內容、決定策略的能力時,人類可能逐漸失去“主體性”。企業決策交由AI運算模型,管理者僅作簽署;學生用AI寫作、思考,失去獨立思辨力;軍事AI若出錯,可能導致人類無法預測的戰爭或災難。最極端的情況:人類創造出比自己更強卻不可控的智能體(如AI軍事、自動決策系統),造成自我滅頂。

  阮可韵博士回望工業革命初期,人類在享受生產力躍升的同時,也在長時段內承受了環境污染的累積代價,直至治理體系成熟、標準完善才逐步收斂。她指出,AI時代的污染更多發生在心理與社會層面,具有隱匿性、遞進性與群體性三大特徵:它不易被察覺,會在反復使用中逐步加深,並在群體行為中彼此放大。“一旦滾雪球到臨界點,治理成本將呈指數級上升”。

  資本的熱潮與人類的冷思考

  英偉達股價創下歷史紀錄後,全球投資者紛紛湧入AI相關產業,AI芯片、雲端服務、機器人與自動駕駛領域的投資規模創下新高。

  但同時,一些倫理學者與風險投資家開始提醒市場——AI發展的外部成本正被嚴重低估。人工智能發展帶來的AI負能,人類需要防範風險及治理需要面對的另一個龐大的市場。

  阮可韵博士語帶堅定的說,AI並非洪水猛獸,但我們不能讓它成為新的上帝。”

  從特朗普把“human flourishing”寫進AI政策開始,“把幸福寫進算法”正逐步走出學術象牙塔,成為公共治理與產業升級的共同議題;到哈佛延攬阮可韵博士掌舵已有十年的項目,表明這場關於人類命運與風險治理的長跑已然起步。這不是對技術的恐懼,而是對方向的校准;不是要放慢創新,而是要讓創新與善同頻。

  若將工業革命初期的環境污染視為人類付出的學費,那麼AI時代的功課,應該在代價尚未不可承受時就提早完成。用阮可韵的話說:“技術的速度我們無法也不應放慢,但我們可以握住方向盤,讓它奔向我們共同願景的未來,而不是誰也不願抵達的終點。”

  阮可韵博士期望她的研究成果能讓,AI的未來不是讓人更忙,而是讓人更自由;不是取代人,而是讓人重新找到存在的價值。”

  當資本市場沸騰的時刻,倫敦這位女學者的話,或許是這個時代最需要的冷靜回聲。
電腦版移動版