】 【打 印】 
“亡靈機器人”引發倫理爭議
http://www.CRNTT.com   2022-05-30 22:53:32


  中評社北京5月30日電/據參考消息網編譯,西班牙《阿貝賽報》網站5月24日發表題為《在我們死後仍能替我們說話的機器人》的文章稱,機器自主學習系統(機器學習)正在越來越多地走入我們的日常生活,挑戰我們的道德和社會價值觀以及監管規則。文章編譯如下:

  今天,虛擬助手威脅著家庭的隱私;新聞推送系統塑造著我們理解世界的方式;風險預測算法告訴社會工作者應該去保護哪些兒童以使他們免受虐待;而基於數據處理的招聘工具對我們獲得工作的機會進行分類。然而,機器學習的倫理仍然是一個模糊的領域。

  為在比利時魯汶大學學習信息與通信技術及倫理的年輕工程師們尋找有關該主題的文章時,喬舒亞·巴爾博的事例令我印象特別深刻。巴爾博是一名33歲的男子,他使用一個名為“12月項目”的網站創造了一個對話機器人(聊天機器人),該機器人可以模擬巴爾博已故未婚妻傑茜卡生前進行文字聊天的方式。傑茜卡死於一種罕見的疾病。

  這種聊天機器人被稱為“亡靈機器人”,使得巴爾博可以與人工智能版的“傑茜卡”進行文本信息聊天。儘管該事例在倫理上存在爭議,但我們很少能找到這種超出單純事實層面意義的資料,而人們紛紛從明確的規則角度對其進行了分析:開發“亡靈機器人”是對還是錯?在倫理上是可取的,還是應受譴責的?

  在我們解答這些問題之前,先來了解一下事情的背景。“12月項目”是由視頻遊戲開發者賈森·羅勒創建的,其目標是幫助人們設計具有他們想要與之進行交互的性格特點的聊天機器人,並需要支付一定費用。

  該項目基於美國開放人工智能研究中心(OpenAI)的GPT-3應用程序編程接口(API)。這是一種能夠自動生成文本信息的語言模型。

  巴爾博的事例引發了羅勒和OpenAI之間的爭端,因為OpenAI的應用規則明確禁止將GPT-3用於性、愛、自殘或騷擾等目的。

  羅勒稱,OpenAI的立場是“超道德”的,並認為像巴爾博這樣的人是“有能力作出判斷的成年人”。不過,羅勒最終還是下線了基於GPT-3的“12月項目”網站。

  儘管我們對開發機器學習“亡靈機器人”是對還是錯會有一定的看法,但解讀其影響並非易事。因此有必要逐步解決該事例提出的倫理問題。

  鑒於傑茜卡生前是一個真實的人,巴爾博創建一個模仿她的機器人的想法似乎是不夠全面的。即使人們死去了,也不應該成為他人可以隨意擺弄的對象。

  因此我們的社會認為,褻瀆或不尊重死者是不對的。換句話說,我們對死者有一定的道德義務,因為人們死亡並不意味著就失去了在道德倫理上的存在意義。

掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: