】 【打 印】 
【 第1頁 第2頁 】 
算法關閉鍵上綫,我們需要怎樣的“個性化服務”
http://www.CRNTT.com   2022-03-21 20:38:19


  如今,“算法”早已經成為大衆耳熟能詳的名詞。隨著網絡與生活的融合程度日益深化,無論是社交媒體的廣告推送,還是電商平台上的購物推薦,背後都離不開算法的支持。互聯網企業通過抓取用戶數據,依照用戶畫像提供定制化信息、娛樂、消費服務,一方面為用戶提供了更加“個性化”的使用體驗,另一方面也為企業帶來了更多利潤,看起來似乎是“雙贏”的好事。然而近年來,公衆對企業抓取用戶隱私的的擔憂日漸加深,“大數據殺熟”“信息繭房”等次生問題,也引發輿論關注。

  近日,抖音、微信、淘寶等多款App均已上綫算法關閉鍵,允許用戶在後台一鍵關閉“個性化推薦”的功能。關閉推薦後,App將不再根據用戶的瀏覽記錄生成推薦內容或廣告。這是《互聯網信息服務算法推薦管理規定》正式實施後,互聯網企業自查自糾的重大舉措之一。政府與社會監管的介入,既能讓公衆看不見、摸不著的算法“黑箱”透明化,也讓算法更好地為大衆利益服務。

  互聯網的高速發展,為大衆帶來了前所未有的海量信息,個人如何在不斷湧入的龐大信息中收集自己需要的部分,是互聯網時代的獨特難題。算法推薦能根據用戶喜好與需求精准提供服務,為用戶節約搜集、篩選信息的時間。從這個角度上看,算法并非洪水猛獸,有其存在的獨特價值。

  然而,問題的症結在於,互聯網企業的算法推薦機制基本都是“黑箱”。在應用過程中,用戶既不能選擇是否使用這項服務,也無從得知算法收集了什麼個人信息,更不知道算法推薦的邏輯與規則是什麼。許多人在不知情的情況下被收集大量隱私,甚至因此被“宰”。此外,算法推薦與互聯網服務牢牢綁定,使得在很多情況下,拒絕算法等於拒絕服務,這也剝奪了消費者的自主選擇權,讓他們只能被迫接受算法對隱私的窺視,坐視自己的合法權益受到損害。

  算法一旦被過度濫用,不僅會侵害個人權益,也可能對公共空間造成負面影響。當社交媒體、新聞平台完全按照個人喜好篩選并推薦信息時,“信息繭房”也會加速形成。用戶終日被包裹在同類信息中,與同立場的人抱團而拒斥其他信息,自然會成為一個個“孤島”,最後導致網絡不再是交流溝通的橋梁,而淪為不同群體互相攻訐的空間。 


【 第1頁 第2頁 】 


掃描二維碼訪問中評網移動版 】 【打 印掃描二維碼訪問中評社微信  

 相關新聞: