<progress id="hdnbr"></progress><strike id="hdnbr"><noframes id="hdnbr">
<th id="hdnbr"></th>
<span id="hdnbr"></span>
<span id="hdnbr"></span>
<progress id="hdnbr"></progress>
<progress id="hdnbr"></progress>
<th id="hdnbr"><noframes id="hdnbr"><th id="hdnbr"></th><span id="hdnbr"><address id="hdnbr"></address></span>
<th id="hdnbr"><video id="hdnbr"><th id="hdnbr"></th></video></th>
<progress id="hdnbr"></progress>
<strike id="hdnbr"><noframes id="hdnbr">
<span id="hdnbr"></span>
首頁 > 專家視角 > 正文

干貨!算法社會的“三大隱憂”與“兩大治理路徑”

稿件來源:網絡傳播雜志 俞雅蕓 彭泓銘 發布時間:2021-09-22 09:17:54

隨著互聯網技術的全面普及,算法社會已經來臨。在人們使用社交媒體、瀏覽新聞網站、進行網絡購物時,算法——互聯網軟件背后運算的規則,成為人與現實世界之間的中介。值得警惕的是,算法可能通過攫取用戶隱私,影響人們對世界的認知與判斷。

 

算法社會的隱憂

 

1

算法社會中的信息獲。“無菌”的“過濾泡”

 

在信息時代,用戶選擇性地獲取信息成為一種必然。傳統媒體時代,信息的選擇權掌握在記者和編輯手中,新聞專業主義使從業者在考慮受眾喜好的同時兼顧信息的公共性,即不僅考慮“受眾想要知道什么”,還進一步與“受眾應該知道什么”平衡。

 

當算法取代人工編輯時,新聞專業主義逐漸隱退,算法通過記錄用戶行為以及參考與用戶相似的人群,猜測用戶信息喜好從而做出推薦,通過取悅、順從用戶的個性化信息推薦運算規則,最終達到讓用戶對軟件“上癮”的目的。用戶在愉快地享受算法服務的同時,不可抑制地陷入更深的擬態環境中。

 

信息推薦算法將與用戶意見相悖的信息、受眾不感興趣的知識拒之門外,看似為用戶營造了一個“無菌環境”,但社會的復雜性也隨之消失。用戶被孤立地放置于封閉性的信息擬態環境之中,卻又時常感知不到算法的隱秘操縱;其被算法反復“投喂”類似的信息,消除了偶遇其他觀點的可能性。

 

有學者在研究搜索引擎背后的算法時,將算法為用戶形成的信息環境稱作“過濾泡”,它使得用戶沉浸于熟悉、認可的信息中,而非多維視角內,使得用戶更習慣被動地接收信息而非主動地探索信息,從而進一步丟失創新的可能性。

干貨!算法社會的“三大隱憂”與“兩大治理路徑”

 

2019年5月26日至29日,2019中國國際大數據產業博覽會在貴州省貴陽市舉行。圖/傳播君 李晗 攝

 

2

算法社會中的判斷:依賴算法的思考

 

算法對于人類的影響不止于對世界的認知。在算法社會中,很多時候人們依賴算法做出判斷,甚至將判斷的權力交付于算法手中。例如,現在人們在規劃出行路線時,依靠導航系統判斷最佳出行路線甚至全權由系統決定出行路線。

 

的確,基于大數據的算法通過高效的運算在很多時候幫助人們做出更好的判斷,但這是否證明算法的判斷一定是最優解還處于未知狀態。

 

人類的判斷模型不僅應建立在事實層面,還應包括情感、道德、倫理等層面,后三者是如今算法無法抵達的。

 

事實上,研究者發現,算法對于人群的分類與判斷常常攜帶著人類社會習慣性的偏見與歧視。但不同的是,算法的學習在于對過去數據的輸入及模仿,而人類能夠基于此進行反思。

 

若人們將決策的權力交給算法,人們將逐漸被貼上“算法標簽”,算法攜帶的偏見與歧視將優質資源更進一步傾斜給算法標記的社會優勢人群,社會不平等將進一步擴大。

 

3

算法社會中的隱私:無孔不入的數據收集

 

數據收集并非只是互聯網時代的產物,傳統媒體時代,電視收視率報告、用戶調研皆為用戶數據收集的典型代表。但與之不同的是,由于數字痕跡的出現,平臺依托算法的數據收集,成為 7×24 小時的常態化行為。

 

算法對用戶的數據收集的確帶來了便利,但同時也對人們的隱私形成巨大威脅。社交平臺收集用戶數據,進而推薦個性化廣告;在私人領域中,智能音箱、家庭攝像頭等互聯網家居無時無刻不在收集著信息,且將用戶信息上傳至平臺。

 

同時,用戶有時甚至會向算法主動提供信息,以隱私換取便利,但卻忽略了便利背后的風險。算法在收集用戶數據后還會對用戶數據進行處理,以描繪用戶畫像,進而控制用戶行為。

 

在短視頻平臺上,用戶的點贊、評論、瀏覽單個視頻時長、瀏覽記錄、在線時間等都決定著算法對于用戶喜好的判定,也決定著用戶將接收何種內容的信息推薦;在購物平臺上,算法通過個性化推薦進一步挖掘用戶的購買欲望,助推消費主義;在社交平臺中,算法通過收集用戶之間的互動歷史測算親密度,決定其信息流的排序,也決定了不同好友信息的可見性。

 

可見,用戶的所有行為都將成為算法運行的基礎,最終影響算法運行的結果。

 

算法須協同治理

 

我們現在僅處于“弱人工智能時代”,算法的智能化水平比較有限,但算法作為一個擁有極大發展潛力的新興技術,其對人類產生愈發強烈的影響,無疑是一種時代趨勢。將算法社會的風險以依靠個體算法素養來解決顯然不現實。未來,對算法的治理需要多主體、多層級共同參與。

 

1

平臺:倫理約束,創新設計

 

作為對算法最了解的一方,算法開發平臺首先需要在遵守算法倫理規范的基礎上自覺進行內在約束。其次應改變算法的“黑箱子”性質,提高運算規則的透明度。


此外,近年來有學者提出可以在算法設計過程中應用參與策略。參與式設計即通過賦予用戶權力的方式,使他們在一定程度上參與到對技術的開發中。

 

這不僅有助于開拓用戶的計算機思維,提高他們對算法風險的應對能力,還能幫助算法開發平臺解決設計者意圖與使用者期望之間的脫節問題。

 

2

政府:規范法治,加強監管

 

如今,算法技術發展日新月異。2017 年,國務院頒布的《新一代人工智能發展規劃》中強調,適應人工智能發展的基礎設施、政策法規、標準體系亟待完善。

 

雖然我國目前已經出臺《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》等一系列針對互聯網信息安全和信息服務的法律規定,但對于高速發展的智能算法技術帶來的問題和風險,還須更完備的法規建設和更強力的監管措施。

 

未來,人類必將面臨算法帶來的信息權力動蕩、意識形態風險等問題,但也正如媒介素養教育中所強調的,我們不能一味抵制媒介影響,而應提升自身的綜合能力來應對風險。

 

算法素養也是如此,我們需要合理運用人的價值理性駕馭算法的工具理性,在探索與實踐中尋求最佳的共存方式。

干貨!算法社會的“三大隱憂”與“兩大治理路徑”

X 關閉 頭條號 官方微博 官方微信
我的初苞被强开,美女跪下吃男人J动态图,BBWJapanese超丰满
<progress id="hdnbr"></progress><strike id="hdnbr"><noframes id="hdnbr">
<th id="hdnbr"></th>
<span id="hdnbr"></span>
<span id="hdnbr"></span>
<progress id="hdnbr"></progress>
<progress id="hdnbr"></progress>
<th id="hdnbr"><noframes id="hdnbr"><th id="hdnbr"></th><span id="hdnbr"><address id="hdnbr"></address></span>
<th id="hdnbr"><video id="hdnbr"><th id="hdnbr"></th></video></th>
<progress id="hdnbr"></progress>
<strike id="hdnbr"><noframes id="hdnbr">
<span id="hdnbr"></span>