算法社會的隱憂
1
算法社會中的信息獲。“無菌”的“過濾泡”
在信息時代,用戶選擇性地獲取信息成為一種必然。傳統(tǒng)媒體時代,信息的選擇權(quán)掌握在記者和編輯手中,新聞專業(yè)主義使從業(yè)者在考慮受眾喜好的同時兼顧信息的公共性,即不僅考慮“受眾想要知道什么”,還進一步與“受眾應(yīng)該知道什么”平衡。
當(dāng)算法取代人工編輯時,新聞專業(yè)主義逐漸隱退,算法通過記錄用戶行為以及參考與用戶相似的人群,猜測用戶信息喜好從而做出推薦,通過取悅、順從用戶的個性化信息推薦運算規(guī)則,最終達到讓用戶對軟件“上癮”的目的。用戶在愉快地享受算法服務(wù)的同時,不可抑制地陷入更深的擬態(tài)環(huán)境中。
信息推薦算法將與用戶意見相悖的信息、受眾不感興趣的知識拒之門外,看似為用戶營造了一個“無菌環(huán)境”,但社會的復(fù)雜性也隨之消失。用戶被孤立地放置于封閉性的信息擬態(tài)環(huán)境之中,卻又時常感知不到算法的隱秘操縱;其被算法反復(fù)“投喂”類似的信息,消除了偶遇其他觀點的可能性。
有學(xué)者在研究搜索引擎背后的算法時,將算法為用戶形成的信息環(huán)境稱作“過濾泡”,它使得用戶沉浸于熟悉、認(rèn)可的信息中,而非多維視角內(nèi),使得用戶更習(xí)慣被動地接收信息而非主動地探索信息,從而進一步丟失創(chuàng)新的可能性。
2019年5月26日至29日,2019中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會在貴州省貴陽市舉行。圖/傳播君 李晗 攝
2
算法社會中的判斷:依賴算法的思考
算法對于人類的影響不止于對世界的認(rèn)知。在算法社會中,很多時候人們依賴算法做出判斷,甚至將判斷的權(quán)力交付于算法手中。例如,現(xiàn)在人們在規(guī)劃出行路線時,依靠導(dǎo)航系統(tǒng)判斷最佳出行路線甚至全權(quán)由系統(tǒng)決定出行路線。
的確,基于大數(shù)據(jù)的算法通過高效的運算在很多時候幫助人們做出更好的判斷,但這是否證明算法的判斷一定是最優(yōu)解還處于未知狀態(tài)。
人類的判斷模型不僅應(yīng)建立在事實層面,還應(yīng)包括情感、道德、倫理等層面,后三者是如今算法無法抵達的。
事實上,研究者發(fā)現(xiàn),算法對于人群的分類與判斷常常攜帶著人類社會習(xí)慣性的偏見與歧視。但不同的是,算法的學(xué)習(xí)在于對過去數(shù)據(jù)的輸入及模仿,而人類能夠基于此進行反思。
若人們將決策的權(quán)力交給算法,人們將逐漸被貼上“算法標(biāo)簽”,算法攜帶的偏見與歧視將優(yōu)質(zhì)資源更進一步傾斜給算法標(biāo)記的社會優(yōu)勢人群,社會不平等將進一步擴大。
3
算法社會中的隱私:無孔不入的數(shù)據(jù)收集
數(shù)據(jù)收集并非只是互聯(lián)網(wǎng)時代的產(chǎn)物,傳統(tǒng)媒體時代,電視收視率報告、用戶調(diào)研皆為用戶數(shù)據(jù)收集的典型代表。但與之不同的是,由于數(shù)字痕跡的出現(xiàn),平臺依托算法的數(shù)據(jù)收集,成為 7×24 小時的常態(tài)化行為。
算法對用戶的數(shù)據(jù)收集的確帶來了便利,但同時也對人們的隱私形成巨大威脅。社交平臺收集用戶數(shù)據(jù),進而推薦個性化廣告;在私人領(lǐng)域中,智能音箱、家庭攝像頭等互聯(lián)網(wǎng)家居無時無刻不在收集著信息,且將用戶信息上傳至平臺。
同時,用戶有時甚至?xí)蛩惴ㄖ鲃犹峁┬畔,以隱私換取便利,但卻忽略了便利背后的風(fēng)險。算法在收集用戶數(shù)據(jù)后還會對用戶數(shù)據(jù)進行處理,以描繪用戶畫像,進而控制用戶行為。
在短視頻平臺上,用戶的點贊、評論、瀏覽單個視頻時長、瀏覽記錄、在線時間等都決定著算法對于用戶喜好的判定,也決定著用戶將接收何種內(nèi)容的信息推薦;在購物平臺上,算法通過個性化推薦進一步挖掘用戶的購買欲望,助推消費主義;在社交平臺中,算法通過收集用戶之間的互動歷史測算親密度,決定其信息流的排序,也決定了不同好友信息的可見性。
可見,用戶的所有行為都將成為算法運行的基礎(chǔ),最終影響算法運行的結(jié)果。
算法須協(xié)同治理
我們現(xiàn)在僅處于“弱人工智能時代”,算法的智能化水平比較有限,但算法作為一個擁有極大發(fā)展?jié)摿Φ男屡d技術(shù),其對人類產(chǎn)生愈發(fā)強烈的影響,無疑是一種時代趨勢。將算法社會的風(fēng)險以依靠個體算法素養(yǎng)來解決顯然不現(xiàn)實。未來,對算法的治理需要多主體、多層級共同參與。
1
平臺:倫理約束,創(chuàng)新設(shè)計
作為對算法最了解的一方,算法開發(fā)平臺首先需要在遵守算法倫理規(guī)范的基礎(chǔ)上自覺進行內(nèi)在約束。其次應(yīng)改變算法的“黑箱子”性質(zhì),提高運算規(guī)則的透明度。
此外,近年來有學(xué)者提出可以在算法設(shè)計過程中應(yīng)用參與策略。參與式設(shè)計即通過賦予用戶權(quán)力的方式,使他們在一定程度上參與到對技術(shù)的開發(fā)中。
這不僅有助于開拓用戶的計算機思維,提高他們對算法風(fēng)險的應(yīng)對能力,還能幫助算法開發(fā)平臺解決設(shè)計者意圖與使用者期望之間的脫節(jié)問題。
2
政府:規(guī)范法治,加強監(jiān)管
如今,算法技術(shù)發(fā)展日新月異。2017 年,國務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》中強調(diào),適應(yīng)人工智能發(fā)展的基礎(chǔ)設(shè)施、政策法規(guī)、標(biāo)準(zhǔn)體系亟待完善。
雖然我國目前已經(jīng)出臺《中華人民共和國網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等一系列針對互聯(lián)網(wǎng)信息安全和信息服務(wù)的法律規(guī)定,但對于高速發(fā)展的智能算法技術(shù)帶來的問題和風(fēng)險,還須更完備的法規(guī)建設(shè)和更強力的監(jiān)管措施。
未來,人類必將面臨算法帶來的信息權(quán)力動蕩、意識形態(tài)風(fēng)險等問題,但也正如媒介素養(yǎng)教育中所強調(diào)的,我們不能一味抵制媒介影響,而應(yīng)提升自身的綜合能力來應(yīng)對風(fēng)險。
算法素養(yǎng)也是如此,我們需要合理運用人的價值理性駕馭算法的工具理性,在探索與實踐中尋求最佳的共存方式。