2021 年的今天,算法正以越來越激進(jìn)的方式影響著我們的生活。
隨著移動(dòng)互聯(lián)網(wǎng)的廣泛普及與智能手機(jī)功能的深度開發(fā),以人工編輯為核心的傳統(tǒng)分發(fā)模式逐漸衰落,以算法為核心的智能分發(fā)模式興盛崛起。” 算法型 ” 分發(fā)模式的出現(xiàn)和普遍應(yīng)用,意味著人類開始運(yùn)用人工智能大規(guī)模地解決信息分發(fā)問題,人類社會(huì)信息分發(fā)也從 ” 人找信息 ” 轉(zhuǎn)向 ” 信息找人 “。
但主體的讓渡也導(dǎo)致了越來越多問題的出現(xiàn)。要知道,” 算法型 ” 信息分發(fā)更多地建立在對(duì)于人們的直接興趣和 ” 無意注意 ” 的信息需求的挖掘上,它帶來的直接后果是:忽略人們必需的那些非直接興趣和需要 ” 有意注意 ” 的信息,導(dǎo)致 ” 信息繭房 “、算法偏見、假新聞泛濫等問題的出現(xiàn)。
更重要的是,算法并非是單純中立的。受到商業(yè)偏好的影響,在價(jià)值和利益的天平上,所謂的算法更容易成為利益的砝碼。當(dāng)我們今天接收的信息都是基于算法,甚至信息的產(chǎn)生也是基于算法所得出的結(jié)論,我們看似民主、自由的社會(huì)與思想,其實(shí)在根本上已經(jīng)被算法 ” 專制 ” 所統(tǒng)治。當(dāng) ” 算法為王 ” 的價(jià)值觀念已成為平臺(tái)的增長極之時(shí),對(duì)算法的導(dǎo)向糾偏也迫在眉睫。
被算法控制的信息世界
算法以大數(shù)據(jù)為基礎(chǔ),經(jīng)由智能媒體對(duì)信息進(jìn)行傳播,算法傳播顛覆了傳統(tǒng)的傳播規(guī)則和傳播邊界,使得服務(wù)用戶成為傳播的根本動(dòng)因。在注意力經(jīng)濟(jì)的驅(qū)使下,它逐漸成為受商業(yè)利益和政治目的驅(qū)動(dòng)的自動(dòng)化過程。
基于算法的傳播呈現(xiàn)出可計(jì)算的特質(zhì),后臺(tái)將每個(gè)用戶內(nèi)容消費(fèi)的行為數(shù)據(jù),比如用戶瀏覽時(shí)長、轉(zhuǎn)發(fā)、評(píng)論等,個(gè)體屬性數(shù)據(jù)以及社交關(guān)系數(shù)據(jù)進(jìn)行大數(shù)據(jù)的統(tǒng)計(jì)和分析,進(jìn)而挖掘用戶的愛好習(xí)慣和社交興趣網(wǎng)絡(luò),最終生成精準(zhǔn)的用戶畫像,像用戶推送最具個(gè)性化需求的信息。
算法推薦讓編輯篩選模式下的“人找信息“變?yōu)?nbsp;“信息找人“,用戶成為了算法架構(gòu)或程序編碼的價(jià)值落點(diǎn)。資訊分發(fā)的價(jià)值判斷機(jī)制則從由編輯判斷轉(zhuǎn)變?yōu)橛蓹C(jī)器來決定,由此把信息內(nèi)容的推送交給了 ” 算法把關(guān) “。
算法推薦的優(yōu)勢顯而易見。一方面,算法推薦在互聯(lián)網(wǎng)時(shí)代高效對(duì)接了受眾需求和信息。算法通過對(duì)社交推薦機(jī)制進(jìn)行二次過濾,優(yōu)化推薦結(jié)果,從而提升了互聯(lián)網(wǎng)內(nèi)容推送的精準(zhǔn)度。例如,各類平臺(tái)都可以根據(jù)用戶的社交行為、地理位置、職業(yè)、年齡等推斷出用戶的興趣點(diǎn),并判斷這些興趣的重要程度或者先后順序進(jìn)行推送,從而實(shí)現(xiàn)個(gè)性化信息推送。
另一方面,個(gè)性化推送下,通過對(duì)數(shù)據(jù)的挖掘,原來被忽視的大量長尾信息得以被挖掘。這些非主流、個(gè)性化的產(chǎn)品需求,經(jīng)過散落在社會(huì)各個(gè)角落中的用戶的積累,能夠更好地適配不同的長尾信息。這使得信息價(jià)值不再有統(tǒng)一的標(biāo)準(zhǔn),不再有重要性的絕對(duì)的高低之分。
算法讓信息和人能夠精準(zhǔn)和高效地匹配,這也成為互聯(lián)網(wǎng)信息流動(dòng)的核心邏輯。甚至可以說,機(jī)器算法在一定程度上決定著信息的意義、信息的流向以及受眾對(duì)信息感知的方式。雖然算法掀起了傳播領(lǐng)域的一場革命,但隨著算法日漸接管了人們的信息來源,算法背后存在的隱患也逐漸凸顯。
比如,算法通過精確的個(gè)性化描述打造了個(gè)性化的社區(qū),形成了新的人際交往形式—— ” 圈群文化 “。隨著圈子的粘性增強(qiáng),圈子不可避免地會(huì)出現(xiàn)排他性。因此,社交媒體在運(yùn)營的后期往往會(huì)出現(xiàn) ” 文化邊界 “。于是,人們在自己選擇的圈子里活動(dòng),久而久之終于形成了“信息繭房“。
很大程度上,這是一種 ” 自我 ” 設(shè)限——用戶就像蠶一樣被自己吐的絲禁錮在自己制造的 ” 信息繭房 ” 里。長期生活在 ” 信息繭房 ” 之中,無疑會(huì)令用戶越來越沉溺于自己的回音,在信息繭房中越陷越深。” 數(shù)據(jù)化 ” 的人將會(huì)失去對(duì)整個(gè)社會(huì)的理解與全局批判的能力,甚至?xí)斐扇后w ” 極化 ” 現(xiàn)象。
再比如,算法在描繪社會(huì)現(xiàn)實(shí)的同時(shí)也體現(xiàn)出現(xiàn)實(shí)中的偏見,算法依賴于大數(shù)據(jù)。顯然,大數(shù)據(jù)并非中立。于是,它們可能有利于白人男性,而不利于女性、老年人、單親父母、有色人種、非英語居民等。
事實(shí)證明,新生的人工智能推特機(jī)器人可以在幾個(gè)小時(shí)內(nèi)成為白人至上主義者,自動(dòng)生成的標(biāo)簽將非裔美國人的照片標(biāo)記為大猩猩。在亞馬遜公司開發(fā)的一款用于篩選簡歷的算法中,也曾意外 ” 培養(yǎng) ” 出歧視女性應(yīng)聘者的偏好。顯然,算法從受相同偏見影響的內(nèi)容中學(xué)習(xí)到更多偏見,這些認(rèn)知偏見經(jīng)網(wǎng)上廣泛傳播后導(dǎo)致更為廣泛的社會(huì)沖突。
當(dāng)然,不論是信息繭房,還是技術(shù)偏見,都是我們能看到的最直接的算法帶來的社會(huì)問題。除此之外,更重要的是受到商業(yè)偏好的影響,控制著算法的利益市場,使得算法日益淪為利益的砝碼,造成幾千年來人類社會(huì)所追求與構(gòu)建的民主、自由的社會(huì)受到挑戰(zhàn)和損傷。
算法背后的利益市場
當(dāng)前,隨著算法在信息的管理與分發(fā)領(lǐng)域占據(jù)了支配地位,并逐漸在把關(guān)機(jī)制中代替了傳統(tǒng)媒體把關(guān)人的角色,開始發(fā)揮主導(dǎo)作用。
然而,算法由各個(gè)互聯(lián)網(wǎng)平臺(tái)組織設(shè)計(jì),我們將信息的把關(guān)交給算法時(shí),也就意味著交給了算法背后的利益市場。在完全自由的信息市場中,算法作為一種壟斷性技術(shù),通過技術(shù)的方式,實(shí)現(xiàn)對(duì)信息產(chǎn)品生產(chǎn)和消費(fèi)的控制。
傳統(tǒng)媒體時(shí)代,人們能夠主動(dòng)選擇信息;而在算法時(shí)代里,信息的選擇則由算法進(jìn)行分配,將所有信息 ” 對(duì)號(hào)入座 “,根據(jù)用戶需求的數(shù)據(jù)決定把關(guān)的強(qiáng)弱,即用戶需求越多,就給予越多的信息資源。這種把關(guān)機(jī)制的運(yùn)行導(dǎo)致信息成為一味迎合用戶市場的純粹的消費(fèi)品,失去其本身的價(jià)值意義。
事實(shí)上,在互聯(lián)網(wǎng)剛出現(xiàn)之時(shí),人們也曾憧憬過:網(wǎng)絡(luò)空間代替城市空間接管公共領(lǐng)域,創(chuàng)造前所未有的理想公共領(lǐng)域的可能。所謂公共領(lǐng)域,用德國著名哲學(xué)家哈貝馬斯的話說,就是指 ” 政治權(quán)力之外,作為民主政治基本條件的公民自由討論公共事務(wù)、參與政治的活動(dòng)空間 “。
畢竟那個(gè)時(shí)候,人們所看到的,都是算法運(yùn)用的無可比擬的優(yōu)勢——立足于大數(shù)據(jù)之上,算法通過對(duì)海量數(shù)據(jù)樣本的全盤分析可能得以窺探事物的全貌,避免人類因有限的觀察體驗(yàn)而產(chǎn)生的局限性,可以更為準(zhǔn)確地反映客觀世界,并盡力排除人的主觀因素的影響,由此作出更為科學(xué)的判斷。
人們渴望通過公共領(lǐng)域,得以展現(xiàn)自我,用社會(huì)的規(guī)則知識(shí)填補(bǔ)先驗(yàn)知識(shí)的缺陷,并與他人建立現(xiàn)實(shí)的聯(lián)系。然而,雖然互聯(lián)網(wǎng)極大地促進(jìn)了公共討論的發(fā)展,看似具備公共領(lǐng)域的基本特征,但顯然這只是表象——它不是公共領(lǐng)域,政治權(quán)力與大企業(yè)完全有能力迫使互聯(lián)網(wǎng)按照自己的意愿發(fā)展。
所謂的算法權(quán)力,正是指其背后潛藏著的控制算法設(shè)計(jì)和研發(fā)過程的資本的權(quán)力,技術(shù)權(quán)力只是表征而已。資本驅(qū)動(dòng)下的算法權(quán)力倘若缺少必要的規(guī)制,勢必傾向于將利益置于人的價(jià)值的之上。早在 2015 年,F(xiàn)acebook 就因其人工智能推薦內(nèi)容存在政治偏見,飽受用戶對(duì)的指責(zé)。
2018 年 3 月,F(xiàn)acebook 更是爆發(fā)了轟動(dòng)全球的 “Facebook 數(shù)據(jù)門 ” 事件,8700 萬 Facebook 用戶的個(gè)人數(shù)據(jù)被出賣給一家叫做 ” 劍橋分析 ” 的公司。這家公司操縱這些數(shù)據(jù),最終成功地通過選舉程序,使得英國脫歐、特朗普上臺(tái)。從本質(zhì)上看,正是 Facebook 為了自己的利益而不正當(dāng)使用了算法。
更值得注意的是,算法決策在公權(quán)力領(lǐng)域的運(yùn)用還表明,算法權(quán)力嵌入了傳統(tǒng)公權(quán)力的運(yùn)行,這可能使技術(shù)和權(quán)力產(chǎn)生合謀而存在權(quán)力濫用的風(fēng)險(xiǎn)。并且,算法權(quán)力可能會(huì)使既有的權(quán)力制約機(jī)制在一定程度上失靈。
在公共權(quán)力的長期運(yùn)作過程中,算法的 ” 技術(shù)合理性 ” 又使其蒙上了可以巧妙避開民主監(jiān)督的面紗。算法對(duì)公權(quán)力領(lǐng)域的介入挑戰(zhàn)了傳統(tǒng)的權(quán)力專屬原則和正當(dāng)程序原則,難以對(duì)其實(shí)施有效的權(quán)力控制,而失范的權(quán)力最終必將導(dǎo)致個(gè)體權(quán)利的減損。
算法的背后是誰?算法到底代表著誰的思想與目的?可能是控制新聞輿論的政黨,可能是控制著互聯(lián)網(wǎng)平臺(tái)的決策者,也可能是構(gòu)建算法的工程師在構(gòu)建過程中加入了自己想實(shí)現(xiàn)的一種 ” 統(tǒng)治 ” 思想。
因此,當(dāng)前我們?nèi)祟愃媾R的挑戰(zhàn),尤其是在人工智能時(shí)代,在算法統(tǒng)治的時(shí)代,我們的信息或許越來越便利的同時(shí),我們?nèi)祟悗浊晁谧穼さ拿裰?、?dú)立、左右將會(huì)在算法 ” 統(tǒng)治 ” 下,而這種 ” 統(tǒng)治 ” 的背后,則是控制算法的利益市場。
算法的統(tǒng)治
專制主義是一種平等的結(jié)構(gòu),除了統(tǒng)治者,其他人都是平等的,因?yàn)樗麄儧]有實(shí)質(zhì)的政治權(quán)力。統(tǒng)治者的權(quán)力不受法律的制約——中國古代的封建王朝,太陽王路易十四治下的法國波旁王朝,是典型的專制主義政體——盡管律令具有一定的權(quán)威性,但皇權(quán)掌握著最高司法解釋權(quán)與裁判權(quán)。
極權(quán)主義相反,雖然蔑視成文法,但它比任何政府形式都更服從法律的力量。與常識(shí)不同,它沒有使權(quán)力從屬于某個(gè)人的利益,而是隨時(shí)準(zhǔn)備犧牲每一個(gè)人的利益,來執(zhí)行它認(rèn)定的歷史法則和自然法則。阿倫特把極權(quán)主義的本質(zhì)概括為反文明的、反制度的、反功利的與反責(zé)任的,而這些特點(diǎn),正在算法時(shí)代里上演。
極權(quán)主義是反文明的。極權(quán)主義的野蠻行徑,體現(xiàn)在其運(yùn)用恐怖進(jìn)行統(tǒng)治的方面??植啦皇呛唵蔚谋┝Γ煌耆蕾囉诘托У娜怏w消滅,它是一種肉體與精神層面的全面摧毀和控制。通過恐怖,宣告?zhèn)€人因?yàn)椴环蠚v史需要被剔除;通過恐怖,使人整齊劃一,失去個(gè)性與獨(dú)立性。
極權(quán)主義是反制度的,它是一種 ” 為擴(kuò)張而擴(kuò)張 ” 運(yùn)動(dòng)。極權(quán)主義的興起與民族國家的衰落是同一過程,為了使運(yùn)動(dòng)進(jìn)行下去,需要模糊國家疆域的邊界,樹立一批又一批敵人,將聚焦于內(nèi)部的矛盾轉(zhuǎn)移到外部。
極權(quán)主義是反功利的,它用意識(shí)形態(tài)代替功利計(jì)算。這種意識(shí)形態(tài)聲稱能夠解釋一切,提供一整套關(guān)于自然與歷史的邏輯,從而建立統(tǒng)治的合法性。
極權(quán)主義還是反責(zé)任的,它是一種宿命論。這種宿命論以理性主義為基石,聲稱發(fā)現(xiàn)了自然與歷史規(guī)律,以 ” 民族復(fù)興 ” 等現(xiàn)代神話取代傳統(tǒng)宗教,用歷史進(jìn)步的目的代替?zhèn)€人的道德觀念。
阿倫特對(duì)極權(quán)主義的思考,不只是為了挖掘出構(gòu)成極權(quán)主義意識(shí)形態(tài)與政治制度的因素,更是要提出重建現(xiàn)代性的可能方案。她的第一本著作《極權(quán)主義的起源》,正是以政治哲學(xué)這個(gè)視角審視極權(quán)主義興起過程的:現(xiàn)代反猶主義表現(xiàn)了公共領(lǐng)域的變質(zhì),西歐民族國家的帝國主義政策使公共領(lǐng)域瓦解,納粹德國和斯大林時(shí)期蘇聯(lián)的極權(quán)主義政治意味著了公共領(lǐng)域的最終崩潰。
今天由算法支配的市場,呈現(xiàn)出來的正是這樣的邏輯。雖然極權(quán)主義作為一種政體已經(jīng)終結(jié),但是公共領(lǐng)域被破壞的陰影猶在——資本的商品交換邏輯滲透到了公共領(lǐng)域,大眾傳媒的商業(yè)化制造了虛假的公共性,審美的庸俗化和娛樂化則消解了社會(huì)的批判意識(shí)。
消費(fèi)、技術(shù)與知識(shí)崇拜席卷一切,一方面,我們越來越重視商品的符號(hào)性,通過消費(fèi)獲得身份認(rèn)同;另一方面,我們把技術(shù)、知識(shí)這種間接經(jīng)驗(yàn)看作認(rèn)識(shí)世界、了解世界的主要方式。
我們認(rèn)可的價(jià)值與觀念越來越多地來自算法的信息分發(fā)而非自我實(shí)踐,我們也越來越多地放棄了自發(fā)的、具有想象力的,能夠體現(xiàn)人類尊嚴(yán)和自由的行動(dòng),取而代之的是被設(shè)計(jì)好的、批量生產(chǎn)的、可預(yù)期與控制的行為,包括人生價(jià)值和意義。
當(dāng)前,算法的興起和異化顯然已經(jīng)折射出技術(shù)存在的風(fēng)險(xiǎn)與非理性,而目前規(guī)制算法的具體法律規(guī)則付之闕如,放任算法的發(fā)展很可能將人類社會(huì)導(dǎo)向令人惴惴不安的境地。好在雖然算法有著人類無法想象的計(jì)算能力和速度,但這并不意味著算法超出人類的理解范疇,更不意味著人類對(duì)此沒有充分的規(guī)制能力。
柏拉圖提出過一個(gè)著名的 ” 洞穴隱喻 “:洞穴中的囚徒們頭只能看見火光投射到洞壁上的陰影,因而將洞壁上的陰影當(dāng)作現(xiàn)實(shí)本身。當(dāng)其中一個(gè)囚徒被解除了桎梏,走到太陽下,他會(huì)因?yàn)楣饩€的強(qiáng)烈刺激感受到劇烈的痛苦,但他終究能夠看到太陽本身。正是人的獨(dú)特的價(jià)值指引著人們?nèi)プ穼ふ嫔泼赖纳?,人類文明才能夠雋永地存在和發(fā)展。
本文經(jīng)授權(quán)發(fā)布,不代表增長黑客立場,如若轉(zhuǎn)載,請(qǐng)注明出處:http://gptmaths.com/quan/51802.html