![]()
《黑客帝國2》
如今,社交媒體已經(jīng)能精準(zhǔn)拿捏人的情緒,無論人說什么,手機都能給及時推送相關(guān)內(nèi)容。我們正步入一個由算法編織的世界:它決定我們看見什么、信任誰、獲得何種機會,甚至如何被評價。在這個世界里,技術(shù)不再是中性的工具,而成為滲透權(quán)力、重塑自由、左右民主進程的政治實體。《算法的力量》正是這樣一部深刻剖析數(shù)字時代人類共同生存困境的思想力作。
英國學(xué)者杰米·薩斯坎德以敏銳的洞察力,將我們帶入一個名為“數(shù)字生活世界”的圖景。在這個世界里,技術(shù)以三種前所未有的方式行使權(quán)力:通過代碼強制執(zhí)行規(guī)則的“數(shù)字武力”;通過海量數(shù)據(jù)監(jiān)控實現(xiàn)的“全景審查”;以及通過過濾信息流塑造認(rèn)知的“感知控制”。
本書的核心追問是:當(dāng)代碼開始強制執(zhí)行規(guī)則,算法能夠預(yù)測并干預(yù)人的行為,當(dāng)虛擬與現(xiàn)實邊界日益模糊,我們?nèi)绾伪U献杂伞⒕S持民主、實現(xiàn)正義?薩斯坎德并未陷入技術(shù)悲觀或盲目樂觀的極端,而是以政治學(xué)經(jīng)典理論為基石,系統(tǒng)重構(gòu)了權(quán)力、自由、民主、正義在數(shù)字語境下的內(nèi)涵與可能。他提出了“哲學(xué)工程師”的呼喚——技術(shù)開發(fā)者必須具備政治與倫理自覺,而公眾也必須超越“用戶”角色,以公民身份參與技術(shù)治理的公共辯論。
書中對“算法專制”的預(yù)警、對“數(shù)字民主”可能的探索、對“技術(shù)失業(yè)”與“財富旋風(fēng)”的分析,都極具現(xiàn)實意義。作者提醒我們,技術(shù)帶來的不僅是效率與便利,更是一場深刻的政治重組,而我們大多數(shù)人,尚未做好準(zhǔn)備。
數(shù)字系統(tǒng)與算法不只是技術(shù),而且是政治性的。本書以清晰有力的證據(jù)表明,新技術(shù)公司已經(jīng)深度介入公共生活,在潛移默化之中施展其日漸增長的控制力,正在重新界定自由、平等、正義和民主的含義。作者呼吁人們,應(yīng)當(dāng)嚴(yán)肅對待這一正在迫近的危險政治前景,并及時行動予以應(yīng)對。——劉擎
原價98,現(xiàn)僅58.8??
以下內(nèi)容選自《算法的力量》
數(shù)字生活世界的感知控制
在不讓人民屈服于武力或?qū)彶榈那闆r下,對人們施加權(quán)力的最后一種方式就是控制他們的所知、所想和準(zhǔn)備就世界發(fā)表的看法。讓人不去做某件事的好辦法之一,就是從一開始就阻止他們做這件事的企圖,或者是讓他們確信,自己的欲望是錯誤的、不合法的、可恥的,甚至是瘋狂的。我把這種手段稱為“感知控制”。如果有可能創(chuàng)造一種對公開表達(dá)某種政治異見惡意滿滿的環(huán)境,那么人們就不太可能把這些不滿帶到臺前。 如果你知道批評某位政客會讓你泡著的酒吧陷入可怕的沉默,或者在社交媒體上引發(fā)一場“推特風(fēng)暴”,對你進行人身攻擊,那么你在發(fā)表批評意見時恐怕就會三思而后行了。 那些尋求權(quán)力的人善于將針對對手的偏見煽動起來。將某些問題完全排除在政治議程之外,就是一種權(quán)力。有什么辦法比創(chuàng)造一種僅是批評一下現(xiàn)狀都是不可接受的環(huán)境還更有利于維持現(xiàn)狀呢?
另一種通過感知控制來行使權(quán)力的方法是,從一開始就防止人們在某些方面產(chǎn)生不滿。這可能只是一個說服的問題,但也可能是欺詐的結(jié)果,比如審查制度,它完全阻斷了人們對某些問題的關(guān)注。人們不可能對他們不知道的事情感到氣憤。更微妙的是,如果當(dāng)權(quán)者能夠制造出一種廣泛的信念或傳統(tǒng)智慧,即認(rèn)為符合其利益的事情也符合其他所有人的利益,那么就不需要通過強制或?qū)彶閬泶_保獲得服從。
過濾是一種無比強大的感知控制手段。如果你控制了一個社會的信息流動,你就可以影響這個社會對是非、公不公平、干不干凈、得體不得體、真實還是虛假、已知還是未知的共同觀念。你可以告訴人們世界是什么樣,什么是重要的,以及他們應(yīng)該如何去思考和感受。你可以說明人們應(yīng)該如何判斷別人的行為。你可以喚起熱情和恐懼、沮喪和絕望。你可以塑造規(guī)范和習(xí)俗,定義什么可以做,什么不能做,哪些禮儀是可以接受的,什么行為是適當(dāng)?shù)幕虿贿m當(dāng)?shù)模约肮蚕淼纳鐣x式,如問候、求愛、儀式、談話和抗議應(yīng)該如何執(zhí)行;什么可以說,什么被認(rèn)為是不能說的;公認(rèn)的政治和社會行為的界限是什么。如果我違反了一項規(guī)范或習(xí)俗,我可能不會像違反法律那樣受到武力制裁,但后果可能會更糟:嘲笑、羞恥、排斥、孤立,甚至放逐。正如曼紐爾·卡斯特所說 :“我們感受和思考的方式?jīng)Q定了我們行動的方式。”那些控制感知手段的人將更多地決定我們的感受和思考方式,進而決定我們的行動方式。
在未來,我們?nèi)绾胃兄澜鐚⒃絹碓蕉嗟赜蓴?shù)字系統(tǒng)向我們揭示或隱藏的東西所決定。當(dāng)我們只體驗到世界的一小部分時,呈現(xiàn)在我們面前的那一部分將起到重大作用。它將決定我們的所知、所感和想要什么,從而影響我們?nèi)プ鍪裁础?刂埔陨贤緩骄褪钦蔚谋举|(zhì)。
![]()
《1984》
新聞
第一個被數(shù)字技術(shù)控制的感知方式就是新聞。我們已經(jīng)越來越依賴社交媒體來分類和呈現(xiàn)新聞。數(shù)字時代的新聞與現(xiàn)在不同,傳統(tǒng)上從事過濾工作的記者、作家、編輯和版主將逐漸被自動化系統(tǒng)取代。算法過濾器能夠以你最喜歡的形式給你推送特定的內(nèi)容:給正在洗澡的你大聲朗讀(新聞),播放簡短的全息剪輯,在增強現(xiàn)實或虛擬現(xiàn)實中給新聞賦予生命,甚至是以優(yōu)美的古文形式呈現(xiàn)出來。它還能滿足你了解適量細(xì)節(jié)和語境的需求。算法過濾的主要承諾是為我們每個人量身定制一個信息環(huán)境。如果你相信代碼的話。
新聞自動化的進程已然開啟,自動化的文章生成、自動化的評論審核,以及自動化的編輯來決定你看 / 不看什么新聞。就像亞馬遜和網(wǎng)飛推薦你應(yīng)該消費的書籍和電視節(jié)目一樣,直到最近,據(jù)說你在 Facebook 新聞平臺上看到的新聞是由該平臺通過權(quán)衡約 10萬種因素決定的,包括點擊、點贊、分享、評論和發(fā)帖人的受歡迎程度,你與發(fā)帖人的特定關(guān)系,你一般對什么主題感興趣,以及該話題所呈現(xiàn)出的相關(guān)性和可信度。
搜索
當(dāng)我們搜索信息時,過濾器就會起作用。搜索引擎決定哪些結(jié)果或答案應(yīng)該優(yōu)先響應(yīng)我們的查詢。谷歌頁面排名方法的具體細(xì)節(jié)尚不可知 , 但一般認(rèn)為它根據(jù)特定查詢的相關(guān)性和重要性來對站點進行排名,部分取決于某網(wǎng)頁被其他尋找相同信息的搜索者關(guān)聯(lián)起來并點擊的頻率。在谷歌搜索中排名靠前這件事的商業(yè)和政治重要性,怎么強調(diào)都不為過。90% 的點擊產(chǎn)生于搜索結(jié)果的第一頁。如果你或你的企業(yè)的排名太低,那么從信息的角度來說,你可能就是“不存在” 的。未來,搜索系統(tǒng)將能夠更好地解析用自然語言提出的問題,因此當(dāng)你“看”某樣?xùn)|西的時候,就不太像是在掃描一個龐大的數(shù)據(jù)庫,而更像是在咨詢一位無所不知的私人助理。這些神諭系統(tǒng)將決定什么是你需要知道的,什么是不應(yīng)該知道的。就像新聞一樣,不能保證你得到的信息和我得到的信息是一樣的;它可以根據(jù)系統(tǒng)判定的與我們最相關(guān)的內(nèi)容進行調(diào)整。
通信
第三,無論我們何時使用數(shù)字方式進行交流——在數(shù)字生活的世界中,這是十分常見的——
我們同時也就在這個系統(tǒng)中向“過濾”開放了。舉一個基本的例子,我們的電子郵件消息系統(tǒng)已經(jīng)使用算法來 確定哪些是垃圾郵件,哪些不是(當(dāng)?shù)弥橙说碾娮余]件系統(tǒng)認(rèn)定你的郵件是“垃圾郵件”時,總會令人隱隱感到不安)。微信是世界上第四大聊天軟件,有近 9 億的月活躍用戶 ,它會根據(jù)關(guān)鍵詞進行審查。如果你發(fā)送的消息中包含禁用詞,遠(yuǎn)程服務(wù)器將通過審查系統(tǒng)直接拒絕發(fā)送該消息(而你并沒有被告知)。這反映了一種更廣泛的趨勢,即通信技術(shù)受制于基于禁用詞的即時審查。以前,人類官員覺得實時審查談話內(nèi)容只是個夢想。
我們的交流過程也能以更微妙的方式形塑。例如,蘋果公司決定從其設(shè)備上的信息應(yīng)用程序中刪除槍支表情符號,這是一項有趣的努力,目的是監(jiān)督人們的言論,進而監(jiān)管他們的行為。
![]()
《竊聽風(fēng)暴》
情緒
第四,數(shù)字技術(shù)將對我們的感受和認(rèn)知產(chǎn)生日益明顯的影響。Facebook 最近進行的一項研究表明,數(shù)字技術(shù)可以通過過濾“積極”或“消極”的新聞內(nèi)容來影響用戶的情緒(有爭議的是,這項研究是在受試者不知情或沒有征得其同意的情況下進行的)。 而這僅僅是個開始:越來越敏感的技術(shù)將能夠有效地感知和適應(yīng)我們的情緒。有著能靈敏地回應(yīng)我們需求的“面孔”和“眼睛”的人工智能“伙伴”充斥在我們周圍,它們或許還能以其他方式激發(fā)我們的情感,我們的感知方式將牢牢掌握在技術(shù)手中。我們也將越來越受制于技術(shù)規(guī)范和習(xí)俗的約束,它們鼓勵我們以特定的方式行事。在創(chuàng)作可能產(chǎn)生流量或得到“病毒式傳播”的內(nèi)容方面,寫作者已經(jīng)感受到了壓力。對年輕人來說,在 Twitter 上吐露自己的內(nèi)心想法,在 Instagram 上展示自己的生活和身體,在 Facebook 上表達(dá)自己的好惡,都能獲得社會回報。
即時的感官體驗
最后,以前只有當(dāng)我們試圖了解視線之外的事物時,外部過濾器才會真正發(fā)揮作用,但在未來,我們會越來越多地將我們的直接感官體驗提交給過濾器。我曾在第一章中解釋,增強現(xiàn)實技術(shù)通過計算機生成的輸入,如聲音、圖像或視頻來增強我們對物理世界的體驗。智能眼鏡(以及最終基于視網(wǎng)膜的增強現(xiàn)實技術(shù))可能會為我們的所見提供一種視覺覆蓋;耳機也是如此。隨著技術(shù)越來越先進,即便你同時體驗現(xiàn)實與虛擬,想要區(qū)分它們也將變得越來越困難(或毫無結(jié)果)。如果增強現(xiàn)實或虛擬現(xiàn)實系統(tǒng)真的取代了“玻璃平板”計算模式,這種過濾形式的重要性就會上升。
我們看到了什么,什么被屏蔽了,哪些情感被激發(fā),哪些沒有被觸動——我們將把這些決定托付給為我們過濾世界的設(shè)備。一個把無家可歸者從視野中抹除的世界,意味著在這個世界中,無家可歸者的政治重要性很低。你的智能視網(wǎng)膜根據(jù)你伴侶身體發(fā)出的信號向你提供她的實時信息——她的笑容真誠嗎?她緊張嗎?她對你來電嗎?由于這種技術(shù)的存在,你們喝酒約會的結(jié)果可能是天差地別的。控制我們感知的這種力量,將使試圖控制我們的人的武器庫如虎添翼。
以政治學(xué)家的眼光,帶你觀看數(shù)字生活的未來圖景
在算法支配的世界里,奪回屬于人的主動權(quán)
原價98,現(xiàn)僅58.8??
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.