演算法權力和演算法統治,演算法背後什麼人?

語言: CN / TW / HK

圖片來源@視覺中國

文 | 陳根

2021年的今天,演算法正以越來越激進的方式影響著我們的生活。

隨著移動網際網路的廣泛普及與智慧手機功能的深度開發,以人工編輯為核心的傳統分發模式逐漸衰落,以演算法為核心的智慧分發模式興盛崛起。“演算法型”分發模式的出現和普遍應用,意味著人類開始運用人工智慧大規模地解決資訊分發問題,人類社會資訊分發也從“人找資訊”轉向“資訊找人”。

但主體的讓渡也導致了越來越多問題的出現。要知道,“演算法型”資訊分發更多地建立在對於人們的直接興趣和“無意注意”的資訊需求的挖掘上,它帶來的直接後果是:忽略人們必需的那些非直接興趣和需要“有意注意”的資訊,導致“資訊繭房”、演算法偏見、假新聞氾濫等問題的出現。

更重要的是,演算法並非是單純中立的。受到商業偏好的影響 ,在價值和利益的天平上,所謂的演算法 更容易 成為利益的砝碼 。當我們今天接收的資訊都是基於演算法,甚至資訊的產生也是基於演算法所得出的結論,我們看似民主、自由的社會與思想,其實在根本上已經被演算法“專制”所統治。當“演算法為王”的價值觀念已成為平臺的增長極之時,對演算法的導向糾偏也迫在眉睫。

被演算法控制的資訊世界

演算法以大資料為基礎,經由智慧媒體對資訊進行傳播,演算法傳播顛覆了傳統的傳播規則和傳播邊界,使得服務使用者成為傳播的根本動因。 在注意力經濟的驅使下, 它逐漸 成為受商業利益和政治目的驅動的自動化過程。

基於演算法的傳播呈現出可計算的特質,後臺將每個使用者內容消費的行為資料,比如使用者瀏覽時長、轉發、評論等,個體屬性資料以及社交關係資料進行大資料的統計和分析,進而挖掘使用者的愛好習慣和社交興趣網路,最終生成精準的使用者畫像,像使用者推送最具個性化需求的資訊。

演算法推薦讓編輯篩選模式下的 人找資訊 變為  資訊找人 ,使用者成為了演算法架構或程式編碼的價值落點 資訊分發的價值判斷機制則從由編輯判斷轉變為由機器來決定,由此把資訊內容的推送交給了“演算法把關”。

演算法推薦的優勢顯而易見。一方面 ,演算法 推薦 在網際網路時代高效對接了受眾需求和資訊。 演算法通過對社交推薦機制進行二次過濾,優化推薦結果,從而提升了網際網路內容推送的精準度。例如,各類平臺都可以根據使用者的社交行為、地理位置、職業、年齡等推斷出使用者的興趣點,並判斷這些興趣的重要程度或者先後順序進行推送,從而實現個性化資訊推送。

另一方面, 個性化推送下,通過對資料的挖掘,原來被忽視的大量長尾資訊 得以 被挖掘 。這些非主流、個性化的產品需求,經過散落在社會各個角落中的使用者的積累,能夠更好地適配不同的長尾資訊。這使得資訊價值不再有統一的標準,不再有重要性的絕對的高低之分。

演算法讓資訊和人能夠精準和高效地匹配,這也成為網際網路資訊流動的核心邏輯。 甚至可以說,機器演算法在一定程度上決定著資訊的意義、資訊的流向以及受眾對資訊感知的方式 。雖然演算法掀起了傳播領域的一場革命,但隨著演算法日漸接管了人們的資訊來源,演算法背後存在的隱患也逐漸凸顯。

比如,演算法通過精確的個性化描述打造了個性化的社群,形成了新的人際交往形式——“圈群文化”。隨著圈子的粘性增強,圈子不可避免地會出現排他性。因此,社交媒體在運營的後期往往會出現“文化邊界”。 於是, 人們在自己選擇的圈子裡活動,久而久之 終於 形成 資訊繭房

很大程度上,這是一種“自我”設限——使用者就像蠶一樣被自己吐的絲禁錮在自己製造的“資訊繭房”裡。長期生活在“資訊繭房”之中,無疑會令使用者越來越沉溺於自己的迴音,在資訊繭房中越陷越深。“資料化”的人將會失去對整個社會的理解與全域性批判的能力,甚至會造成群體“極化”現象。

再比如, 演算法在描繪社會現實的同時也體現出現實中的偏見, 演算法依賴於大資料 顯然, 大資料並非中立 。於是,它們可能有利於白人男性,而不利於女性、老年人、單親父母、有色人種、非英語居民等。

事實證明,新生的人工智慧推特機器人可以在幾個小時內成為白人至上主義者,自動生成的標籤將非裔美國人的照片標記為大猩猩。在亞馬遜公司開發的一款用於篩選簡歷的演算法中,也曾意外“培養”出歧視女性應聘者的偏好。 顯然,演算法從受相同偏見影響的內容中學習到更多偏見,這些認知偏見經網上廣泛傳播後導致更為廣泛的社會衝突。

當然,不論是資訊繭房,還是技術偏見,都是我們能看到的最直接的演算法帶來的社會問題。除此之外,更重要的是受到商業偏好的影響,控制著演算法的利益市場,使得演算法日益淪為利益的砝碼,造成幾千年來人類社會所追求與構建的民主、自由的社會受到挑戰和損傷。

演算法背後的利益市場

當前,隨著演算法在資訊的管理與分發領域佔據了支配地位,並逐漸在把關機制中代替了傳統媒體把關人的角色,開始發揮主導作用。

然而, 演算法由各個網際網路平臺組織設計,我們將 資訊 的把關交給演算法時,也就意味著交給了演算法背後的利益市場 。在完全自由的資訊市場中,演算法作為一種壟斷性技術,通過技術的方式,實現對資訊產品生產和消費的控制。

傳統媒體時代,人們能夠主動選擇資訊;而在演算法時代裡,資訊的選擇則由演算法進行分配,將所有資訊“對號入座”,根據使用者需求的資料決定把關的強弱,即使用者需求越多,就給予越多的資訊資源。這種把關機制的執行導致資訊成為一味迎合使用者市場的純粹的消費品,失去其本身的價值意義。

事實上,在網際網路剛出現之時,人們也曾 憧憬 過: 網路空間代替城市空間接管公共領域,創造前所未有的理想公共領域的可能 。所謂公共領域,用德國著名哲學家哈貝馬斯的話說,就是指“政治權力之外,作為民主政治基本條件的公民自由討論公共事務、參與政治的活動空間”。

畢竟那個時候,人們所看到的,都是演算法運用的無可比擬的優勢——立足於大資料之上,演算法通過對海量資料樣本的全盤分析可能得以窺探事物的全貌,避 免人類因有限的觀察體驗而產生的侷限性,可以更為準確地反映客觀世界,並盡力排除人的主觀因素的影響,由此作出更為科學的判斷

人們渴望通過公共領域,得以展現自我,用社會的規則知識填補先驗知識的缺陷,並與他人建立現實的聯絡。然而,雖然網際網路極大地促進了公共討論的發展,看似具備公共領域的基本特徵, 顯然 這只是表象 —— 它不是公共領域,政治權力與大企業完全有能力迫使網際網路按照自己的意願發展

所謂的演算法權力,正是指其背後潛藏著的控制演算法設計和研發過程的資本的權力,技術權力只是表徵而已。資本驅動下的演算法權力倘若缺少必要的規制,勢必傾向於將利益置於人的價值的之上。早在2015年,Facebook就因其人工智慧推薦內容存在政治偏見,飽受使用者對的指責。

2018年3月,Facebook更是爆發了轟動全球的“Facebook資料門”事件,8700萬Facebook使用者的個人資料被出賣給一家叫做“劍橋分析”的公司。這家公司操縱這些資料,最終成功地通過選舉程式,使得英國脫歐、特朗普上臺。從本質上看,正是Facebook為了自己的利益而不正當使用了演算法。

更值得注意的是,演算法決策在公權力領域的運用 表明 演算法權力嵌入了傳統公權力的執行,這可能使技術和權力產生合謀而存在權力濫用的風險 。並且,演算法權力可能會使既有的權力制約機制在一定程度上失靈。

在公共權力的長期運作過程中,演算法的“技術合理性”又使其蒙上了可以巧妙避開民主監督的面紗。演算法對公權力領域的介入挑戰了傳統的權力專屬原則和正當程式原則,難以對其實施有效的權力控制,而失範的權力最終必將導致個體權利的減損。

演算法的背後是誰?演算法到底代表著誰的思想與目的?可能是控制新聞輿論的政黨,可能是控制著網際網路平臺的決策者,也可能是構建演算法的工程師在構建過程中加入了自己想實現的一種“統治”思想。

因此,當前我們人類所面臨的挑戰,尤其是在人工智慧時代,在演算法統治的時代,我們的資訊或許越來越便利的同時,我們人類幾千年所在追尋的民主、獨立、左右將會在演算法“統治”下,而這種“統治”的背後,則是控制演算法的利益市場。  

演算法的統治

專制主義是一種平等的結構,除了統治者,其他人都是平等的,因為他們沒有實質的政治權力。統治者的權力不受法律的制約——中國古代的封建王朝,太陽王路易十四治下的法國波旁王朝,是典型的專制主義政體—— 儘管律令具有一定的權威性,但皇權掌握著最高司法解釋權與裁判權。

極權主義相反,雖然蔑視成文法,但它比任何政府形式都更服從法律的力量。與常識不同,它沒有使權力從屬於某個人的利益,而是隨時準備犧牲每一個人的利益,來執行它認定的歷史法則和自然法則。 阿倫特把極權主義的本質概括為反文明的、反制度的、反功利的與反責任的 而這些特點,正在演算法時代裡上演

極權主義是反文明的。極權主義的野蠻行徑,體現在其運用恐怖進行統治的方面。恐怖不是簡單的暴力,不完全依賴於低效的肉體消滅,它是一種肉體與精神層面的全面摧毀和控制。通過恐怖,宣告個人因為不符合歷史需要被剔除;通過恐怖,使人整齊劃一,失去個性與獨立性。

極權主義是反制度的,它是一種“為擴張而擴張”運動。極權主義的興起與民族國家的衰落是同一過程,為了使運動進行下去,需要模糊國家疆域的邊界,樹立一批又一批敵人,將聚焦於內部的矛盾轉移到外部。

極權主義是反功利的,它用意識形態代替功利計算。這種意識形態聲稱能夠解釋一切,提供一整套關於自然與歷史的邏輯,從而建立統治的合法性。

極權主義還是反責任的,它是一種宿命論。這種宿命論以理性主義為基石,聲稱發現了自然與歷史規律,以“民族復興”等現代神話取代傳統宗教,用歷史進步的目的代替個人的道德觀念。

阿倫特對極權主義的思考,不只是為了挖掘出構成極權主義意識形態與政治制度的因素,更是要提出重建現代性的可能方案。她的第一本著作《極權主義的起源》,正是以政治哲學這個視角審視極權主義興起過程的:現代反猶主義表現了公共領域的變質,西歐民族國家的帝國主義政策使公共領域瓦解,納粹德國和斯大林時期蘇聯的極權主義政治意味著了公共領域的最終崩潰。

今天由演算法支配的市場,呈現出來的正是這樣的邏輯 雖然極權主義作為一種政體已經終結,但是公共領域被破壞的陰影猶在——資本的商品交換邏輯滲透到了公共領域,大眾傳媒的商業化製造了虛假的公共性,審美的庸俗化和娛樂化則消解了社會的批判意識。

消費、技術與知識崇拜席捲一切,一方面,我們越來越重視商品的符號性,通過消費獲得身份認同;另一方面,我們把技術、知識這種間接經驗看作認識世界、瞭解世界的主要方式。

我們認可的價值與觀念越來越多地來自演算法的資訊分發而非自我實踐,我們也越來越多地放棄了自發的、具有想象力的,能夠體現人類尊嚴和自由的行動, 取而代之的是被設計好的、批量生產的、可預期與控制的行為,包括人生價值和意義。

當前,演算法的興起和異化顯然已經摺射出技術存在的風險與非理性,而目前規制演算法的具體法律規則付之闕如,放任演算法的發展很可能將人類社會導向令人惴惴不安的境地。 好在 雖然演算法有著人類無法想象的計算能力和速度,但這並不意味著演算法超出人類的理解範疇,更不意味著人類對此沒有充分的規制能力

柏拉圖提出過一個著名的“洞穴隱喻”:洞穴中的囚徒們頭只能看見火光投射到洞壁上的陰影,因而將洞壁上的陰影當作現實本身。 當其中一個囚徒被解除了桎梏,走到太陽下,他會因為光線的強烈刺激感受到劇烈的痛苦,但他終究能夠看到太陽本身。 正是人的獨特的價值指引著人們去追尋真善美的生活,人類文明才能夠雋永地存在和發展。