2022 年網際網路隱私方面的一些趨勢預測

語言: CN / TW / HK

網路聊天不僅僅是為了娛樂或與朋友聊天,這是支撐著我們社會最基本的功能,例如物流、政府服務和銀行業務。消費者通過即時通訊工具與企業聯絡並訂購外賣,而不是去實體店,科學會議在虛擬會議平臺上舉行,遠端工作成為越來越多行業的新常態。

網路上的這些行為都涉及到隱私,隱私保護技術是今年討論最多的話題之一,儘管對某些看法還存在分歧,例如對NeuralHash 或Federated Learning of Cohorts的使用。有研究人員通過逆向編譯,發現蘋果用於檢測 iCloud 照片中是否存在兒童性虐待材料 (CSAM) 的 NeuralHash 演算法存在漏洞,可能會被黑客利用;年初,谷歌公佈了一種新的 API,名叫 Federated Learning of Cohorts (FLoC),該 API 有望在 Chrome 瀏覽器上取代 Cookie。FLoC 使用機器學習演算法來分析使用者資料,然後根據個人訪問的站點建立人群的集合。廣告商不會獲得使用者的本地資料,而是直接獲得更廣泛的人群畫像,從而進行廣告投放。然後谷歌的這一改進卻引起了諸多批評。儘管如此,網路隱私還是在不斷在向前邁進,比如蘋果已經公開回應,為打消用過戶的顧慮,將對Siri進行一些更改。在預設情況下,將不再保留Siri互動的錄音,另外,Android 12還有一個Android隱私運算核心(Android Private Compute Core),把特定功能的資料處理維持在裝置上,像是即時字幕、可查詢附近所播放音樂的Now Playing,以及智慧回覆(Smart Reply)等,以保障使用者隱私;最近隱私瀏覽器Brave開發公司Brave Software近日宣佈與美國加州大學聖地亞哥分校合作提出一種解決方案SugarCoat,允許在不犧牲網路規模相容性的情況下改善隱私。SugarCoat通過自動建立跟蹤庫的隱私保護實現,以幫助解決這種隱私與相容性的權衡。據悉,Brave將於今年第四季度開始向Brave瀏覽器使用者推出SugarCoat生成的指令碼,此外還會與流行內容攔截工具的維護者合作,以便這些工具可以增強使用者隱私。另外,我們還看到了許多新的私人服務,許多專注於隱私的公司邁出了貨幣化的第一步,並且在 iOS 和 Android 上都在技術和營銷方面大力推動隱私。 Facebook(現在的 Meta)也開始為使用者提供更多隱私,在 WhatsApp 中提供端到端的加密備份,並從 Facebook 中完全刪除面部識別系統。

雖然我們希望 2022 年是大流行的最後一年,但我們認為隱私趨勢不會逆轉。這些過程會產生什麼後果?在這裡,我們提出了一些關於哪些關鍵力量將在 2022 年塑造隱私格局的想法。

BigTech(大型科技企業)將為人們提供更多的工具來保護他們的隱私

今年4月,蘋果頂著Facebook的激烈反對,強硬調整隱私政策推行了ATT,所有App Store上架的App都必須遵守這一新政策,即App開發者需要徵得使用者許可,才能跟蹤使用者或訪問其裝置的IDFA(Identifier for Advertising,廣告標識)。

簡而言之,App要想獲得及處理蘋果使用者的資料,必須徵得同意。

毫無疑問,這一新政當然會獲得那些在乎個人資料安全及隱私的使用者的歡迎,而Facebook則是其最大的反對者。

如果無法便利地追蹤使用者行為,Facebook的廣告推送將不再那麼精準。蘋果公司軟體工程高階副總裁克雷格·費德里吉(Craig Federighi)曾用8秒鐘一句話概述了蘋果隱私新政ATT到底是什麼:ATT給予使用者是否願意被App和網站追蹤的選擇權。今年的Facebook可謂困難重重。一邊是被蘋果的隱私新政處處掣肘,還因各種資料和青少年保護問題被美國國會和各行政部門反覆摩擦,而另一邊它自己也在尋求變化。

由於公司必須在全球範圍內遵守更嚴格和更多樣化的隱私法規,因此他們為使用者提供了更多工具來控制他們在使用服務時的隱私。有了更多的設定,有經驗的使用者或許可以根據自己的需要設定隱私。對於不太懂電腦的人,不要指望預設隱私設定可以保護你的隱私:即使在法律上有義務預設提供隱私,那些靠資料收集為底線的企業也會繼續尋找漏洞誘使人們選擇較少隱私的設定。

隨著政府建立自己的數字基礎設施,讓更簡單和更廣泛地獲得政府服務,並希望提高透明度和問責制,以及對人口的更深入瞭解和對其進行更多控制,難怪他們會對通過大型商業生態系統傳遞的有關本國公民的資料表現出更大的興趣。這將導致更多的監管,如隱私法、資料本地化法,以及對哪些資料和何時可被執法人員訪問的更多監管。蘋果CSAM掃描隱私難題恰恰表明,一方面要找到加密和使用者隱私之間的平衡,另一方面要找到犯罪行為之間的平衡是多麼困難。近日,中國發布了《網路資料安全管理條例(徵求意見稿)》,對資料儲存、資料流通、資料使用等資料合規問題進行約束。《徵求意見稿》緊密貼合當下網路資料安全管理熱點,在資料分級、資料“出海”、大資料殺熟、身份認證、資訊洩露報備等方面給予了詳細的指導意見。另外,中國還先後釋出了《中華人民共和國網路安全法》《中華人民共和國資料安全法》《中華人民共和國個人資訊保護法》。

資料保護和機器學習的矛盾將繼續存在

現代機器學習通常需要訓練具有驚人數量引數的巨大神經網路(雖然這並不完全正確,但人們可以將這些引數視為大腦中的神經元),有時達到數十億的數量級。多虧了這一點,神經網路不僅可以學習簡單的關係,還可以記住整塊資料,這可能導致私人資料和受版權保護的材料洩露或導致社會偏見。此外,這導致了一個有趣的法律問題:如果機器學習模型是使用我的資料訓練的,我是否可以(例如,在 GDPR 下)要求消除我的資料對模型的所有影響?如果答案是肯定的,這對資料驅動的行業意味著什麼?一個簡單的答案是,公司必須從頭開始重新訓練模型,這有時可能代價高昂。這就是為什麼我們期待更有趣的發展,無論是在防止記憶的技術方面,還是在使研究人員能夠從已訓練的系統中刪除資料的技術方面。

機器學習演算法的透明度是一把雙刃劍

複雜的演算法,例如機器學習,越來越多地影響我們的決策,從信用評分到人臉識別再到廣告。

隨著大資料、雲端計算、人工智慧等技術疊加發展,人工智慧倫理和演算法公平的問題亦逐漸受到關注。大資料殺熟,電商平臺有償搜尋、有償排名,個人資訊精準推算引發的演算法歧視,短影片和遊戲行業的“成癮”機制等問題逐步引發了輿論的廣泛關注。公眾認識到“演算法”不僅被用來對消費者的喜好進行畫像,在一定程度上還參與了勞動秩序和規則的制定,參與社會治理。因此,“演算法”是否公平不僅僅是某個平臺和企業的內部管理問題,還涉及公共利益。

雖然有些人可能喜歡個性化,但對其他人來說,這可能會導致令人沮喪的經歷和歧視。想象一個線上商店,它根據一些模糊的LTV(終身價值)預測演算法將其使用者劃分為更有價值和更低價值的使用者,併為更有價值的使用者提供實時的客戶支援聊天,而將不那麼幸運的使用者留給一個遠遠不夠完美的聊天機器人

“宅”家辦公所帶來的個人和企業隱私問題將會持續存在

隨著疫情的發展,企業紛紛發出遠端辦公的倡議,特別是高科技企業更是如此,現在,Facebook、Twitter、Okta和Box等科技公司宣佈將更永久性地轉向混合辦公的模式轉換。“宅”家辦公期間,企業將高度依賴第三方辦公平臺進行公司的日常運營,以及核心會議與相關決策。一旦所選擇的平臺有風險,公司的商業機密以及關鍵資料均存在洩漏可能,嚴重時將危害公司生存與發展的命脈。企業遠端辦公時的最大擔憂,就是關鍵資料庫內容有可能丟失或被不軌方竊取,造成使用者資料、運營決策、商業機密外洩等嚴重隱私問題。從員工角度來講,他們在家裡的一舉一動受到跟蹤,這又似乎侵犯了他們的隱私。為應對遠端辦公,員工被戴上了“數字枷鎖”。當人們在家工作時,採用攝像頭監控其辦公情況這一行為可能存在很大問題。攝像頭可能會捕捉到員工的家人或同住者的畫面,意味著他們的隱私會遭到侵犯。有些公司使用人工智慧和演算法等工具來跟蹤員工和他們全天的工作,甚至是面部識別,以確保員工確實是在坐在辦公桌前辦公。