IEEE Spectrum調查:AI 的 6 種最壞情況

語言: CN / TW / HK

編譯丨辛西婭

稽核丨維克多

對於人類社會,人工智慧(AI)帶來的最大威脅是什麼?好萊塢科幻電影的“想象”提供了答案:它逐漸進化,獲得人類思考能力,然後變成霸主,奴役或毀滅人類。也有些觀點認為: 在AI不知不覺殺死所有人之前,會存在許多危險情形。

2022年1月份,IEEE Spectrum訪談了多位技術專家,列舉出了當前6種AI危險事例,這些危險比科幻電影的描述“風平浪靜”,卻同樣具有威脅性,如果放任自由會有意想不到的後果。它們分別是: 虛擬定義現實、AI軍備競賽、隱私透明、斯金納箱現象、AI偏見以及過度擔憂AI影響。

1

當虛擬定義現實……

當人類無法區分數字世界中的真實與虛假時,會發生什麼?

設想這樣一個場景:AI已經擁有完美生成的能力,利用先進的機器學習工具生成的影象、影片、音訊和文字已經“以假亂真”。但如果決策者陷入假資訊旋渦,並做出決斷,不可避免會導致危機。當上升到國家高度,甚至會發動戰爭。喬治敦大學的研究員安德魯•羅恩(Andrew Lohn)認為: AI已經能夠產生大量以假亂真的資訊。 而且AI的特點是“隨著大量資訊的生成,系統會不斷與真實資訊進行對比,並且升級生成能力”。

AI資訊生成技術也被稱為“ DeepFake ”,其帶來的惡作劇已經造成了某些影響。例如去年5月份,一些歐洲高階議員收到了一些“俄羅斯反對派人物”的影片會議邀請,還煞有其事地討論了克里米亞問題之類的政治事務,結果發現在這些所謂的“俄羅斯反對派人物”都是別人用Deepfake換臉假冒的。這些受騙者包括拉脫維亞議會外交事務委員會主席Rihards Kols,以及來自愛沙尼亞和立陶宛的議員……

2

一場危險的逐底競賽

當談到AI和國家安全時,開發速度既是重點也是問題所在。由於AI系統能為使用者帶來速度優勢,所以最先開發軍事應用的國家將獲得戰略優勢。但是,一味追求速度可能會犧牲哪些設計原則呢?

首先,是 “質量”問題 。例如黑客會利用系統中微小的缺陷。喬治敦大學的海倫·託納(Helen Toner)表明:“從一個無傷大雅單點故障開始,然後所有通訊失靈,人們恐慌,經濟活動陷入停滯;隨後持續的資訊缺乏,再加上其他錯誤計算,可能導致局勢失控。”

另一方面,瑞典的斯德哥爾摩國際和平研究所高階研究員文森特•布拉南警告可能發生重大災難:“大國為了贏得先發制人的優勢而‘偷工減料’,如果一個國家將開發速度置於安全、測試或人為監督之上,那麼這將是一場危險的競逐。”例如,為了獲得速度優勢,國家安全領導人可能會傾向於授權指揮和控制決策,取消黑盒機器學習模型的人為監督。想象一下,如果自動發射導彈防禦系統處於無人監督的環境下會發生什麼?

3

隱私和自由意志的終結

使用數字技術的過程中產生了大量的電子資料,例如傳送電子郵件,閱讀文字,下載,購買,發帖等等。當允許公司和政府訪問這些資料時,也意味著賦予工具監視和控制我們的許可權。

隨著面部識別、生物識別、基因組資料分析等技術興起。安德魯•羅恩擔心:“我們有時候並沒有意識到大資料跟蹤和監視技術的不斷髮展,會使我們進入了未知的危險領域。” 資料一旦被收集和分析,其作用就會遠遠超出跟蹤和監視的功能 ,例如AI的預測性控制功能。今天,AI系統可以預測我們將購買哪些產品,我們將觀看哪些娛樂節目,以及我們將點選哪些連結。當這些平臺比我們自己更瞭解我們時,我們可能不會注意到這種微小的變化,但它剝奪了我們的自由意志並使我們受到外部力量的控制。

4

人類的斯金納箱實驗

曾經在20世紀70年代,有位叫做Walter Mischel的研究專家,在美國斯坦福大學附屬幼兒園基地內進行了著名的“棉花糖”實驗,又稱—— 延遲滿足”實驗。

而這個實驗的觀察資料,以及後期對這些孩子的追蹤觀察說明:

那些延遲滿足能力強的孩子,自我控制能力也就越強,可以在沒有外界監督的情況下,自主性的控制調節自身行為,在某一個任務完成程度上,要更勝一籌。

當前,具備延遲滿足能力孩子也會屈服於AI演算法給出的誘惑。

進一步,社交媒體使用者已經成為實驗室中的老鼠,生活在斯金納盒子裡。這些使用者沉迷於手機,被迫犧牲更多寶貴的時間和注意力在數字平臺上。

海倫·託納認為:“演算法經過優化,可使使用者儘可能長時間地‘留’在平臺上。”著名作家馬爾科姆·默多克解釋道:“通過以喜歡,評論和關注的形式提供獎勵,演算法會縮短我們大腦的工作方式,讓我們不自覺地去參與下一個。”

為了最大化廣告利潤,公司把我們的注意力從工作、家人、朋友,責任甚至愛好上轉移。更糟糕的是,如果推送內容質量下降,使用者會痛苦和暴躁。海倫·託納警告:“我們在平臺上花費的時間越多,花在追求積極、高效和充實生活上的時間就越少。”

5

人工智慧設計的“暴政”

把更多的日常生活交給人工智慧機器是有問題的。 即使出於最好的意圖,AI系統的設計,包括訓練資料和數學模型,也反映了程式設計人員的“狹隘”經驗和興趣。

當前,許多AI系統沒有考慮到不同人的不同經歷和特徵,AI模型的訓練往往基於有偏見的觀點和資料,無法充足考慮每個人的獨特需求來解決問題,因此 此類系統在人類社會中缺乏一致性。 甚至在AI大規模應用之前,對日常生活中常見物品的設計往往也是迎合了特定型別的人。例如,研究表明,汽車、包括手機在內的手持工具,甚至辦公室環境中的溫度設定都是為適合中等身材的男性而設定的,這使得包括女性在內的各種身材和體型的人處於劣勢,有時甚至會對他們生活造成危害。

當不屬於有偏見規範的個人被忽視、邊緣化和排斥時,AI就會變成卡夫卡式的守門人 拒絕提供客戶服務、工作、醫療等服務,這些設計決策的目的約束人們,而不是將他們從日常事務中解放出來。此外,這些選擇還可以將一些最惡劣的偏見轉化為種族主義和性別歧視,造成嚴重缺陷和有偏見的判決結果。

6

對人工智慧的恐懼剝奪了人類的利益

構建機器智慧的過程最終以數學為中心 ,正如默多克所言:“如果我們不注意的話,線性代數會做非常瘋狂而強大的事情。”但是,如果人們變得極度害怕AI,並且督促政府通過剝奪“AI便利”方式對其進行監管,那會怎樣呢?

畢竟AI已經幫助人類實現了重大科學進展,例如DeepMind的AlphaFold模型通過氨基酸序列精確預測蛋白質摺疊結構方面取得了重大突破,使科學家能夠識別98.5%的人類蛋白質的結構,這一里程碑將為生命科學的快速發展提供堅實的基礎。考慮到這些AI好處,政府為防範“AI作惡”而採取的下意識監管行動也可能適得其反,併產生它們自己意想不到的負面後果,在這些後果中,我們對這項巨大技術的威力感到如此恐懼,以至於我們拒絕利用它為全世界帶來實際好處。

參考連結

Via https://spectrum.ieee.org/ai-worst-case-scenarios

雷峰網 (公眾號:雷峰網)

雷峰網版權文章,未經授權禁止轉載。詳情見 轉載須知

「其他文章」