許多年前 ChatGPT 發布之前,我的研究團隊,劍橋大學社會決策實驗室,曾經想知道是否可能讓神經網絡生成虛假資訊。為了實現這一目標,我們訓練了 ChatGPT 的前身 GPT-2,使用流行陰謀理論的例子,然後要求它為我們生成假新聞。它給了我們數千條具有誤導性但聽起來似乎合理的新聞故事。一些例子包括:“某些疫苗含有危險化學物質和毒素”,以及“政府官員操縱股價以掩蓋醜聞”。問題是,是否有人會相信這些主張?
我們創建了第一個心理測試工具來測試這個假設,我們稱之為誤訊息易受性測試(MIST)。與YouGov合作,我們使用AI生成的標題來測試美國人對AI生成的假新聞的易受性。結果令人擔憂:41%的美國人錯誤地認為疫苗標題是真實的,46%的人認為政府正在操縱股市。另一項最近的研究,發表在《科學》期刊上,不僅顯示GPT-3比人類更能產生引人注目的虛假資訊,而且人們無法可靠地區分人類和AI生成的誤訊息。
我的2024年預測是,AI生成的虛假資訊將出現在您附近的選舉中,而您可能甚至都沒有意識到。事實上,您可能已經接觸過一些例子。2023年5月,一個關於五角大樓爆炸的虛假故事在網絡上流傳,伴隨著一張由AI生成的圖像,顯示一大片煙霧。這引起了公眾的騷動,甚至導致股市下跌。共和黨總統候選人羅恩·德桑蒂斯在他的政治競選中使用了唐納德·川普擁抱安東尼·福奇的虛假圖像。通過混合真實和AI生成的圖像,政治人物可以模糊事實和虛構之間的界線,並利用AI來加強他們的政治攻擊。
在生成式人工智慧爆發之前,全球的網路宣傳公司需要自行撰寫誤導性訊息,並雇用人類駭客工廠來大規模針對人群。在人工智慧的協助下,生成誤導性新聞標題的過程可以自動化並武裝化,幾乎不需要人類干預。例如,微觀定位——根據數據跡象,如他們的Facebook喜好,針對人群發送訊息的做法,在過去的選舉中已經引起關注,儘管其主要障礙是需要生成數百種變體的相同訊息,以查看對特定人群有效的內容。曾經是勞動密集且昂貴的工作現在變得便宜且隨處可得,而且無需進入門檻。人工智慧有效地實現了虛假資訊的民主化:現在任何可以存取聊天機器人的人都可以在特定主題上種植模型,無論是移民、槍支管制、氣候變化還是LGBTQ+議題,都可以在幾分鐘內生成數十條高度令人信服的假新聞故事。事實上,已經有數百個由人工智慧生成的新聞網站出現,傳播虛假故事和影片。
為了測試這種由人工智慧生成的虛假資訊對人們政治偏好的影響,研究人員來自阿姆斯特丹大學,他們製作了一段深度偽造影片,其中一位政治人物冒犯了他的宗教選民基礎。例如,在影片中,這位政治人物開玩笑說:“如同基督會說的,不要因此釘我在十字架上。” 研究人員發現,觀看這段深度偽造影片的宗教基督教選民對這位政治人物持有比對照組更負面的態度。
用人工智慧生成的虛假資訊欺騙人們在實驗中是一回事。但實驗我們的民主則是另一回事。到了2024年,我們將看到更多深度偽造、語音克隆、身分操控和人工智慧製造的假新聞。政府將嚴格限制 - 如果不是禁止 - 在政治競選中使用人工智慧。因為如果他們不這樣做,人工智慧將破壞民主選舉。