Your browser doesn’t support HTML5
萊婭公主再生,或者羅伯特·德尼羅重返青春,這些都是影迷的美好幻想,可是有人擔心同樣的技術可能被用作武器,在大選中製造混亂。因此,社交媒體發起了抵制“人工換臉技術”Deepfakes的運動,和開發識別工具的競賽。
“我們進入了一個這樣的時代,我們的敵人可以讓任何人在任何時候說任何話。”
自從2018年演員喬丹·佩利模擬奧巴馬總統講話以來,真假之間的界限變得更加模糊。
Deepfakes利用人工智能綜合不同影像,製造出一個令人深信的虛構影像。
現在,這種迅速發展的技術已經唾手可得,而且很快會欺騙最有經驗的觀眾。
這個問題在總統大選年引起了警覺。
美國會眾議院情報委員會主席亞當·希夫說:“所謂的人工換臉技術可以讓有惡意的人煽動混亂、分裂和危機。他們可以破壞整個選舉,包括總統大選。”
社交媒體公司發出了一連串通知,表示將清除用來欺騙選民的人工換臉影像。
可是他們首先要找到這些影像,因此,設計識別換臉技術的數碼武器競賽正在展開。
漢尼·法里德是加州大學伯克利分校數碼取證專家,他擔心在大選的最後關頭會受到換臉技術攻擊。
法里德說:“你可以想像到的一種攻擊方式就是在大選之夜,或者初選前48或者24小時,公佈一則對候選人有破壞性的視頻,讓他們說他們從來沒有說過,或者傷害人甚至非法的話。”
法里德的團隊正在訓練人工智能軟件來截獲人工換臉影像。他們向軟件輸入每個總統候選人長時間的視頻,讓軟件了解他們的獨特舉止。
法里德說:“我們取一段視頻,跟踪面部表情。這個藍色盒子告訴我們他頭部的三維轉動,眼部的綠色鐳射告訴我們他看的方向,然後我們可以利用這些舉止來區分這是某個人的換臉技術還是真實視頻。”
法里德說:“我們希望讓主流媒體記者都擁有這個技術,然後在視頻播放時辨別是否真實。”
人工智能基金會也加入了識別真偽的努力。
人工智能基金會德利普·勞說:“這個模型可以識別這段錄像的哪個部分被篡改過。”
這家舊金山技術公司建立了他們認為有用的人工智能人物。 “很快我就可以跟你形影不離。”
就像這個人工智能人物迪帕克·喬普拉,不過他們必須同時公佈識別工具。
勞說:“我們希望識別我們創造的各種技術的潛在危險。”
由於沒有一個單一方法可以鑑別人工換臉技術,這個基金會正在發起一個叫做現實保衛者的平台,綜合很多研究機構的鑑別工具,讓公眾使用。
勞說:“這是我們的曼哈頓項目,打擊錯誤消息,因為這個項目需要來自多元化背景的人合作。”
網上媒體的消費者在製止錯誤信息擴散問題上也有著重要作用。
臉書禁止人工換臉技術,可是仍然允許效仿者,比如去年廣泛傳播的被篡改過的國會議長佩洛西講話。
法里德說:“你們消費者要對看到和你傳播的內容更加敏銳。”
未來,保護真實要靠我們每個人。