最近幾週,中國加大了對台灣1月13日總統和立法院選舉的影響力度,一些專家指出了生成式人工智能帶來的假訊息活動的危險。 這種人工智能可以產生文字和其他類型的內容。
台灣人工智慧實驗室(Taiwan AI Labs)創辦人杜奕瑾(Ethan Tu)的公司使用生成式人工智能來識別和宣傳社群媒體資訊操縱趨勢。 他在星期二(1月5日)接受美國之音(VOA)視訊採訪時表示,從長遠來看,台灣必須加大力度,打擊人工智能生成的即影響台灣人態度認知戰。
以下是這段訪談:
VOA:中國透過認知戰干預選舉對這次台灣選舉的影響有多嚴重?
杜奕瑾:在今年的台灣大選中,網路資訊操縱越來越嚴重,特定行為體使用的技巧也越來越圓熟。 過去,很容易識別出發布大量類似評論的虛假中國帳戶,但在這次選舉中,由於生成式人工智慧的出現,這些帳戶開始區分自己的角色。 他們發表的評論正變得越來越多樣化。
確定所有這些網路水軍帳戶都在說同樣的話變得更難了。 生成式人工智能正在幫助擴大資訊操縱的影響。 台灣人工智慧實驗室的團隊正在觀察與選舉相關的新聞和線上用戶對話,我們可以看到這些網路水軍帳戶正在扮演什麼角色。
例如,在今年的選舉中,YouTube和TikTok上的短影片扮演著非常重要的角色。 雖然這些影片有不同的劇本和演員,但它們談論的是同一個話題。 根據這些短視頻,我們大概可以確定這些YouTuber製作的內容與中國官方媒體宣傳的敘事一致。
這些YouTube頻道的擁有者會假裝中立,但當他們談論影片中的事情時,他們會混入反映中國政府利益的訊息。 這些短影片中的訊息往往是親中國的,同時貶低日本和美國。 他們把中國描繪成一個和平締造者,同時將美國描述為將其他國家拖入戰爭。
我們在臉書(Facebook)上看到的另一種類型的帳戶負責將這些影片傳播到有影響力的社群。 例如,兩個特定的帳號會在三位總統候選人的臉書帳號下發表與中國官方媒體的敘述一致的評論。
這兩個帳號除了積極用中文國語評論台灣大選相關議題外,也積極用英語傳播訊息,旨在增加大眾對美國拜登政府的不信任。
在處理由生成式人工智慧助力的資訊操縱時,當你試圖揭穿謠言時,生成式人工智慧可能會使用當局試圖放大的正確資訊來製造更多謠言。 台灣目前用於打擊認知戰的事實查核機制,已被證明在這種特殊情況下是無效的。
應對生成式人工智慧造成的虛假資訊活動的最佳方法是使用生成式人工智慧技術來識別趨勢。 當相關活動激增時,研究團隊應與公眾分享相關資訊。
在我看來,這些認知行動在這次選舉中變得更有效,但透過台灣不同研究團隊的努力,台灣的輿論可以對認知戰的影響效果有更多的免疫力。
VOA:未來,中俄兩國發起的認知戰會更普遍嗎?
杜奕瑾:我的觀察表明,社群媒體平台和生成科技正在成為威權國家影響人們自由意志的重要武器。 整體趨勢不容樂觀。 有些人曾經願意在網路上公開反對某些水軍帳戶,但現在,這些人會受到網路水軍帳戶的攻擊,直到他們刪除這些評論。
現在的情況比2018年和2020年還要糟糕。 網路上挑戰認知戰的評論較少,因為人們害怕挺身而出。 另一方面,社群媒體平台上正在發生一些異常的審查制度。 這就是為什麼可信的媒體報道或相對中立和客觀的人無法在社交媒體上發聲的原因。
VOA:從長遠來看,台灣應該如何建立有效的機制來應對這些挑戰?
杜奕瑾:我們的團隊了解如何使用生成式人工智慧來防禦生成式人工智能造成的認知戰威脅。 然而,由於資源有限,我們只能嘗試教育其他團隊如何應對這些挑戰。 這還不夠。
作為世界上最早使用生成式人工智慧來檢測操縱生成式人工智能所創造資訊的行為的團隊之一,我們希望其他國際合作夥伴有興趣為防止威權國家使用生成式人工智慧影響世界各地的人們做出 貢獻,在民主國家之間建立聯盟。
如果世界各國有興趣這樣做,台灣應該站出來分享我們的想法和經驗。 台灣應該與他們合作,研究可以用來對抗認知戰行動的尖端科技。
論壇