專訪沙瑞爾:美中在AI發展挑戰面前 美國的民主制度將更勝一籌

人們在上海參觀年度“世界人工智能大會”。(2022年9月1日)

Your browser doesn’t support HTML5

專訪沙瑞爾:美中在AI發展挑戰面前 美國的民主制度將更勝一籌

人工智能(AI)發展如果“失控”,人類社會將何去何從?在美中AI競爭日益激烈的情況下,這種擔憂最近得到包括特斯拉CEO馬斯克在內的專業人士的響應。

星期三(3月29日),美國生命未來研究所(Future of Life Institute)一封呼籲AI技術競爭“休兵”半年的公開信得到包括馬斯克在內逾千名科技界專業人士的簽名聯署。

公開信呼籲所有AI實驗室暫停腳步,在未來6個月停止訓練比GPT-4更強大的AI系統,以發展出一套有關AI設計與研發的安全準則。GPT-4是美國AI研究機構OpenAI最新發展出的AI模型;該機構此前發布了功能強大的AI聊天機器人程序ChatGPT。

公開信說:“只有當我們確信其效果是積極的、風險是可控的時候,才可以去開發強大的人工智能係統。”

長期關注AI安全性的華盛頓智庫新美國安全中心(CNAS)副總裁兼研究總監保羅·沙瑞爾(Paul Scharre)在接受美國之音專訪時說,必須確保AI系統安全可靠,“做我們期望它們做的工作”。

在美中科技競爭裡,人工智能被視為中國可望超越美國的關鍵技術領域之一。中國決策者已經定下在2030年前成為世界AI領導者的目標。

沙瑞爾在他最近出版的新書《四個戰場:人工智能時代的力量》(Four Battlegrounds: Power in the Age of Artificial Intelligence)中闡述道,美中在AI領域的競爭關鍵在於四個因素:數據、計算能力、人才和機構組織有效應用AI的能力。

北京以舉國之力支撐科技振興的戰略激發了中國AI技術的突飛猛進,而美國在將AI融合到國防和軍事科技時,常常面臨私營部門和政府機構之間難以對話的鴻溝。但沙瑞爾認為,美國的民主制度不是削減美國AI領先優勢的體制弊端,反而是在AI時代各國面臨科技“無限可能”所帶來的挑戰面前,讓美國具備了獨有的韌性和對專制趨勢的抵抗力。

沙瑞爾曾在美國國防部指揮制定無人駕駛和自主系統以及新興武器技術政策。美國之音就沙瑞爾的新書和最近與中國有關的科技焦點事件對他進行了專訪。

以下是專訪的主要內容:

記者:TikTok首席執行官週受資23日在美國國會作證。您如何看待此次聽證以及週受資在聽證會上的表現?

沙瑞爾: TikTok聲稱他們獨立於中國共產黨的影響之外。現實是,任何在中國經營的公司都必須意識到中國共產黨的政治考慮。字節跳動不能說冒犯黨的話,(否則)他們的領導會進監獄。當TikTok的首席執行官有機會證明自己獨立於中國共產黨的影響時,在被問到中國迫害維吾爾人的問題時,他卻沒有回答這個問題。現實是,就像中國的任何其他公司一樣,他們最終都要聽命於中國共產黨。如果黨給了他們一個他們不想遵從的要求,他們沒有獨立的司法機構可以尋求幫助,沒有自由的媒體可供他們求助,這正是任何在中國經營的公司面臨的政治現實。

幾年前,當美國聯邦調查局(FBI)要求蘋果公司解鎖恐怖襲擊者擁有的一部蘋果手機時,蘋果將FBI告上法庭,同時通過公開的媒體報導讓FBI接受公眾的輿論審判,而這兩種東西在中國都不存在。那些公司沒有這種自由。這是TikTok首席執行官無法迴避的現實。

2023年3月23日,TikTok首席行政官週受資在國會山作證。(視頻截圖)

記者:除了TikTok之外,美國的應用程序商店裡還有很多受歡迎的中國出品的app ,下載量排名很高。美國是不是也應該檢視這些應用程序的安全問題呢?

沙瑞爾:這取決於這些應用程序在做什麼。美中貿易正處於歷史最高水平。美國人從中國得到很多商品,中國人也從美國獲得很多商品,這是一件好事。但自從新冠疫情以來,我們越來越多地看到,人們對供應鏈安全的意識在增強。我認為,像手機應用程序這樣的數字技術,我們必須要意識到這些應用程序在做什麼,他們背後的公司是誰?這些公司會如何操縱我們需要重視的信息?所以我認為這在很大程度上取決於是哪些應用程序,以及它們在做什麼。

記者:回到您的新書主題-人工智能,就國家安全、特別是軍事用途來說,人工智能發展到了什麼階段?其應用到了什麼程度?

沙瑞爾:美國和中國軍方都在努力將人工智能融入軍事行動。人工智能的有趣之處在於,它不是來自國防企業,而是來自商業部門。世界上領先的人工智能公司都是商業公司——谷歌、微軟、亞馬遜、百度、阿里巴巴、騰訊、商湯、科大訊飛等。美國和中國都有領先的AI公司。

與那些往往出自機密國防實驗室的秘密技術相反,人工智能是從商業領域發展。軍方正在努力將人工智能技術從商業部門引入軍隊,然後對其進行調整,並找出如何使用人工智能的方法。

我們來看看歷史上那些顛覆性的技術,比如飛機。真正重要的是找出使用飛機的最佳方式,也就是如何在軍事行動中有效地使用飛機。人工智能也是如此,目前有大量的實驗。不僅美國和中國(在實驗),而且在烏克蘭戰場上,俄羅斯和烏克蘭都在進行(實驗)。我認為,隨著世界各地的軍隊開始將人工智能納入其軍事力量,我們將繼續看到人工智能的大量創新和改進。

記者:讓我們把焦點從烏克蘭轉向台灣海峽。美國可能因台灣捲入與中國的衝突。AI會如何影響這場可能的衝突呢?

沙瑞爾:人工智能從根本上是關於如何處理信息。我確實認為,如果在台灣問題上發生衝突,最重要的因素將是實體的衝突。中國人民解放軍要想入侵台灣,就需要兩棲進攻,這是任何軍隊都很難完成的軍事任務。他們必須在一個防禦非常嚴密的地區進行作戰,台灣和美國的軍事專業人員都會計劃在那裡進行防禦,所以(解放軍)很難成功,所以最重要的考慮因素是導彈、艦艇、水雷、魚雷、潛艇和飛機等等。

但人工智能可以為軍事行動的各個方面提供幫助,使其更容易找到敵軍,進行瞄準,製造更先進的彈藥。也可以在政治層面提供幫助。你知道,在烏克蘭戰爭之前,一件非常有意思的事,美國提前解密了普京部隊在烏克蘭周圍集結,以及普京將發動入侵的情報。這化解了(俄方)出其不意的可能因素,使美國和歐洲國家更容易團結起來保衛烏克蘭。

我認為,我們現在所處的時代,由於商業衛星圖像和信息革命帶來的信息可用性的增加,軍隊更難實施突襲。美國可以從遠處觀察到中國試圖對台灣發動的任何入侵,有充足的機會團結世界捍衛台灣,保衛台灣人民的自由。所以我認為人工智能可以幫助做到這一點,因為人工智能可以讓信息更容易處理,讓隱藏信息更難。

Maxar Technologies發布的衛星圖片顯示俄羅斯軍隊在靠近克里米亞黑海海岸部署的野戰醫院和駐軍帳篷。(2021年4月15日)

記者:你造訪過美中兩國先進的AI研究機構,能不能談談美中AI研發策略有何不同?

沙瑞爾:很大的一處不同點是,政府在中國政治經濟中的作用當然比在美國大得多。當我和中國領先的人工智能語音公司科大訊飛的高管會面時,他們告訴我說,他們公司一半的收入來自政府。美國任何一家大型人工智能公司都不會是這樣,比如穀歌、微軟、亞馬遜或Meta(注:臉書的母公司),政府對他們來說並不是那麼大的客戶。

因此,從中國的角度來看,這裡有利也有弊。一方面,那些政府支出肯定加速了中國國內一個非常有活力的科技行業的增長,既有百度、阿里巴巴和騰訊等大型科技公司,也有中國國內充滿活力的創業生態系統。但政府支出也往往是低效和浪費的,這並不總是對政府資本最有效的利用。

當然,近年來這一切都發生了變化,習近平對中國科技行業的打擊力度越來越大,馬雲等曾經強勢的巨頭都被管控起來,削弱了中國科技公司的實力。因此我認為,習近平對中國科技公司施加的政治約束會在多大程度上影響發展,是否會減緩它們的發展,還有待觀察。

記者:中國科技發展走軍民融合路線,人工智能也不例外。您在書中強調了國家領導人將AI融入經濟、社會和軍事的意願是AI發展的關鍵因素。美國準備好將AI融入軍事、在戰場上對抗中國了嗎?

沙瑞爾:美國幾年前存在的一個擔憂是,美國軍方在與民用科技公司合作時會遇到困難。幾年前,谷歌停止了一個名為Project Maven的美國軍事項目的工作,該項目使用了人工智能。谷歌、微軟和亞馬遜的員工抗議與美國軍方合作。他們寫了公開信,表示不支持與軍方合作,並對此表示抗議。就谷歌而言,這導致該公司領導層真的停止了這一項目的進行。

我認為,有一段時間,美國國安部門領導人非常擔心,如果美國科技公司不想與美國軍方合作,他們會落後於中國。當然,因為中國科技公司的員工不可能去寫公開信抗議與解放軍合作——如果他們這樣做,他們會被關進監獄。

我認為,我們已經看到,美國曾經的擔憂後來沒有發生。國防部對一些科技員工的擔憂做出回應,參與了一個非常漫長的內部流程……美國軍方與美國主要大學的學術界領袖進行了接觸。結果是,美國公開發布了一系列關於如何以道德和負責任方式使用AI的文件,包括國防部的人工智能倫理原則、負責任的人工智能指導方針和國防部去年發布的責任戰略。去年的美國《核態勢評估》發表了關於必須由人類控制核武器的聲明,以及美國國務院於2023年初發布的負責任使用人工智能的指南。

事實上,我們已經看到,許多美國科技公司願意與美國軍方合作,包括谷歌在內的所有主要科技公司現在都繼續與軍方合作。但在一定程度上,這是因為美國軍方一直非常積極地解釋它將如何使用人工智能,並確保以道德和負責任的方式運作。

美軍人員2016年3月22日訓練使用人工智能技術(美國國防部照片)

記者:中國有類似的人工智能使用限制的文件嗎?

沙瑞爾:中國已經發布了許多文件,包括中國科技部關於民用人工智能準則的文件。但中國人民解放軍對他們打算如何使用人工智能並不十分透明。所以我們不知道解放軍將如何使用AI,因為他們一直不太透明。

記者:美國針對中國的芯片行業進行製裁,一些人認為這將對中國的人工智能技術發展產生影響。美國的製裁策略會影響中國的AI產業嗎?中國能否找到替代方案,在芯片供應方面迎頭趕上?

沙瑞爾:我認為美國對芯片的出口管制對中國AI行業的重要性還有待觀察。以大語言模型(large language model)為例,這一技術需要大量芯片——數千個這種非常專業的芯片一次運行數週或數月,以構建像ChatGPT這樣功能最強的模型。但也有許多中國公司在建立自己的大語言模型,比如ERNIE(百度的文心一言)。目前,OpenAI(注:出品ChatGPT的美國研究機構)在這一領域處於領先地位。沒有多少其他公司能和他們比肩,就連谷歌也落後了。儘管谷歌過去在大型語言模型方面做了一些出色的工作,但他們部署的模型BARD效果並不是很好。所以,最優秀的中國公司可能只落後(美國的)領先優勢幾個月的時間,我認為這些芯片出口管制是否會產生效果還有待觀察。

百度總裁李彥宏展示人工智能聊天機器人文心一言。(2023年3月16日)

記者:既然你提到了ChatGPT,生成式人工智能現在是一個熱門話題。以ChatGPT為代表的生成式AI將如何影響國家安全?

沙瑞爾:我很高興你問了這個問題,這是一個很好的問題。大語言模型(注:ChatGPT的技術基礎)是一種生成性人工智能……但大語言模式是通用的……它們可以做很多不同的事情,這意味著它們本質上是軍民兩用的。因此,它們可以用來編寫可以用來生成文本的代碼,也可能被用來實施宣傳和製造虛假信息。人們擔心的一個問題是,他們可能被恐怖分子用來幫助實施恐怖襲擊。例如,讓人們學到如何實施攻擊,或者了解如何製造危險化學品、獲取化學武器以進行攻擊。這是一個實際的問題,人們非常擔心如何確保這些模型不會導致危險信息被分享。

另一個問題是,沒有人知道如何控制這些模型所說的話,所以一方面我們不希望這些模型說不好的話,生成危險的信息;另一方面,沒有人真正知道如何讓它們這樣做,這是現在的一個實際問題。這些大語言模型非常複雜,它們是我們從未真正經歷過的新興事物。因此,沒有人真的知道如何控制它們的行為,圍繞這些大語言模型的安全問題是非常真實的。

記者:謝謝您接受我的訪問。還有什麼新書要點是您希望強調的嗎?

沙瑞爾:我想我要強調的一件事是,如今,許多人工智能係統都存在非常嚴重的安全問題。它們往往會做出奇怪的事,我們需要在人工智能的安全方面做得更好,以確保我們正在推動的系統——無論是用於聊天機器人的商業系統還是軍事硬件——都是安全可靠的,確保它們會做我們期望它們做的工作。

(美國之音進行一系列採訪,反映有關美中關係及美國政策的負責任的討論和觀點。被採訪人所發表的評論並不代表美國之音的立場。)