特斯拉CEO馬斯克日前帶頭號召人工智能(AI)研究機構暫停ChatGPT那樣的大語言模型發展,反映出不少人對於AI發展速度失控的擔憂甚至恐慌。這一獲得超過兩千多簽名的倡議並未引起多數中國AI業者的興趣。批評者說,美國AI研究機構若主動放慢AI發展,將給中國以可乘之機。
GPT-4的出現令人不安
基於AI大語言模型的聊天機器人ChatGPT去年年底推出後,其強大的語言表達和信息整理能力隨即引發世人震驚。不久前,ChatGPT的研發機構、美國OpenAI實驗室本月推出了功能更為強大的升級版本GPT-4,不僅能回答文字提問,還能分析圖片信息。
更讓科技觀察人士感到震驚的是OpenAI於本月23日推出的GPT-4插件功能,讓這一大語言模型實時接入互聯網上的信息,甚至可以接入第三方應用程序。有人將GPT-4插件的重要性比喻成從傳統手機到iPhone那樣質的飛躍。
AI大語言模型發展“失控”,讓許多科技業界人士感到不安。
“我對我的同事說,哇,這是(AI大語言模型)向前邁出的非常重要的一步。” 英國搜索引擎公司Mojeek首席執行官科林·海赫斯特(Colin Heyhust)在一次電話採訪中,向美國之音形容他了解到插件功能時震驚的感受。
海赫斯特同其他逾千名科技界人士一道,簽署了一封由美國生命未來研究所(Future of Life Institute)3月29日發起的聯名信,呼籲所有AI實驗室暫停腳步,在未來6個月停止訓練比GPT-4更強大的AI系統,以發展出一套有關AI設計與研發的安全準則。
公開信說:“只有當我們確信其效果是積極的、風險是可控的時候,才可以去開發強大的人工智能係統。”
公開信得到了很多科技業大佬的響應,因此受到各方矚目。聯署人包括特斯拉CEO馬斯克和加拿大人工神經網絡和深度學習技術專家約書亞·本希奧(Yoshua Bengio)。馬斯克是生命未來研究所的創始人之一。
公開信說,AI正在開始在一些任務上與人類展開競爭,對AI的極速發展提出了五大質疑:是否應該讓機器在人類信息渠道中散步宣傳和謊言?是否應該讓所有工作(包括那些讓人類具有成就感的工作)都自動化?是否應該培育出最終可能在數量和智力上超過人類、讓人類過時並取代人類的非人類思維?是否應該冒著失去對人類文明控制的風險去開發AI?
有批評者指出,ChatGPT有時對一些問題會以充滿自信的語氣給出不實答案,提供錯誤信息。這種AI聊天機器人“胡言亂語“的現像被稱為“幻覺”(Hallucination),形容的是人工智能的自信反應,反應了AI模型使用的的訓練數據並不能證明輸出的合理性。
“當你奔向一個可能有懸崖邊緣的地方,你不應該加速。我認為目前這種情況正在發生。” 海赫斯特對美國之音說。
長期關注AI安全性的華盛頓智庫新美國安全中心(CNAS)副總裁兼研究總監保羅·沙瑞爾(Paul Scharre)最近在接受美國之音採訪時說,必須確保AI系統安全可靠。
他說:“如今,許多人工智能係統都存在非常嚴重的安全問題。它們往往會做出奇怪的事,我們需要在人工智能的安全方面做得更好,以確保我們正在推動的系統——無論是用於聊天機器人的商業系統還是軍事硬件——都是安全可靠的,確保它們會做我們期望它們做的工作。”
反對者:對AI的恐慌已經失控
以GPT為代表的AI大語言模型商業化趨勢似乎已勢不可擋。 OpenAI的主要投資者微軟公司本月宣布,將GPT-4的功能加入其Office套件,命名為Copilot(副駕駛)。 ChatGPT爆紅後,深陷危機感的谷歌公司也推出了自己的AI聊天軟件BARD。
中國百度公司也在3月16日推出了人工智能聊天機器人“文心一言”(ERNIE)。雖然該產品的功能與ChatGPT相比讓外界感到失望,但已經引發數万家中國企業的興趣。
這封號召AI研究者懸崖勒馬的公開信一經公佈,就遭遇不少批評和質疑。批評者說,暫停發展AI將阻礙生產力,同時給美國在AI領域的競爭對手——中國和俄羅斯——以可乘之機。
美國國會參議員邁克·朗茲(Mike Rounds)認為公開信的倡議將讓美國的人工智能進展落後“半年到一年”。這名參議院人工智能小組(Senate Artificial Intelligence Caucus)的共和黨籍成員對福克斯新聞網表示:“除非中國、中國的共產黨準備拿出證據證明他們也會做同樣的舉動,否則我擔心我們將在六個月內限制我們推進人工智能的能力,而中國不會。”
技術傳播者、科技作家羅伯特·斯科布爾(Robert Scoble)對美國之音說:“我們不僅是在本國內部在技術的自動化和獲取更高利潤方面競爭,我們也處於國與國的競爭之中。中國和美國,(在競爭中)勝出和強於其他國家速度的一方,它就會獲取真正的生產力提升。”
信息技術與創新基金會副會長丹尼爾·卡斯特羅在公開信發表後立刻發表聲明說,AI沒有失控,失控的是人類對AI的恐慌。
卡斯特羅指出,很少公司會真正響應這一公開信的“休兵”號召。他對美國之音說:“即使一些少數的公司和政府這樣做了,也不會是全球性的。中國已經明確表示,這(人工智能)是他們想要投資的領域,他們認為這是未來,俄羅斯也提出了類似的論點,沒有理由去相信有人會真的暫停他們的發展。
“因此,他們這裡的提議根本是不可行。如果從美國經濟和國家安全利益的角度來看,這也是沒道理的。為什麼你要允許你的對手繼續開發這項技術,而你卻袖手旁觀呢?”他反問。
公開信簽署人數過兩千 中國聯署者寥寥無幾
截至發稿時,這封公開信已經獲得2300多人聯署。聯署人中代表中國的業界人士寥寥無幾。其中有中國科學院自動化研究所人工智能倫理與治理中心主任曾毅,以及中國人工智能學會成員、上海慧算醫療科技公司的劉靜(音譯)。
科技作家斯科布爾說,他多次訪問中國,與中國科研人員有深入交談。 “他們與美國人在很多東西上的觀點非常不同。(美國)自由分享信息的方式,中國就不一樣了,相比美國他們受到更多審查。”
“這兩個國家的意見可能會非常不同的……所以會有很多競爭……像ChatGPT那樣的大語言模型,可以真正提高所在國的生產力。中國確實在這方面努力工作。”他說。
簽署公開信的海赫斯特承認公開信的提議存在缺陷很明顯。但他強調,公開信呼籲的“只是(限制)有關那些比GPT-4更強大的大語言模型,而並不是要阻止人工智能的工作。要清楚這一點。”
OpenAI的領導人表示,他們並未開始訓練GPT-5模型。 OpenAI首席執行官山姆·阿爾特曼(Sam Altman)在接受《華爾街日報》採訪時表示,該公司長期以來一直將安全放在開發的首位,並在GPT-4發布前花了超過6個月的時間對其進行安全測試。
海赫斯特對美國之音說:“沒有人指望(GPT模型研究)工作真的會在這六個月內停止,這封信更多的是關於開啟一場嚴肅的對話,讓對話進行。但人們需要發聲,讓更多的人參與進來。這在於提高人們的認識。”
論壇