據美國傳媒週一(5月1日)報導,一位常常被稱為“人工智能教父”的電腦科學家已經辭去了他在谷歌的工作,並且公開談論這項技術的危險。
Your browser doesn’t support HTML5
為人工智能系統創建基礎技術的杰弗里·辛頓(Geoffrey Hinton)告訴《紐約時報》(The New York Times),該領域取得的進展“對社會和人類構成了深刻的風險”。
“看看五年前的情況以及現在的情況,”他被援引在週一發表的文章中說道。
“如果將這些差異向前繼續傳播。這太可怕了。”
辛頓表示,科技公司之間的競爭正在推動公司以危險的速度發佈新的人工智能技術,冒著失去工作和傳播錯誤信息的風險。
“很難看出如何能夠防止壞人將其用於做壞事,”他對《紐約時報》說。
2022 年,谷歌和 OpenAI--流行的人工智能聊天機器人 ChatGPT 背後的初創公司--開始使用比以前大得多的數據開始構建系統。
辛頓告訴《紐約時報》,他認為這些系統在某些方面正在使得人類智能黯然失色,因為它們能夠分析大量的數據。
“也許這些系統中發生的事情,實際上比大腦中發生的事情要好得多,”他告訴該報。
雖然人工智能已被用於支持人類的工作,但像ChatGPT這樣的聊天機器人的快速擴張可能會使工作面臨風險。
人工智能“帶走了苦差事”,但“可能會帶走的不止這些,”他對《紐約時報》說。
這位科學家還警告說,人工智能創造的錯誤訊息可能會被傳播,他告訴《紐約時報》,普通人將“無法再知道什麼是真實的”。
據《紐約時報》報導,辛頓上個月通知了谷歌他將辭職的決定。
谷歌人工智能首席科學家杰夫·迪恩(Jeff Dean)在給美國媒體的一份聲明中感謝了辛頓。
“作為首批發佈人工智能原則的公司之一,我們仍然致力於對人工智能採取負責任的方法,”聲明補充說。
“我們不斷學習、了解新出現的風險,同時也大膽地創新。 ”
今年三月,科技億萬富翁埃隆·馬斯克(Elon Musk)和一系列專家呼籲,暫停人工智能系統的開發,以便有時間確保它們的安全。
一封公開信,有1000多人簽名,其中包括馬斯克和蘋果公司(Apple)的聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)。GPT-4的發佈是這封公開信的導火索,而GPT-4是ChatGPT使用的更強大的技術版本。
辛頓當時沒有簽署這封信,但告訴《紐約時報》,科學家們不應該“在了解他們是否能夠控制它之前進一步擴大規模”。
(本文依據了法新社的報導。)