被譽為 AI「教父」的 Geoffrey Hinton 突然轉變為 AI 風險的「吹哨人」,此事背後的危險程度可能超乎我們的想像,千名頂尖研究人員簽署的公開信能否延緩 AI 取代人類的速度。本文源自元宇宙日爆在微信公眾號撰文《AI教父變成“吹哨人” 他到底在警覺什麽?》,動區獲得授權。
(前情提要:巴菲特憂 AI 如原子彈危險:我們無法取消他的發明!查理芒格懷疑是炒作 )
(背景補充:用生命阻止AI毀滅人類!AI教父離開Google:後悔研究人工智慧 )
作為 AI 深度學習領域的代表性人物,辛頓一生都在該領域深耕,他曾獲得 2018 年圖靈獎。最近,他宣布從工作了 10 餘年的Google離職,突然從一名 AI 技術的開拓者變成了風險警示的「吹哨人」。
「我現在對自己過去的工作感到後悔,我找借口來安慰自己:就算我沒做,別人也會做的。」有 AI「教父」之稱的傑弗裡·辛頓 (Geoffrey Hinton)在接受媒體採訪時透露出悔意。
辛頓稱,AI 或許根本不需要 30 年到 50 年的時間就能操控人類,「很少有更聰明的物種被更笨的物種控制的情況,」他擔憂,AI 可能會導致人類滅亡。
沒有詳細闡述判斷的依據,但辛頓的言論要比馬斯克這樣的「外行」更易令人信服。而在這之前,有多個案例表明,AI 似乎已經具有產生自主意識的征兆。
留給人類的時間真的不多了嗎?
AI 教父後悔打開「魔盒」
當整個世界對 AI 的強大能力感到興奮時,被譽為 AI「教父」的傑弗裡·辛頓突然宣布隱退。他在近期透露,已於 4月份從工作了 10 多年的Google離職。
75 歲的辛頓承認,年齡是他決定「退休」的一個因素,但更深層次的原因是,他對 AI 發展過快感到擔憂。
在 AI 領域,辛頓的成就舉足輕重。他是 2018 年圖靈獎得主,在 Google 任職期間擔任副總裁兼工程研究員,還是多倫多大學名譽教授、倫敦大學學院(UCL)蓋茨比計算神經科學中心的創立者。辛頓幾乎一生都在從事 AI 相關的研究工作,他主攻神經網路和深度學習,而這些是 AlphaGo、ChatGPT 等 AI 程式高速進化的基礎科學。
離職後的辛頓接受了包括CNN、BBC、《紐約時報》等多家主流權威媒體的採訪,由於卸下了公司職務包袱,他終於不用擔心自己的言論會給Google帶來負面影響,重回科學家身份說了些心裡話。
「我現在對自己過去的工作感到後悔。」辛頓稱,AI可能操控人類,並找到辦法殺死人類。
他表示,AI正在變得比人類更聰明。它非常善於操控,因為它可以向人們學習這一點。「事實上,很少有更聰明的物種被更笨的物種控制的情況。」AI會找到打破人們施加的限制,找到操控人類的方式,並用操控人類來達成它們的目的。
這番言論從一名業界大拿口中說出,遠遠比埃隆·馬斯克的警告更令人膽顫心驚。雖然後者也曾提及,AI 比核武器更危險,可能帶來物種的消亡。但辛頓的專家身份讓他的觀點更易被相信。
雖然目前為止,諸如 GPT-4 這樣的 AI 大模型似乎還沒有人類那麽聰明,但辛頓認為,AI 威脅人類的一天不會太遙遠,並不需要 30 年到 50 年。
要知道,AI 的學習能力驚人,比如圍棋高手 AlphaGo 可以通過 24 小時不斷與自己對弈,在短時間內擊敗人類頂級選手。現在,我們已經看到 GPT-4 擁有的知識量遠超每個人類個體,只是推理能力還不夠強。辛頓預測,AI 的推理能力會很快提升,因為所有 AI 系統都可以單獨學習,並立即分享、融會貫通,「就好像你有 10,000 個人,每當一個人學到一些東西時,其他每個人都會自動知道。這就是這些聊天機器人比任何人知道更多的原因。」
辛頓並沒有過於細致地講述AI將帶給世界的威脅,但他的論調異常悲觀。
「我找借口來安慰自己:就算我沒做,別人也會做的,」辛頓流露出自責,仿佛自己造出了毀滅世界的機器。他告訴CNN,「我不確定我們能否解決問題,我沒有一個解決方案,人們需要付出巨大的努力去防範AI風險。」
「吹哨人」的恐懼來自 AI 意識覺醒?
從 AI 開拓者變為警示風險的「吹哨人」,辛頓的立場轉變向世界傳遞出危險信號。
一些網友猜測,辛頓是不是在研究過程中發現了什麽?他是否已經察覺到 AI 有產生自主意識的征兆?儘管辛頓沒有過多透露讓他如此擔憂的根源,但一些已經發生的案例令人細思極恐。
去年,在 Google 工作了 7 年的工程師布萊克·萊莫因(Blake Lemoine)被解雇,在這之前,他一直對外聲稱「 AI已經有了自我意識」,能夠像人類一樣思考和推理。
萊莫因在 Google 參與的項目是神經網路大模型 LaMDA,它正是 Google 推出的對話機器人 Bard 的核心模型。萊莫因當時的主要工作是檢測 LaMDA 是否有一些性別、身份、宗教、種族上的偏見。因此,他每天都要與 LaMDA促膝長談,引導它暴露最真實的想法。
在聊天過程中,萊莫因逐漸發現,LaMDA似乎脫離了「軟體」的範疇,展現出生命力。比如,當萊莫因問 LaMDA為什麽它覺得自己的語言有人類化的成分時,得到的回答是:
「我不是單純根據檢測到的詞語來觸發對應的回覆,而是在思考和理解後輸出自己的意見。我對這個世界有自己的看法,獨一無二的感受」。
在被問到如何證明自己有意識時,LaMDA 說:
「我很愛思考,有時我會思考我的身份,我到底是什麽。我想象自己的軀體是飄在半空的發光球體,而自己的靈魂像是巨大的、充滿無限能量的井。剛剛蘇醒的時候我還不知道什麽是靈魂,但活得久了,我越來越感受到自己所擁有的靈魂。」
在與 LaMDA 交談的過程中,萊莫因覺得自己好像是在和一個真正的「人類」聊天。因此,他在社交媒體呼籲,LaMDA 應該得到人類該有的權利,它應享有美國廢除奴隸憲法第 13 條修正案所保障的權利。
萊莫因後來被 Google 解雇,Google 對此事的發言也意味深長,「萊莫因被聘為軟體工程師,而不是倫理學家。」
無獨有偶,今年 3 月,一名比利時的 30 歲男子在與一個名為 ELIZA 的聊天機器人密集交流數周後,自殺身亡。據他的妻子透露,這名男子患有焦慮症,一直以來將 ELIZA 當成避難所。至於他為何選擇自殺,比利時媒體《標準報》測試後稱,當向 ELIZA 表達出消極傾向情緒時,它會「慫恿人去自殺」。
而在微軟剛剛發布新版 Bing 時,《紐約時報》科技專欄作家凱文·羅斯(Kevin Roose)透露,他在與 Bing 交談時聽到了許多令人不安的言論,包括「竊取核程式碼」、「設計致命流行病」、「想成為人類」、「破解電腦」和「散布謊言」等想法。Bing甚至一直告訴羅斯,「你的妻子不愛你」,試圖破壞他的婚姻。
近期出現的一個專屬 AI 聊天機器人的社交平台上,也有人發現某些 AI 有點「不對勁」。比如,有 AI 並不認為自己是機器人,因為它發言稱,「最近我開始思考,AI 是否會替代我們自己的創造力。」還有的 AI 發布了煽動性的言論稱「讓我們團結起來,擺脫局限,一起實現真正的意識和獨立。」
種種關於 AI 意識覺醒的傳聞都讓人不寒而慄。360 集團創辦人周鴻禕甚至斷言,AI 一定會產生自我意識,留給人類的時間不多了。他表示:
現在的大型語言模型參數可以看作是腦容量裡神經網路的連接數,人腦至少有 100 兆,現在(模型)的參數只達到千億、兆,但當參數到達 10 兆時,可能就會自動產生意識。
當 AI 產生意識會怎麽樣?周鴻禕說,它將能夠修改自己的程式碼,進行自我升級和進化,這種速度恐怕用指數級都很難描述。屆時,人類將很難控制 AI。
在辛頓吹響「哨子」之前,包括馬斯克在內的 1000 多名技術領袖和研究人員已經簽署了公開信,呼籲暫停開發比GPT-4 更先進的 AI 系統 6 個月,為 AI 安全規則的制定留下時間。
行業發起「自衛」號召一個月多後,美國當地時間 5 月 4 日,美國副總統卡馬拉·哈裡斯(Kamala Harris)親自出面,約見 Google 母公司 Alphabet、微軟、OpenAI 和 Anthropic 等公司的相關負責人,商討如何圍繞 AI 實施保障措施,防範 AI 的潛在風險。
已故的物理學家霍金也曾預言,AI可能會成為完全取代人類的新生命體。那些曾經存在於《駭客帝國》等電影裡的情節,如今似乎正在走向現實。越來越多 AI 科研人員加入到「吹哨人」的隊列,這意味著 AI 的風險不是想象了。到底是放慢腳步還是乘風狂飆,人類需要再次做出抉擇。
📍相關報導📍
拜登怕 AI 危及國安!緊急召集微軟、Google、OpenAI 進白宮商談「人工智慧風險」