被譽為「深度學習之父」的 傑佛瑞·辛頓(Geoffrey Hinton )在離開 Google 後,多次提及自己對 AI 的擔憂,他近日再表示 AI 可能對人類的存在構成危機,所有人都該意識到風險。
(前情提要:用生命阻止AI毀滅人類!AI教父離開Google:後悔研究人工智慧)
(背景補充:巴菲特憂 AI 如原子彈危險:我們無法取消他的發明!查理芒格懷疑是炒作)
被譽為「AI 教父」、「深度學習之父」的 傑佛瑞·辛頓(Geoffrey Hinton )在上月宣傳出已從效力 10 年的 Google 離職,震驚業界。他提到過去 50 年來對神經網路與深度學習研究始終抱持著熱情,不過在一個月前,這份熱愛陡然間轉變成了恐懼。
上週(2日)在 EmTech Digital 的研討會中,辛頓以「The Future of Intelligence」為題,接受了主持人與現場聽眾問答,並談到了自己當前對 AI 的看法。
延伸閱讀:拜登怕 AI 危及國安!緊急召集微軟、Google、OpenAI 進白宮商談「人工智慧風險」
AI 教父:AI 可能對人類的存在構成危機
辛頓警告生成式 AI 已取得重大突破,可能對人類的存在構成危機,他認為現在 AI 和人腦在運作方式上的本質是完全不同的。
此外,辛頓還指出大型語言模型(如GPT-4)已經展現出驚人的性能,擁有比人類更廣泛的知識。這些大模型能夠從龐大的人類數據中學習,並可能揭示出人類難以察覺的結構,這意味著 AI 可能比人類更了解人類。他舉例:
如果你看看 GPT-4,它已經可以進行一些簡單的推理。我的意思是,推理是我們目前仍然擅長的領域。但是前不久,我對 GPT-4 能夠進行一個常識推理的表現感到驚訝,這是我原本以為它不會能夠做到的。
我問它:「我希望我房子裡的所有房間都是白色的。但是目前,有些房間是白色的,有些是藍色的,還有些是黃色的。而黃色的油漆一年後會褪成白色。如果我希望它們在兩年內都變成白色,我應該怎麼做?」GPT-4 竟然回答說,「你應該把所有的藍色房間都漆成黃色。」儘管這不是最好的解決方案,但它確實有效。
這是相當令人印象深刻的常識推理,對於使用符號式的人工智慧來說非常困難,因為你必須理解「褪色」的含義,還要理解「雙時間點」的概念。這再度證明人工智慧正以智商約 80 或 90 的方式進行合理的推理,這非常可怕。
所有人都該意識到 AI 的風險
對於如何預防 AI 所帶來了的威脅和挑戰,辛頓表示目前沒有確切解決方案,但這需要引起人們的共同關注。另一個可怕的點是,或許可能根本就不存在防止 AI 過度強大的技術解決方案,因為 AI 之所以是 AI,就是因為其學習能力極為強大,能攻克所有防止它強大的技術。
儘管辛頓多次提及自己對 AI 的擔心,但他仍不否認 AI 的優點和其巨大的潛力,例如醫療、環保和科技研究…等領域。因此他呼籲與其禁止發展,不如加強監管,讓所有人都意識到 AI 的風險,這才是最重要的。
最後,辛頓也出面澄清,他離開是為了可以在不顧慮 Google 的狀況下評論 AI 的危險性,但並不是為了批評 Google 本身;Google 對 AI 的態度是很負責的。
📍相關報導📍
巴菲特、蒙格與股東透露「財富密碼」,事關美國銀行業危機和AI?