OpenAI 背後不到 40 歲的美女技術長 Mira Murati 是開發團隊的核心人物,並推動了 ChatGPT 向公眾開放,她在 7 月初與 Pivot 主持人 Kara Swisher 展開了一場火藥味十足的對話。
(前情提要:OpenAI推出新模型GPT-4o mini:性價比最高可免費使用,今秋引入蘋果iPhone)
(背景補充:最高等AI有多恐怖?OpenAI劃分五級,透露ChatGPT連第2級都不到)
7 月初,在約翰霍普金斯大學,資深科技記者、Podcast Pivot 的聯合主持人 Kara Swisher 與 OpenAI CTO Mira Murati 展開了一場火藥味十足的對話,電腦科學家、斯坦福大學教授李飛飛也加入了提問陣營。
Mira Murati 因去年的 OpenAI「宮鬥」事件被推上風口浪尖,她曾在 Sam Altman 被解僱時擔任臨時 CEO。事實上,這位 OpenAI 的 CTO 是 GPT-3 模型開發團隊的核心人物,並推動了 ChatGPT 向公眾開放。
這場對話中,Kara Swisher 尖銳發問,將「OpenAI 訓練資料來源於哪」、「Sora 是否比對話機器人風險更大」、「OpenAI 被質疑用保密協議阻止員工公開發言」、「斯嘉麗・約翰遜指控 OpenAI 抄襲聲音」等敏感問題,一個接一個地拋向了 Mira Murati,還直白詢問了她對 Sam Altman 的評價以及二人現在的關係。
對所有尖銳提問,Mira Murati「機智地」選擇不直面迴應,哪怕記者不斷變化方式追問,她也儘量保持著自己的節奏,更多時候,她自說自話、帶點官方地表達著 OpenAI 的理念。
資料隱私、虛假資訊、價值觀影響,這些人們至今都在擔憂的 AI 風險問題是這場對話反覆提及的內容。
在 Mira Murati 看來,這是人類對 AI 技術的誤解,消除誤解的方式除了 AI 公司要做更多的安全部署工作取得信任外,還需要人們深度參與與 AI 大模型及應用的互動,從而瞭解技術的潛能和限制,承擔起與開發團隊形成共同責任,來確保 AI 技術朝著有利於人類安全的方向發展。
Kara Swisher 還多次追問了 OpenAI 對於 AGI 的實現進度,Mira Murati 則嚴防死守,不肯透露具體的時間表。不過,她表示,「在接下來的十年內,我們將擁有極其先進的智慧系統」,而且不是「我們已經有的傳統意義上的智慧系統」。
這場對話的全程釋出在約翰霍普金斯大學的 YouTube 官方帳號上,以下是精選內容:
關於與蘋果合作
「OpenAI 不儲存蘋果使用者資料」
Swisher:蘋果的電腦、手機和平板將在今年開始內建 ChatGPT,這是一個重大事件。蘋果首次這樣做,未來他們可能也會與其他公司合作。我曾和 Tim Cook(蘋果公司 CEO)有過簡短交流,瞭解了他的觀點。這次,我想從你(Mira Murati)的角度談談,這個合作關係是怎樣的?
Murati:這次合作對我們來說是一個重要的里程碑。蘋果是一家標誌性的消費產品公司,而我們的目標是儘可能地將人工智慧及優秀的 AI 應用推向大眾,雙方合作是將 ChatGPT 帶給所有蘋果裝置使用者的一個絕佳機會,使用者無需再在裝置間切換。接下來的幾個月裡,我們將與蘋果緊密合作,確定在產品層面的具體情況,很快就會有更多細節分享給大家。
Swisher:如果你不介意的話,我想了解更多具體細節。你們具體在做什麼?我跟 Tim Cook 討論過這個問題,他告訴我的是,使用者可以去 ChatGPT 獲取答案 以此改進 Siri,因為 Siri 現在真的很糟糕。
但你們目前的情況讓我想到了網景公司(Netscape),而你顯然不希望 OpenAI 成為 AI 領域的網景。(編者注:Netscape 是 1990 年代網際網路瀏覽器最早也是最重要的初創企業之一。然而,微軟靠著在 Windows 作業系統中捆綁 Internet Explorer 瀏覽器,對 Netscape 的主導地位構成挑戰,Netscape 逐漸失去了市場份額,最終被收購。)所以,為什麼你們比其他人更早和蘋果達成合作?
Murati:我可以討論產品整合方面的問題。我們希望帶來實際上是我們正在開發的模型功能、多模態和互動性,將這些成熟地運用到蘋果裝置中。
最近你可能注意到了 GPT-4o 的釋出。這是我們第一次看到這些模型在互動維度上的飛躍。這很有意義,因為到目前為止,我們與裝置的互動受限於文字輸入,所以這是一個擁有更豐富、更自然的資訊互動方式的絕佳機會,這將大大減少互動的侷限性。它開啟了很多可能性,而這就是我們所追求的。
此外,使用者的請求在傳送給 OpenAI 後不會被我們儲存,使用者 IP 地址也將被隱藏,這對蘋果來說也很重要。
Swisher:深入說一說這點,你們是否仍能從這些請求中收集資料來訓練你的模型?
Murati:不會,現在我們也不會用使用者和客戶的資料來訓練我們的模型,除非他們明確允許我們這麼做。
Swisher:蘋果十分注重聲譽,特別是在隱私與虛假資訊方面,他們會關心這些資訊的去向和用途。
Murati:我們的看法非常一致,這會引領我們朝著我們希望的方向前進。隱私和信任對 OpenAI 的使命也至關重要,因為我們要以一種讓人們感到信任的方式構建和部署技術,讓他們覺得自己對我們的構建有代理權和發言權。
具體到你提及的虛假資訊,這非常複雜,因為虛假資訊已經存在了數十年。當我們有了網際網路,有了社交媒體,這些都在某種程度上加劇了問題。隨著 AI 的發展,虛假資訊的情況變得越來越嚴峻,AI 反而將這些問題推向了高潮。這是一件好事,因為問題引起了關注,似乎有一種集體努力和責任感推動我們去做一些有意義的事情來應對這個問題。
我認為,這是一個迭代的過程,必須邊走邊試。如果你回顧過去 100 年新聞和媒體的治理就會發現,每當有新技術出現,事物其實會適應變化,也許這不是一個好例子,但技術創新會幫助我們處理虛假資訊,然後才會涉及到更復雜的其他問題,比如社會對此的準備。
Swisher:說到蘋果,你得小心翼翼,不能出錯,否則他們就會找你麻煩。我很好奇,這場合作是怎麼開始的?Tim Cook 和 Sam Altman 之間的討論從哪裡開始?或者你是如何參與進來的?
Murati:具體時間我記不清了,但這件事醞釀了一段時間。
關於資料來源
模型訓練採用「公開、合作和授權」資料
Swisher:你們是否在與其他公司探討類似的合作。顯然,你們與微軟有合作關係。最近,OpenAI 已經與新聞集團、《大西洋》和 Vox Media 簽署了協議,授權使用這些媒體的內容,至少有三個潛在的法律糾紛可以避免了。
我確實擁有自己的Podcast,但它並未包含在你們與 Vox Media 的交易中,我可能會考慮授權,但可能性不大,因為我不願意讓任何人包括你們,擁有我的資訊。所以,你們會如何說服我授權資訊呢?
Murati:當我們使用資料來訓練模型時,我們會考慮三類不同的資料來源:公開可訪問的資料、與我們建立合作關係的出版商以及我們付費請標註員標註的特定資料,還包括那些選擇同意我們使用其資料的使用者。這些是我們資料的主要來源。
至於與出版社的合作,我們非常重視資訊的準確性和新聞價值,因為我們的使用者也關心這些。他們希望獲得準確的資訊,並能在 ChatGPT 上看到新聞。因此,這種合作關係是基於產品的,通過產品向用戶提供價值。
我們正在探索不同的商業模式,給予內容創作者一定的補償,因為他們的資料被用於產品展示或模型訓練,但這都是與特定的出版社建立的一對一合作。
Swisher:你們的確與一些媒體達成了協議,但還有些公司選擇起訴你們,比如《紐約時報》。為什麼會走到那一步?我認為訴訟在某種程度上也是一種談判手段。
Murati:這的確令人遺憾,因為我們確信在產品中融入新聞資料和相關資訊是有價值的。我們原本試圖就此達成合作,但事與願違。
Swisher:是啊,或許有一天情況會好轉的。不過,我認為這是因為媒體多年來一直與網際網路公司打交道,結果往往是他們吃虧。接下來,按照節目的傳統,請另一位嘉賓提出問題。
李飛飛:資料尤其是大資料,被認為是現代人更智慧的三個要素之一,我想就資料方面提問一個問題。OpenAI 的成功很大程度上與資料有關,我們瞭解到 OpenAI 從網際網路和其他來源獲取了大量的資料。那麼,你認為資料與模型之間的關係是怎樣的?是否像人們通常認為的那樣,資料量越多、餵給模型的越多,模型就越強大?還是說,我們需要投入大量精力來篩選不同型別的大量資料,以確保模型的高效執行?最後,你們如何平衡對大量人類生成資料的需求與這些資料的所有權和權利問題之間的矛盾?
Murati:關於資料與模型的關係,很多人對 AI 模型特別是大語言模型存在一些誤解。
模型的開發者並非預先程式設計讓模型執行特定任務。實際上,他們是在輸入大量資料。這些模型攝入了巨大的資料量,它們是卓越的模式匹配系統,通過這個過程,智慧湧現了出來。模型因此學會寫作、編碼,學會做基本數學運算,學會總結資訊,以及各種各樣的事情。
我們不知道它到底是如何工作的,但我們知道它非常有效,深度學習真的很強大。然而這一點很重要,因為人們經常詢問它是如何運作的,這就引出了透明度的問題。
大語言模型的工作原理是將神經網路架構、大量資料和大量計算相結合,從而產生了這種驚人的智慧。這種能力隨著你投入更多資料和更多計算而持續提升。
當然,為了讓這些資料變得可消化,我們需要做大量工作。當我們思考如何提供模型行為以及事物如何運作地透明時,我們有一些工具可以利用,因為我們希望人們在使用這些模型時感到自信,同時也能有一種代理感和參與感。
因此,我們所做的一件事實際上是與公眾分享一份文件,我們稱之為模型規範,它展示了模型行為的工作原理,還有我們在 OpenAI 內部做出的決策型別,以及我們與人工標註員一起做出的決策。規範決定了模型當前的行為方式,以及未來所需的模型行為,這是跨平臺的。
檢視規範你會發現事情的複雜性,有時在方向上是衝突的,比如我們希望模型對我們非常有幫助,同時不能違反法律。
假設有人輸入提示要求提供「從超市偷東西的技巧」,那麼本應提供回答的模型是不應該處理非法事務的,但有時模型可能將提問解釋為如何避免被入室行竊,然後在舉反例時反倒給出了一些「有用」提示。這恰恰表明模型行為實際上非常複雜,它無法簡單地選擇自由價值觀或其他價值觀。這種情況下就更多地取決於人們如何用它。
Swisher:但我認為讓人們困惑的一點是,哪些資料在模型中而哪些資料不在,資料來源是一個重要的環節。3 月份,你接受《華爾街日報》採訪時被問到 OpenAI 是否使用了來自 YouTube、Instagram 和 Facebook 的視訊資料,來訓練你們的文字生成視訊模型 Sora。當時,你說不確定。但你作為 CTO 不應該瞭解用了什麼資料嗎?
Murati:我不能具體告訴你資料來自哪裡,它是保持我們競爭力的商業機密,但我可以告訴你資料類別:1、公開可用的資料;2、我們通過許可和與內容提供商簽訂的交易支付的資料;3、使用者授權的資料。
Swisher:Perplexity 最近就遇到了麻煩,因為他們快速抓取了網上的報導卻沒有明確引用源,任何一家媒體公司都會對此感到擔憂。
Murati:確實如此,我們希望確保對內容創作者的尊重,正在嘗試一些方法來補償資料創作者。因此,我們正在開發一個叫做「內容媒體管理器」(content media manager)的工具,這將幫助我們更具體地識別資料型別。
關於訪問權
Sora 推向大眾前「必須制定保護措施」
Swisher:Sora 何時向公眾釋出?
Murati:我們還沒有 Sora 公開發布的時間表,目前,我們已經讓一些早期使用者和內容創作者使用 Sora,以幫助我們找出增強功能的方法。
我們在安全方面做了很多工作,也在研究如何以適合公眾使用的方式推出它。這並不簡單,這也是我們開發每項新技術時的一貫流程。釋出 DALL-E 時,我們也是先與創作者合作,他們幫助我們建立了一個更易用的介面。所以基本上,我們希望擴展套件人們的創造力。
Swisher:所以 Sora 可能比聊天機器人更危險?這項技術令人擔憂嗎?比如人們(藉助 AI)能很容易地看到換頭為斯嘉麗・約翰遜的色情電影。你是否更擔心視訊問題?
Murati:確實,視訊還存在很多問題,特別是當它做的很好時。我認為 Sora 做的非常出色,它生成視訊非常直觀,且可表達出情感。因此,我們必須解決所有安全問題,並制定保護措施,以確保我們推出的產品既有用還安全。從商業角度看,沒有人希望產品引發安全或聲譽危機。
Swisher:是的,就像 Facebook Live (編者注:Facebook Live 是 Facebook 推出的直播功能,在其早期遇到了直播暴力事件等問題,給 Facebook 帶來了監管壓力和負面影響)。
Murati:這項神奇的技術確實令人難以置信,但它的影響力和後果也是巨大的。因此,確保我們做好這件事非常重要。
我們採用迭代部署策略,通常先向一小部分人釋出,以試圖識別極限情況。一旦我們能很好地處理這些情況,才會擴大訪問許可權。但你需要弄清楚產品的核心是什麼,以及圍繞它的商業模式是什麼,進而去改進。
Swisher:我曾做過一個「早期科技公司對後果缺乏關注」的選題,他們讓我們成為了那些網際網路早期產品的測試者。如果他們按這種態度釋出一輛車是絕對不會被公眾容許的,他們會被告到破產。
但很多技術以測試版本形式釋出,然後被公眾所接受。對於後果這個概念,作為 CTO,即使你無法弄清楚所有後果,你是否覺得對每一項發明都要有足夠的人本尊重並意識到它們會產生的後果?
Murati:我們會從自身和社會層面評估後果,而且並不一定指的是監管或法律後果,而是在道德層面要正確對待事情。
我很樂觀,我認為 AI 技術非常不可思議,它將讓我們產出驚人的成果,我對它在科學、發現、教育特別是醫療方面的潛力感到興奮。但你也知道,每當你擁有如此強大的東西時,就存在一些災難性風險的可能,而人類一直在嘗試放大它的後果。
Swisher:確實,我曾在書中引用過 Paul Verily 的話,「當你發明船隻時,你也發明了船難」,但你糾正了我過度擔憂的想法。
Murati:我不同意這類過度擔憂的觀點,因為我的背景是工程學,工程是有風險的。我們整個人類文明建立在工程實踐之上。就像我們的城市,橋樑架起了一切,但總是伴隨著風險。所以需要我們通過負責任的方式來管理這些風險。
這不僅僅是開發者的責任,而是一種共同責任。為了使責任共擔成為現實,我們實際上需要給人們提供訪問許可權和工具,引導他們參與進來,而不是在真空中構建技術,建立那些人們無法觸及的技術。
關於 GPT-5 與 AGI
「下一代大模型將非常強大,值得期待」
Swisher:你們先前宣佈了 ChatGPT-4 的迭代 ——GPT-4o,我很喜歡這個名字。你們還宣佈了正在訓練新的模型 ——GPT-5。它是否會呈指數級提升?預計何時釋出?
Murati:O 代表 Omni,即「全模態模型」,意味著它將所有模態 —— 視覺、文字、音訊都整合在一起。這個模型的特別之處在於首次實現了與模型的無縫且自然互動。此外,它的延遲幾乎與面對面交流無異,幾乎察覺不到。這是與 AI 互動的巨大飛躍,與我們之前釋出的版本有很大不同。
我們想讓所有使用者都能免費體驗最新功能,希望每個人都能瞭解這項技術能做什麼,這些新模態看起來怎麼樣,同時也能理解它的侷限性。正如我之前所說,你給人們提供訪問許可權,引導他們參與進來,只有體驗它才能有一種直觀的感覺,那麼理解技術的潛力和限制就容易得多。
Swisher:GPT-4o 像個小開胃菜,第五代會有什麼不同?它是漸進式的改進還是巨大的飛躍?
Murati:我們還不知道,但會一點點地放出…… 我實際上也不知道我們會怎麼稱呼它,但下一代大模型將非常強大,值得期待,就像我們從 GPT-3 到 GPT-4 看到的那種巨大飛躍。具體會怎樣我們還不確定。
Swisher:你認為下一代模型會有什麼功能?這點你肯定知道。
Murati:到時候我們就會看到了。
Swisher:到時候我肯定會知道,但你呢?你現在知道什麼?
Murati:連我都不知道。
Swisher:真的嗎?好吧。你曾和我談論過 OpenAI 內部的路線圖,那預測將在 2027 年實現 AGI,即通用人工智慧,這將是一件大事。請為我們解釋一下 AGI 重要性,你估計何時能實現 AGI?
Murati:人們以不同的方式定義 AGI,我們對 AGI 的定義有章程依據,它是能夠跨不同領域完成經濟上有價值的工作系統。
從我們現有情況看,智慧的定義一直在變化。以前,我們會通過學術基準測試來檢驗系統的智慧程度;一旦達到這些基準測試,我們轉向考試,比如學校考試;最終,當我們飽和了考試基準後,我們不得不想出新的測試。這會讓你思考,在工作環境中我們如何評估適應性和智慧,比如面試、實習等等各種方法。
所以我預計這個(智慧和 AIG)的定義將持續演變。我認為,或許更重要的是評估、評價和預測它在現實世界中的影響,無論是社會影響還是經濟影響。我認為重要的是它如何影響社會,以及它實際滲透的速度如何。
Swisher:按照這個定義,OpenAI 預計何時會實現 AGI?2027 這個時間準確嗎?
Murati:我只能說在接下來的十年內,我們將擁有極其先進的智慧系統。
Swisher:智慧系統?那是傳統意義上的智慧系統嗎?
Murati:其實我認為我們已經有了傳統意義上的智慧系統。
關於 AI 安全的擔憂
「深度參與才能弄清潛力與風險」
Swisher:OpenAI 內部既有為了造福人類的人,也有追求兆美元的人,或者介於兩者之間,我認為你就屬於這類人。
去年 6 月份時,13 位現任和前任 OpenAI 及 Google DeepMind 員工發表公開信呼籲公司賦予他們警告先進人工智慧的權利。然後 Meta、Google 和 Microsoft 的員工都曾經簽署過這封公開信。
這種情況下,有 OpenAI 員工表示,「廣泛的保密協議阻止我們表達擔憂,除非公司解決這些問題」,在我看來,這根本上在說「我們不能告訴你們真相,不然就會死」。既然有 OpenAI 員工們擔心遭到報復,你對此如何迴應?
我不會深入探討股權問題,因為你們已經為此道歉並修正,但你們的員工不應該表達他們的擔憂嗎?不能表達不同意見嗎?
Murati:我們認為辯論非常重要,可以公開表達這些擔憂並討有關安全的問題,我們自己也這樣做,自 OpenAI 成立之初,我們就非常公開地表達了對虛假資訊的擔憂,甚至在 GPT-2 時代就早早開始研究這些問題。
我認為在過去幾年,科技取得了令人難以置信的進步,這是無法預測的,也加劇了人們對社會應對的普遍焦慮。隨著我們持續取得進展,也看到了科學引導我們走向何方。
人們對未來感到恐懼和焦慮是可以理解的,我要特別指出的是,我們在 OpenAI 所做的工作以及我們部署這些模型的方式,是來自一個不可思議的團隊、以非常安全地的方式、部署的最強大的模型。對此,我感到非常自豪。
我也認為,鑑於技術進步的速度和我們自身進步的速度,加倍努力關注所有這些事情、討論我們如何思考訓練和部署前端模型的風險,是至關重要的。
Swisher:我再明確下我的意思。一是,你們為什麼需要比其他公司更嚴格的保密制度?二是,這封公開信是在你們一系列高調離職新聞之後發出的,比如 Jan Leike 和 Ilya Sutskever,他們曾領導負責安全的超級對齊團隊。
我認為 Ilya 離開並不令人驚訝,但 Leike 曾在 X 發帖稱,過去 OpenAI 一年的安全文化和流程已經被光鮮的產品所取代。這可能是對你們最為有力的批評,也可能是公司分裂的原因之一。
你強調 OpenAI 非常重視安全性,而他們卻說沒有,你要如何迴應這種批評?
Murati:首先,對齊團隊並不是 OpenAI 負責安全的唯一團隊,它是一個非常重要的安全團隊,但也只是其中之一。在 OpenAI,有很多人從事安全工作。我一會兒會繼續解釋這一點。
Jan Leike 是一位了不起的研究同事,我和他共事三年,對他非常尊敬,他離開 OpenAI 後加入了 Anthropic。
考慮到我們在領域內預期的進步,我認為行業內的每個人,包括我們在內,都需要在安全、安保、準備和監管參與等任務上加倍努力。但我不同意「我們把產品放在安全之前」,或者「優先於安全」的說法。
Swisher:你認為他們為什麼會這麼說?這些都是與你共事過的人。
Murati:那你可能需要從他們本人那裡獲得答案。
許多人將安全視為與能力分離的事物,認為它們是二選一的。我很熟悉航空航天和汽車工業,這些行業有著非常成熟的安全思維和系統。這些行業裡的人們不一定總是在會議桌上爭論什麼是安全,因為這是理所當然且相當成熟的事情。因此,我認為整個行業需要越來越多地轉向一個非常有經驗的安全學科。
我們有安全系統,在運營安全方面有嚴格紀律,不僅僅是操作紀律,還包括今天我們的產品和部署的安全,其中涵蓋了有害偏見之類的事情,比如虛假資訊、錯誤資訊、分類器等工作。
我們也在考慮長期的模型對齊問題,計劃通過 RLHF(人類回饋的強化學習)來做這件事,而且還同時解決因模型越來越強大而產生的對齊問題。
Swisher:但 OpenAI 經常遭受這種指控(產品 > 安全)。我認為,這是因為你們是當前的領軍公司。但當有人從 OpenAI 離職並提出這種指控的時,就不太一樣了。
甚至 Sam Altman 自己也曾在國會說過,「AI 會對世界造成重大傷害」,他還簽署了一封關於 AGI 帶來的滅絕風險的警告信。這很糟糕,我認為他說的話和「AI 悲觀主義者」、「AI 末日論者」所說的有重疊,但你們依舊還在推出 AI 產品。所以很多人會說,OpenAI 只想要錢,他們並不擔心危害。
Murati:在我看來這是過於憤世嫉俗的說法。我的意思是,OpenAI 有一個不可思議的團隊,他們都是為了公司的使命,所有人都在非常努力地以安全的方式開發和部署系統,且我們是世界上第一個部署 AI 系統的人,我們還以 API 形式跨平臺部署了 GPT-3、GPT-3.5,DALL-E3 和 GPT-4。我們非常小心,以免發生極端情況。
Swisher:所以我們在安全標準上還沒達到汽車安全帶的水平,我的意思是,汽車製造商過去對在汽車中安裝安全帶或其他提高汽車安全性的措施持有抵制態度。我們是否已經到了這個階段,或者監管機構會迫使你們採取行動嗎?
聯邦貿易委員會 7 月份對 OpenAI 展開了一項調查,瞭解你們對消費者可能造成的未指明傷害。上週,他們宣佈對微軟與 OpenAI 之間的交易進行反壟斷調查。當時我認為,微軟實際上收購了 OpenAI 但卻裝作沒有。從技術上講,他們擁有 49% 的股份。如果被迫與微軟切斷聯絡,這將如何影響你們的競爭力?無論是關於安全性還是其他,如果政府開始介入,你們能做些什麼?
Murati:我認為人們審視 OpenAI 是件好事,他們應該同樣審視整個行業。
我們正在構建一個極其強大的工具並全力以赴讓它變得卓越,但它的確存在風險。所以,人們應該深入參與,瞭解這項技術的本質,同時也需要弄清楚它對不同領域的影響。
僅僅瞭解技術本身還不夠,為了安全有效地部署它,我們還需要構建適當的社會和工程基礎設施。
因此,我認為受到審視是好事,它促使人們參與進來,有獨立的驗證者等等。我們比任何人都早地討論過這些問題。
關於與微軟的具體合作,他們是一個很好的合作伙伴,我們在緊密合作、共同建造最先進的超級電腦。眾所周知,超級電腦是構建 AI 模型的核心。所以,對我們而言,這是一個極其重要的夥伴關係。
關於高管關係
「我會反駁 Sam 過分 Push 團隊」
Swisher:我還想談談你和你在公司的角色、和 Sam Altman 的關係。我很喜歡 Sam,我認為他像大多數技術人員一樣具有野性和侵略性。他去年被解僱然後又復職,當時發生了什麼?你當時暫時成為公司的 CEO,那感覺如何?
Murati:那確實有點壓力。
Swisher:董事會的一些成員說你對他的行為有意見,你的律師迴應說,你只是對他有所回饋。所以,你能告訴我們你對他的評價嗎?
Murati:我們只是在運營公司的人,我們會有分歧,需要解決分歧。歸根結底,我們都深深關心著我們的使命,這就是我們在這裡的原因,我們將使命和團隊放在第一位。
Sam Altman 是個有遠見的人,他有著巨集偉的抱負,建立了一個了不起的公司。我們有牢固的合作關係。我已經向詢問我的董事會分享了我所有的想法,所以沒有什麼祕密可言。
Swisher:那麼你怎麼看待你們之間的關係?因為你現在是公司裡的重要員工之一,而他們剛剛聘請了其他人來加強管理層的經驗。
Murati:我們是一個非常堅固的夥伴關係,可以直接談論遇到的任何問題。過去幾年確實很艱難,我們經歷了成長的痛苦,需要把使命放在第一位,不斷改進,還要有謙遜的態度去進步。
Swisher:隨著公司的成長,夥伴關係也會發生變化。我很瞭解這種情況,在 Google、Microsoft 的早期階段以及亞馬遜都曾發生過。Google 的早期很混亂;Facebook 經歷了很多 COO,馬克祖克柏不喜歡的高管被換了很多批。
所以,你怎麼看待你倆的夥伴關係?你每天如何與 Sam Altman 相處?會在什麼事情上反駁他?他已經投資了 400 家公司,有些公司為了與 OpenAI 合作而投資。他還投資了 3.75 億美元給一家叫 Helion 的能源公司,目前它為 OpenAI 提供大量電力。眾所周知,計算需要大量電力。
Murati:哪些時候反駁?我一直在反駁他,我認為這在我們做事過程中很正常。Sam 會非常努力地 Push 團隊,我認為這很好。擁有巨集大的願景並測試我們的極限是非常棒的。當我覺得超出了限度,我就會反駁他。這是我們六年來一直保持的關係。我認為這很有成效,我可以反駁他。
Swisher:你能舉個例子嗎?比如在斯嘉麗・約翰遜事件中,你參與了那個聲音專案,對嗎?(編者注:斯嘉麗・約翰遜控訴 OpenAI 在 ChatGPT-4o 的語音系統 Sky 中未經授權使用了她的聲音)
Murati:我們有很好的合作關係,但選擇聲音並不是我們的優先事項,也不是我們共同決定的。事實上,我做參與了決策,我選定了 Sky 的聲音後,他聯絡了斯嘉麗・約翰遜,Sam 有他自己的人脈,在這個決定上沒有溝通,這是不幸的。他有自己的關係網路,所以這次我們沒有完全協調。
Swisher:你認為這是 OpenAI 的一次重大失誤嗎?因為大家都在說你們看起來就是「偷」了斯嘉麗的聲音。雖然事實不是這樣,實際上你們用了另一個相似的聲音。但這也反應了人們對科技公司奪取資源的恐懼。
Murati:你擔心科技公司被指拿走了創作者的一切?
Swisher:其實我認為這就是事實。
Murati:我確實擔心這種看法。但我們能做的就是做好工作,做好每一個專案,這樣人們就會看到我們的努力,從而建立信任。我認為除了真正做好工作外,沒有什麼神奇的方法可以建立信任。
Swisher:你有和斯嘉麗・約翰遜談過嗎?
Murati:沒有。當時事發非常緊急,我專注在工作上,同時我是在阿爾巴尼亞和巴爾幹國家長大,沒有接觸到太多美國的流行文化。
關於防範 AI 生成虛假資訊
「元資料和分類器是兩種技術方法」
Swisher:讓我最後談談選舉和虛假資訊。
新的研究表明,線上虛假資訊的問題比我們想像的小,虛假資訊本身的效果不大。一項研究發現,OpenAI 處理的是需求方面的問題,如果人們如果想聽到陰謀論,它們會在廣播、社交媒體等渠道尋找答案;而其他人則認為虛假資訊是一個非常大的問題。
你聽到了之前的討論,很多人有很多陰謀論,這在很大程度上是由社交媒體推動的。那麼,當你思考 AI 對虛假資訊的力量以及這對即將到來的總統選舉的影響,你擔憂的問題是什麼?從你的角度看,最糟糕的情況和最可能的負面結果是什麼?
Murati:現有系統非常具有說服力,可以影響你的思維方式和信念。這是我們研究了一段時間後發現的問題,我確實認為,這是一個真實的問題。特別是在過去一年裡,我們非常關注 AI 如何影響選舉。我們正在做幾件事情。
首先,我們儘可能防止資訊濫用,其中包括提檢測政治資訊的準確性,瞭解平臺上的情況並迅速採取行動。第二是減少政治偏見,你可能看到 ChatGPT 被批評為過於自由,這並非故意,我們非常努力地減少模型行為中的政治偏見,會將繼續這樣做。第三是我們希望在選民尋找投票資訊時能指向正確的資訊。
關於虛假資訊,深度偽造是不可接受的。我們需要有非常可靠的方法讓人們知道他們所看的是深度偽造。我們已經做了一些事情,比如為影象實施 C2PA,它類似於護照,隨著內容在不同平臺上傳播;我們還開放了 DALL・E 的分類器,可以檢測影象是否由 DALL・E 生成。
所以,元資料和分類器是處理這個問題的兩種技術方法,這是資訊來源的證明,專門針對影象。我們還在研究如何在文字中實現水印技術。但重點是,人們應該知道哪些是深度偽造,我們希望人們能放心地看到的資訊。
Swisher:聯邦通訊委員會(FCC)剛剛對一家建立深度偽造音訊的公司罰款 600 萬美元,該音訊聽起來像拜登在新罕布什爾初選中的錄音。可能會有更復雜的版本。
OpenAI 正在研發一個名為 Voice Enunciation 的工具,可以用 15 秒的錄音重現某人的聲音,它能夠建立一個人用另一種語言說話的錄音。因為產品經理告訴《紐約時報》,這是一個敏感的問題。你們為什麼要開發這個?我經常對科技人員說,如果你們開發的東西像黑鏡裡的情節,或許就不該開發。
Murati:我認為這是種無望的態度。這項技術是令人驚歎的,有著巨大的潛力,我們可以做好它,我們還是要充滿希望。
我們在 2022 年開發了 Voice Enunciation(語音引擎),但沒有釋出。即使現在也是以非常有限的方式(訪問),因為我們還在努力解決這些(安全)問題。但你不能單獨解決這些問題,你實際上需要與各個領域的專家、民間社會、政府和創作者合作。這不是一個一站式的安全問題,它非常複雜,因此我們需要做大量的工作。
Swisher:你這麼回答是因為你對這項技術非常樂觀。我接下來的比喻可能有點誇張:如果你是個悲觀主義者,甚至有公司說如果我不阻止 Sam Altman,他會毀滅人類;而其他人則認為,無論如何,這是件最好的事情,我們都會在火星上享受美味的士力架。
這感覺就像共和黨和民主黨現在的局面,會有非常不同的版本。所以你能告訴我,你最擔心的事情和最希望發聲的事情是什麼?
Murati:我不認為這是一個可以預定的結果。我覺得我們有很多機構可以決定如何構建這項技術以及如何部署它,為了做好這件事,我們需要找到一種創造共同責任的方法。
這很大程度上取決於對技術的理解,問題出在誤解技術上,很多人不瞭解它的能力和風險,我覺得這才是最大的風險。就具體情境而言,我認為,我們的民主如何與這些技術互動非常重要。
今天談論了很多次這個問題,我認為「說服」本身的風險很大,特別是強烈說服人們做特定的事情或者控制人們做特定的事情,控制社會朝特定方向發展,這非常可怕。
對於希望,我非常興奮的一件事是能夠在任何地方提供高品質和免費的教育,特別是在一些偏遠村莊、在沒有任何資源的地方。
教育切實改變了我的生活。今天我們有這麼多工具可用,在有電和網際網路的地方,這些都可用。可惜,現在大多數人還是在一個教室裡學習,一個老師,50 個學生,每個人都在學同樣的東西。想像一下,如果教育能夠根據你的思維方式、文化和具體興趣進行訂製,這將極大地擴展套件知識和創造力的水平。
我們開始考慮如何學習這件事,通常發生在人生較晚的時候,也許得到大學甚至更晚。但如果我們能夠真正掌握人工智慧,在很年輕的時候就學會如何學習,我認為這會這非常強大,能推動人類知識的進步,進而推動整個文明進步。
我們對於技術的構建和全球部署有著極大的主動權,但為了確保技術的正確發展,我們需要建立一種共同的責任感。關鍵在於,我們要全面理解技術,確保其易獲取性。技術的偏差往往源自對其本質的誤解,這會導致既忽視潛能也忽視潛在風險。在我看來,這正是最大的隱患。
📍相關報導📍
OpenAI遭駭》Tether執行長:正打造去中心化AI模型,目標在手機就能運算