AI 巨頭們的承諾,更多的意義或許不在執行上,而是引領 AI 與大型語言模型的發展方向。
(前情提要:區塊鏈與AI結合不是幻想!實現場景有哪些? )
(背景補充:拜登對AI國安危機演講全文:與科技「七武海」Google、OpenAI、微軟..達成承諾 )
Meta 剛剛公佈新一代開源大型語言模型 Llama 2,之後沒幾天就和 OpenAI、微軟、Google、亞馬遜等幾家正致力於 AI 與大型語言模型的業內巨頭一起聚首白宮,而且還共同簽訂了一份《自願承諾書》(Voluntary Commitments),就當前熱議的 AI 技術及其開發的安全、透明、以及風險管控等事宜做出 「八大承諾」。
《紐約時報》第一時間報導了相關新聞,表示《承諾書》更像是過去半年多來美國監管層對這些巨頭們數次問詢後的一次 「成果展示」,落實到執行層面的可能性不大,更多的意義可能在於監管層表達對 AI 與大型語言模型產業發展的關心,順便表明政府的立場。 科技巨頭求監管,此時的輿論與風頭真可說是一時無兩 。
1. 企業承諾在釋出新系統或大型語言模型前,先對其進行內外兩道安全測試
現在沒有一家企業會說在公佈大型語言模型前沒有進行過安全測試,這種測試有時也被叫做 「紅隊測試」。因此這個承諾並不新鮮,相關概念也很模糊,因為都沒有提供有關需要進行何種安全測試或具體負責人的詳細資訊。隨後白宮又發表宣告稱大型語言模型的測試 「將部分由獨立專家進行」,並重點關注 「生物安全和網路安全等 AI 風險高發區,及其更廣泛的社會影響」。 讓 AI 巨頭企業公開承諾繼續進行此類測試並讓測試過程更加透明,這的確是一個好想法 。此外一些不易察覺的 AI 風險,例如將 AI 或大型語言模型用於開發新武器,國家可能是比企業更好的評估人選。
2. 企業承諾在業內,以及與政府、學界和民間交流有關 AI 與大型語言模型管理風險的資訊
與第一條類似,這條承諾也有些模糊。有的企業的確樂意分享自己 AI 或大型語言模型成果的資訊,比如隔三差五的發篇學術論文,或者在自家的官方社交媒體渠道上釋出資訊。一些企業如 OpenAI 還發布了專門的文件,官方稱其為 「系統卡片」,內容就是他們為使大型語言模型更安全而採取的努力步驟。但凡事無絕對,這些企業有時也會以安全為由而隱瞞資訊。今年三月 GPT-4 上線時,OpenAI 就沒有透露其引數量級。之前 GPT-3.5 公佈的是 1750 億,因此外界猜測 GPT-4 應該有 100 兆。雖然 OpenAI 的 CEO 奧爾特曼在第一時間駁斥這種說法 「完全是胡說八道」,但他也沒透露具體的量級究竟有多大。根據這一新的承諾,這些企業是否會被迫公開此類資訊?果真如此是否會加速 AI 與大型語言模型的軍備競賽? 或許白宮更在意的是想要與企業間交換資訊,不論是否會構成威脅,而非一款大型語言模型究竟有多大的引數量級 。
3. 企業承諾在網路安全和內部防護措施上加大投資,以保護專利以及未公佈的模型權重
「模型權重」 指的是賦予大型語言模型執行能力的數學指令,保證自身安全沒什麼難以理解的。如果是競爭對手企業想要構建類 GPT 產品那麼就必須竊取原版的模型權重,因此這條承諾是符合各家企業既得利益的。之所以有這條承諾是因為這一問題已經到了業內人盡皆知的地步,舉個例子,之前 Meta 的 LLaMA 在公佈幾天後就被人將模型權重洩露在 4chan 等網站上。類似的事情過去有,現在有,以後也還會有,小心駛得萬年船。
4. 企業承諾允許第三方發現和報告其產品系統中的漏洞
以目前的科技水平來說,完美無缺的產品只存在於理論中,一個大型語言模型新品上線後總是用不了多久就被發現有問題,有的是駭客試圖 「越獄」,有的則是粉絲想驗證非法功能,但不論哪種都有違企業開發大型語言模型產品的初衷,這種行為甚至也是逾越道德或法律底線的。前一陣 OpenAI 啟動一項獎勵計劃,旨在獎勵那些發現 ChatGPT 缺陷的使用者。或許白宮也是想延續這一精神,至於未來如何發展還有待觀察。
5. 企業承諾開發強大的技術機制,以確保使用者知道哪些內容何時由 AI 生成
這個想法在目前來看的確很有必要,同時也有很大的操作空間。雖然各家企業都在努力設計工具或機制讓使用者能區分人工與 AI,但當人把 AIGC 冒充為自己的作品時這才是真正的問題。因此也不難理解三月的 GPT-4 上線後,最先研究的和最先禁用的都是高校,甚至可能是同一所高校裡,教授們在積極研究,卻禁止學生們隨意使用。
6. 企業承諾公開報告其大型語言模型的功能與侷限性,以及可用和不可用領域
與前一條類似,聽起來很美好同時操作空間很大。根據過去多少年來科研企業發展的經驗,很多產品或功能的最終形態都可能遠遠超出最初的設想,那麼現在大型語言模型時代已經來臨了,這種情況可能還會再出現不止一次,又有幾家企業真的能堅定不移的恪守承諾呢?
7. 企業承諾優先研究 AI 和大型語言模型可能帶來的社會風險,包括避免有害的偏見與歧視,以及保護隱私
這種 「優先考慮」 基本都是模糊承諾,但這一承諾無疑會受到 AI 道德派的歡迎,這一群體最喜歡也最希望的就是這些 AI 與科技巨頭們將預防偏見和歧視等已經披露出的問題作為優先事項,而不是像 AI 安全派那樣擔心 AI 或大型語言模型會導致世界末日。 有趣的是兩派都認為對方的想法是無稽之談,而真正研究 AI 和大型語言模型的巨頭也有自己的想法 。
8. 企業承諾開發和部署先進的 AI 與大型語言模型系統時,優先考慮幫助解決當前社會面臨的問題,如應對氣候變化與疾病治療等
說來難以置信的,在 AI 與大型語言模型的研究中,一些成果的最終樣子與其出發點可能相差甚遠,比如 OpenAI 用 DOTA2 訓練 GPT,期間還將 「強化學習」 的學習模式改為 「基於人類回饋的強化學習」,即現在常說的 RLHF。 AI 與 大型語言模型可能幫助我們解決一 些問題,但同時也可能導致出現新問題,想要真正切實解決還很漫長 。
這八條 「簽字畫押」 看下來,總體上說還是象徵意義大於實質意義,其中幾條目前已有企業在採取類似的預防措施,而且也沒有什麼可行的外部力量來約束他們遵守這些承諾。或許正如前面所說,白宮只是在表明自己的立場與態度,不過這都是合情合理的一步。