以下從底層技術路徑與算力、行業應用以及大模型與垂直模型的發展趨勢等三個方面,來介紹矽谷 AI 學習考察之行的收穫。本文源自民生證券的呂偉 / 胡又文團隊所著文章 《矽谷 AI 考察報告》,由碳鏈價值整理。
(前情提要:ChatGPT之父警告「AI 恐毀滅人類」!350名人工智慧專家連署)
(背景補充:拜登怕 AI 危及國安!緊急召集微軟、Google、OpenAI 進白宮商談「人工智慧風險」)
為了近距離瞭解矽谷 AI 前端發展最新動向和第一手資訊,近期,我們專程前往矽谷學習考察,先後參觀了微軟、Google、輝達、Meta 等公司總部,與眾多業內人士進行了深入交流,收穫多多,感觸頗深。
通過交流過所瞭解到的很多關於算力和大模型的前端認知,與國內目前資本市場的理解不盡相同,甚至天差地別,這些差異也許蘊含著重要的投資機遇。為此,特將此次學習考察收穫第一時間與各位分享。
此行中我們最大的感受是,在美國 AI 已經不是剛開始引發好奇與爭議的新鮮事物,而是像水和電一樣融入到社會生產、公司經營和百姓生活的各個方面。同時,AI 技術進步的速度處於一個 「寒武紀」 的時代,幾乎每一週甚至每一天,都有讓人興奮的新技術或者新產品橫空出世並且迅速應用到實際場景中,因而美國的 VC、PE 可以說是幾乎無孔不入,深入到 AI 各個方面去尋找投資機會。
以 Google 為代表的全球科技巨頭普遍認為,本次 AI 革命是人類未有之大變局,它是人類進步的一個空前的拐點。我們曾經指出,這一次,AI 將電腦歷史上最大想像空間的網際網路最高流量入口、公有雲最大的市場、統一萬物的作業系統合三為一,即使這樣我們可能仍然低估了它的意義:這或將是人類發展史上最偉大的科技革命!
我們從底層技術路徑與算力、行業應用以及大模型與垂直模型的發展趨勢三個方面來介紹矽谷 AI 學習考察之行的收穫:
1 大模型的底層技術與算力需求
第一,GPT 大模型的底層技術是 Google 的 TransFormer,其核心的意義在於給定前文後推理出下一個最有可能的字元來進行輸出,一些巨頭的基礎大模型差別在於解碼單向結構還是編解碼雙向結構。ChatGPT 可以支援對前文 32000 個字元分析再推理出下一個字,這已經是一個非常龐大的數量級,且 ChatGPT 只允許根據前文分析推理不允許加入後文來分析推理(decoder only)。Google 最先推出的大模型 Bard 是前後文都可以用來分析推理(編解碼雙向結構),但後來改成與 ChatGPT 類似只能用前文推理的 PaLM 大模型,可能最終還是這種模式更接近於我們人類語言的方式。
第二,大模型本質上更像依賴 AI 基礎設施的 「煉丹」,是推理並不是認知;目前視訊生成受制於對基礎設施的高要求仍存在一定侷限性。雖 ChatGPT 在 QA、總結等領域表現令人震驚,但實際上還是推理而不是認知,包括生成圖片其實本質上也是生成文字,但是在生成視訊上 AI 推理難度很大,因為視訊的每幀都是大量圖片,需要非常強大的 AI 基礎設施去支撐。形象地說,大模型訓練就像煉丹,AI 基礎設施越好火力越旺,但是一開始都不知道大模型到底有沒有用,有一定的運氣的成分在裡面。
第三,大模型後來者的追趕難度並沒有大家想像那麼大,中國大模型追趕海外也會比較快。OpenAI 本身並不是技術絕對領先於其他科技巨頭,核心在於專注於 TransForemer 往通用人工智慧方向發展,而微軟、Google、Meta 都有很多賺錢的業務不太重視大模型。OpenAI 做出來之後大公司發現 AI 有前途,自己資源更好肯定會加緊追趕。矽谷專家預測 6 個月到 1 年以後,全球大廠大模型水平基本看齊。中國大模型追趕海外也會比較快,中國本身是一個很好的市場,現在大模型所有的技術大家都瞭解,無非就是資源的集中堆積。OpenAI 做這麼好都 「委身」 給微軟,本身就是因為訓練太花錢。
第四,海外 AI 巨頭算力儲備 A100 晶片基本在 50 萬片以上的量級,輝達在把算力資源向雲服務方向發展,同時也在佈局自身大模型。目前海外巨頭平均 A100 量級估計在 50 萬片以上,H100 可能每家一兩百張,六七月份才能大規模上線。輝達的實際優勢是軟硬體結合,它的硬體上面有一層框架 tensor RT,輝達有幾百人的工程設計團隊做框架,比如 pytorch 必須有 Tensor RT 才能跑,這個中間層軟體一般硬體公司寫不了。輝達不止做硬體,做 Tensor RT 還要做下層的基礎設施,未來輝達有望形成一個雲品牌,同時自己也在佈局大模型,可能會對整個 AI 生態造成極大影響。
第五,推理晶片的市場遠大於訓練晶片,甚至也遠大於訓練市場加上雲端推理市場的總和,中國在邊緣 AI 算力市場空間非常大。邊緣計算應用於物聯網等小裝置對製程要求不高,現在市場的格局分散,而推理晶片的市場遠大於訓練晶片,甚至也遠大於訓練市場加上雲端推理市場的總和,中國可以藉助自己的製造業優勢,把物聯網這一塊的製程降低,然後專用一點的這種小體量低算力的 AI 推理晶片推向市場,這是巨大機會。其實終端裝置的體量是極大的,世界上能夠提供雲服務的提供商,資料中心的量跟海量的終端裝置的數量比,晶片需求也還是很小的,大概就是 2/8 的比例。
在大模型的底層技術與算力需求方面,我們認為:
- 算力需求沒有天花板。當前大模型的主要算力需求來自於文字訓練,未來從文字到影象再到視訊,從訓練到推理,從雲端到邊緣端,算力需求的持續高增長是確定性非常強的。
- GPU 晶片的市場格局或將發生變化,在微軟等巨頭的強力支援下,AMD 較為薄弱的軟體生態有望取得長足進步,AMD 將對 NVIDIA 形成強有力的挑戰。
- 晶片是中美競爭的最大鴻溝。兩國達到一個數量級的算力儲備既是目前亟待解決的瓶頸,也是未來確定的投資機遇。尤其是在邊緣側推理算力,既是被低估的遠超訓練算力的市場,也給了中國展現製造業優勢的機會。
2 關於 AI 行業應用
第一,大模型適用於需要一定容錯率的行業,ChatGPT 開始做商業化付費使用 plus 其實並不賺錢,核心是為了擋掉一些亂用而把成本變得過高的使用者。大模型應用在要求 100% 精準的行業目前難度比較大,更多的是比如客服諮詢、藝術創作、會議記錄、寫文章、資料分析等。大模型的商業化在 B 端已經看到成果了,比如:微軟的全家桶 office,減少製作時間、提升完成度、提升復購率;客服:給地產公司、醫療公司節省前端客服的成本。視訊製作:一鍵生成 visla.us 只能生成 demo 視訊等工具,就不需要找工作室了,節約人力成本。GPT4 到現在只有一個半月,市場還在討論如何應用,再過六個月能看到更多更清晰的落地。
第二,微軟 M365 產品主要在大規模交付、隱私和安全方面發力。微軟現在主要的目標是怎樣去大規模的交付,尤其是解決一些個性化的 AI 特徵,另外就是安全與隱私方面的準備。M365 是微軟現在最核心的產品。對於企業整個工作流,整個的協作平臺,整個工具、儲存、安全都在 M365 的目錄下面。Copilot 是對於現有的產品線的生產能力做大幅度的提升。M365 有兩套不同的運算,依託 Azure 的資料中心做全球的擴張,M365 內部也有自己的資料中心;M365 是把 openAI 嵌入產品,不是用公用的 openAI。M365 在中國落地技術上有難度:1)運算資源;2)法規:資料透明度、敏感資訊的管理。
我們認為,在美國,AI 技術的應用已經非常普遍,例如客服諮詢、藝術創作、會議記錄、寫文章、資料分析等眾多行業。但需要注意的是,目前大模型的應用應該定位在 「副駕駛員」,需要一定的容錯率而非確定性的決策工作。此外,以微軟為代表的海外大模型應用目前進入中國仍存在較大難度,這些難度不僅僅是在資料安全與合規政策的要求方面,大模型與算力資源的本地化部署方面也面臨諸多挑戰。
3 大模型與垂直模型的發展趨勢
第一,Google 和微軟的大模型大機率閉源,而 Meta 可能是最重要的開源 「攪局者」。Google 因為搜尋會被大模型顛覆是沒有退路的,再開源大模型就沒有優勢了,而且 AI 未來會成為重要賺錢工具,所以大機率閉源。微軟則是完全依靠 OpenAI,希望 GPT 賦能 MS365 Copilot 等效率辦公工具和 Bing 搜尋引擎,微軟大機率也不會把 AI 開源。而 Meta 最重要的業務是社交,AI 可以作為聊天助手,Meta 的思路是做出大模型然後開源,成為大模型裡面的 「攪局者」。比較來看,Meta 的大模型 1750 億引數,估計 GPT4 引數 5000 億左右,Meta 開源了超過 650 億個引數的大模型,估計精確度比 ChatGPT 低 20% 左右。很多公司和學習使用 Meta 的開源模型做微調,在模型引數很小的基礎下效果和 GPT 等差不多。開放原始碼的意義在於可以發動全世界上百萬工程師一起參與微調。
第二,大模型走向移動端是個趨勢。未來大模型開源生態中大公司做大模型,小公司做微調,大模型還會被簡化到在各個移動終端上,比如原來的 32 位浮點運算改成 INT8 等,提升運算速度。大語言模型在開源中會有一個很好的生態圈,大語言模型就像水、電一樣,在一些細分領域讓開源生態做。開源社群有些聰明的人可以把模型蒸餾的很小,比如把 36 位浮點運算改成 INT4,可以把體積縮小十倍,小到可以在電腦和手機端裝,未來可能會有很多有創意的應用開發出來。未來 iOS 或者 Android 可能會內建大模型,以後所有的移動端應用跑一次給蘋果一定費用。
第三,大模型繼續發展中引數量的增加核心要考慮 ROI。處於科研角度,當然引數越多越好,但是處於商業使用的角度,每多一個引數就會增加成本,包含收整合本、訓練成本。ChatGPT 3.0 用了 1750B 的引數量,而 GitHub 上有一個仿 GBT 的模型只用了 70B 的引數就達到了 90% GPT 的效果。從商業應用層面,需要找 ROI 最高的引數。
第四,大模型最終會通吃一些通過網際網路即可獲得資料的垂直行業,可能無法覆蓋某些資料無法獲得的垂直領域模型。現在 Google 正在做一件事讓 AI 像人一樣即時學習網際網路的內容,而資料線上下無法獲得的領域,可能會出現線上的大模型和本地模型做互動的形式,但這個涉及難度比較大的耦合問題。
我們認為:
- 中國可能是以 Meta 為代表的開源大模型的最大受益者。
- 我們對於國內大模型追趕全球領先水平的進度應該保持信心,在已經給定了技術路線方向與開源大模型基礎上去追趕,實際上節省了從頭開始的試錯成本。尤其是對大模型通用性要求並不高的垂直行業龍頭,藉助開源大模型可以迅速搭建垂直大模型,加快垂直領域的應用落地。
- 大模型部署在邊緣側與移動端是一個必然的趨勢,尤其在近期 Google 釋出移動端大模型和 ChatGPT 在蘋果手機上的 App 正式上線之後,這一趨勢逐步被市場認知,大模型是非標準化的各類 AIoT 終端等待已久的統一作業系統。
特別聲明:任何情況下相關內容不應被視為投資建議
分析師承諾
本報告署名分析師具有中國證券業協會授予的證券投資諮詢執業資格並登記為註冊分析師,基於認真審慎的工作態度、專業嚴謹的研究方法與分析邏輯得出研究結論,獨立、客觀地出具本報告,並對本報告的內容和觀點負責。本報告清晰精準地反應了研究人員的研究觀點,結論不受任何第三方的授意、影響,研究人員不曾因、不因、也將不會因本報告中的具體推薦意見或觀點而直接或間接收到任何形式的補償。
📍相關報導📍
美國運通卡啟用AI員工!決定核卡、信用額度,以人工智慧加速金融業務