AI 與加密貨幣結合,能夠重塑代幣經濟學、拓展價值視角。而去中心化帳本解決信任問題,使價值流動,並發現剩餘價值。本文源自 Gate Venture 所著文章,由 PANews 整理、編譯及撰稿。
(前情提要:AI公司、資料中心將大量收購比特幣礦企?摩根大通:他們迫切需要廉價電力)
(背景補充:礦企Core Scientific和AI公司簽下12年合約!預估收益超35億鎂)
AI 行業近期的發展,被一部分人視為第四次工業革命,大模型的出現顯著提升了各行各業的效率, 波士頓諮詢認為 GPT 為美國提升了大約 20% 的工作效率。
同時大模型帶來的泛化能力被喻為新的軟體設計正規化,過去軟體設計是精確的程式碼,現在的軟體設計是更泛化的大模型框架嵌入到軟體中,這些軟體能具備更好的表現和支援更廣泛模態輸入與輸出。深度學習技術確實為 AI 行業帶來了第四次繁榮,並且這一股風潮也瀰漫到了 Crypto 行業。
在本報告中,我們將詳細探討 AI 行業的發展歷史、技術分類、以及深度學習技術的發明對行業的影響。然後深度剖析深度學習中 GPU、雲端計算、資料來源、邊緣裝置等產業鏈上下游,以及其發展現狀與趨勢。之後我們從本質上詳細探討了 Crypto 與 AI 行業的關係,對於 Crypto 相關的 AI 產業鏈的格局進行了梳理。
AI 行業的發展歷史
AI 行業從 20 世紀 50 年代起步,為了實現人工智慧的願景,學術界和工業界在不同時代不同學科背景的情況下,發展出了許多實現人工智慧的流派。
現代人工智慧技術使用的主要是「機器學習」這一術語,該技術的理念是讓機器依靠資料在任務中反覆迭代以改善系統的效能。主要的步驟是將資料送到演算法中,使用此資料訓練模型,測試部署模型,使用模型以完成自動化的預測任務。
目前機器學習有三大主要的流派,分別是聯結主義、符號主義和行為主義,分別模仿人類的神經系統、思維、行為。
而目前以神經網路為代表的聯結主義佔據上風(也被稱為深度學習),主要原因是這種架構有一個輸入層一個輸出層,但是有多個隱藏層,一旦層數以及神經元(引數)的數量變得足夠多,那麼就有足夠的機會擬合複雜的通用型任務。
通過資料輸入,可以一直調整神經元的引數,那麼最後經歷過多次資料,該神經元就會達到一個最佳的狀態(引數),這也就是我們說的大力出奇跡,而這也是其「深度」兩字的由來——足夠多的層數和神經元。
舉個例子,可以簡單理解就是構造了一個函式,該函式我們輸入 X=2 時,Y=3;X=3 時,Y=5,如果想要這個函式應對所有的 X,那麼就需要一直新增這個函式的度及其引數,比如我此時可以構造滿足這個條件的函式為 Y=2X-1,但是如果有一個數據為 X=2、Y=11 時,就需要重構一個適合這三個資料點的函式,使用 GPU 進行暴力破解發現 Y=X2-3X+5,比較合適,但是不需要完全和資料重合,只需要遵守平衡,大致相似的輸出即可。這裡面 X2 以及 X、X0 都是代表不同的神經元,而 1、-3、5 就是其引數。
此時如果我們輸入大量的資料到神經網路中時,我們可以增加神經元、迭代引數來擬合新的資料。這樣就能擬合所有的資料。
而基於神經網路的深度學習技術,也有多個技術迭代與演進,分別如上圖的最早期的神經網路,前饋神經網路、RNN、CNN、GAN 最後演進到現代大模型如 GPT 等使用的 Transformer 技術,Transformer 技術只是神經網路的一個演進方向,多加了一個轉換器(Transformer),用於把所有模態(如音訊,視訊,圖片等)的資料編碼成對應的數值來表示。然後再輸入到神經網路中,這樣神經網路就能擬合任何型別的資料,也就是實現多模態。
AI 發展經歷了三次技術浪潮,第一次浪潮是 20 世紀 60 年代,是 AI 技術提出的十年後,這次浪潮是符號主義技術發展引起的,該技術解決了通用的自然語言處理以及人機對話的問題。同時期,專家系統誕生,這個是斯坦福大學在美國國家航天局的督促下完成的 DENRAL 專家系統,該系統具備非常強的化學知識,通過問題進行推斷以生成和化學專家一樣的答案,這個化學專家系統可以被視為化學知識庫以及推斷系統的結合。
在專家系統之後,20 世紀 90 年代以色列裔的美國科學家和哲學家朱迪亞・珀爾(Judea Pearl)提出了貝葉斯網路,該網路也被稱為信念網路。同時期,Brooks 提出了基於行為的機器人學,標誌著行為主義的誕生。
1997 年,IBM 深藍「Blue」以 3.5:2.5 戰勝了國際象棋冠軍卡斯帕羅夫(Kasparov),這場勝利被傳視為人工智慧的一個里程碑,AI 技術迎來了第二次發展的高潮。
第三次 AI 技術浪潮發生在 2006 年。深度學習三巨頭 Yann LeCun 、Geoffrey Hinton 以及 Yoshua Bengio 提出了深度學習的概念,一種以人工神經網路為架構,對資料進行表徵學習的演算法。之後深度學習的演算法逐漸演進,從 RNN、GAN 到 Transformer 以及 Stable Diffusion,這兩個演算法共同塑造了這第三次技術浪潮,而這也是聯結主義的鼎盛時期。
許多標誌性的事件也伴隨著深度學習技術的探索與演進逐漸湧現,包括:
- 2011 年,IBM 的沃森(Watson)在《危險邊緣》(Jeopardy)回答測驗節目中戰勝人類、獲得冠軍。
- 2014 年,Goodfellow 提出 GAN(生成式對抗網路,Generative Adversarial Network),通過讓兩個神經網路相互博弈的方式進行學習,能夠生成以假亂真的照片。同時 Goodfellow 還寫了一本書籍《Deep Learning》,稱為花書,是深度學習領域重要入門書籍之一。
- 2015 年,Hinton 等人在《自然》雜誌提出深度學習演算法,該深度學習方法的提出,立即在學術圈以及工業界引起巨大反響。
- 2015 年,OpenAI 建立,Musk、YC 總裁 Altman、天使投資人彼得・泰爾(Peter Thiel)等人宣佈共同注資 10 億美元。
- 2016 年,基於深度學習技術的 AlphaGo 與圍棋世界冠軍、職業九段棋手李世石進行圍棋人機大戰,以 4 比 1 的總比分獲勝。
- 2017 年,中國香港的漢森機器人技術公司(Hanson Robotics)開發的類人機器人索菲亞,其稱為歷史上首個獲得一等公民身份的機器人,具備豐富的面部表情以及人類語言理解能力。
- 2017 年,在人工智慧領域有豐富人才、技術儲備的 Google 釋出論文《Attention is all you need》提出 Transformer 演算法,大規模語言模型開始出現。
- 2018 年,OpenAI 釋出了基於 Transformer 演算法構建的 GPT(Generative Pre-trained Transformer),這是當時最大的語言模型之一。
- 2018 年,Google 團隊 Deepmind 釋出基於深度學習的 AlphaGo,能夠進行蛋白質的結構預測,被視為人工智慧領域的巨大進步性標誌。
- 2019 年,OpenAI 釋出 GPT-2,該模型具備 15 億個引數。
- 2020 年,OpenAI 開發的 GPT-3,具有 1,750 億個引數,比以前的版本 GPT-2 高 100 倍,該模型使用了 570GB 的文字來訓練,可以在多個 NLP(自然語言處理)任務(答題、翻譯、寫文章)上達到最先進的效能。
- 2021 年,OpenAI 釋出 GPT-4,該模型具備 1.76 兆個引數,是 GPT-3 的 10 倍。
- 2023 年 1 月基於 GPT-4 模型的 ChatGPT 應用程式推出,3 月 ChatGPT 達到一億使用者,成為歷史最快達到一億使用者的應用程式。
- 2024 年,OpenAI 推出 GPT-4 omni。
深度學習產業鏈
當前大模型語言使用的都是基於神經網路的深度學習方法。以 GPT 為首的大模型造就了一波人工智慧的熱潮,大量的玩家湧入這個賽道,我們也發現市場對於資料、算力的需求大量迸發,因此在報告的這一部分,我們主要是探索深度學習演算法的產業鏈,在深度學習演算法主導的 AI 行業,其上下游是如何組成的,而上下游的現狀與供需關係、未來發展又是如何。
首先我們需要明晰的是,在進行基於 Transformer 技術的 GPT 為首的 LLMs(大模型)訓練時,一共分為三個步驟。
在訓練之前,因為是基於 Transformer,因此轉換器需要將文字輸入轉化為數值,這個過程被稱為「Tokenization」,之後這些數值被稱為 Token。在一般的經驗法則下,一個英文單詞或者字元可以粗略視作一個 Token,而每個漢字可以被粗略視為兩個 Token。這個也是 GPT 計價使用的基本單位。
- 第一步,預訓練。通過給輸入層足夠多的資料對,類似於報告第一部分所舉例的(X,Y),來尋找該模型下各個神經元最佳的引數,這個時侯需要大量的資料,而這個過程也是最耗費算力的過程,因為要反覆迭代神經元嘗試各種引數。一批資料對訓練完成之後,一般會使用同一批資料進行二次訓練以迭代引數。
- 第二步,微調。微調是給予一批量較少,但是品質非常高的資料,來訓練,這樣的改變就會讓模型的輸出有更高的品質,因為預訓練需要大量資料,但是很多資料可能存在錯誤或者低品質。微調步驟能夠通過優質資料提升模型的品質。
- 第三步,強化學習。首先會建立一個全新的模型,我們稱其為「獎勵模型」,這個模型目的非常簡單,就是對輸出的結果進行排序,因此實現這個模型會比較簡單,因為業務場景比較垂直。之後用這個模型來判定我們大模型的輸出是否是高品質的,這樣就可以用一個獎勵模型來自動迭代大模型的引數。(但是有時候也需要人為參與來評判模型的輸出品質)
簡而言之,在大模型的訓練過程中,預訓練對資料的量有非常高的要求,所需要耗費的 GPU 算力也是最多的,而微調需要更加高品質的資料來改進引數,強化學習可以通過一個獎勵模型來反覆迭代引數以輸出更高品質的結果。
在訓練的過程中,引數越多那麼其泛化能力的天花板就越高,比如我們以函式舉例的例子裡,Y=aX+b,那麼實際上有兩個神經元 X 以及 X0,因此引數如何變化,其能夠擬合的資料都極其有限,因為其本質仍然是一條直線。如果神經元越多,那麼就能迭代更多的引數,那麼就能擬合更多的資料,這就是為什麼大模型大力出奇跡的原因,並且這也是為什麼通俗取名大模型的原因,本質就是巨量的神經元以及引數、巨量的資料,同時需要巨量的算力。
因此,影響大模型表現主要由三個方面決定,引數數量、資料量與品質、算力,這三個共同影響了大模型的結果品質和泛化能力。我們假設引數數量為 p,資料量為 n(以 Token 數量進行計算),那麼我們能夠通過一般的經驗法則計算所需的計算量,這樣就可以預估我們需要大致購買的算力情況以及訓練時間。
算力一般以 Flops 為基本單位,代表了一次浮點運算,浮點運算是非整數的數值加減乘除的統稱,如 2.5+3.557,浮點代表著能夠帶小數點,而 FP16 代表了支援小數的精度,FP32 是一般更為常見的精度。根據實踐下的經驗法則,預訓練(Pre-traning)一次(一般會訓練多次)大模型,大概需要 6np Flops,6 被稱為行業常數。而推理(Inference,就是我們輸入一個數據,等待大模型的輸出的過程),分成兩部分,輸入 n 個 token,輸出 n 個 token,那麼大約一共需要 2np Flops。
在早期,使用的是 CPU 晶片進行訓練提供算力支援,但是之後開始逐漸使用 GPU 替代,如 Nvidia 的 A100、H100 晶片等。因為 CPU 是作為通用計算存在的,但是 GPU 可以作為專用的計算,在能耗效率上遠遠超過 CPU。GPU 執行浮點運算主要是通過一個叫 Tensor Core 的模組進行。因此一般的晶片有 FP16/FP32 精度下的 Flops 資料,這個代表了其主要的計算能力,也是晶片的主要衡量指標之一。
因此,讀者應該能夠看懂這些企業的晶片介紹,如上圖所示,Nvidia 的 A100 80GB PCIe 和 SXM 型號的對比中,看出 PCIe 和 SXM 在 Tensor Core(專門用於計算 AI 的模組)下,在 FP16 精度下,分別是 312TFLOPS 和 624TFLOPS(Trillion Flops)。
假設我們的大模型引數以 GPT3 為例,有 1,750 億個引數,1,800 億個 Token 的資料量(大約為 570GB),那麼在進行一次預訓練時,就需要 6np 的 Flops,大約為 3.15*1022 Flops,如果以 TFLOPS(Trillion FLOPs)為單位大約為 3.15*1010 TFLOPS,也就是說一張 SXM 型號的晶片預訓練一次 GPT3 大約需要 50480769 秒,841346 分鐘,14022 小時,584 天。
我們能夠看到這個及其龐大的計算量,需要多張最先進的晶片共同計算才能夠實現一次預訓練,並且 GPT4 的引數量又是 GPT3 的十倍(1.76 trillion),意味著即使資料量不變的情況下,晶片的數量要多購買十倍,並且 GPT-4 的 Token 數量為 13 兆個,又是 GPT-3 的十倍,最終,GPT-4 可能需要超過 100 倍的晶片算力。
在大模型訓練中,我們的資料儲存也有問題,因為我們的資料如 GPT3 Token 數量為 1,800 億個,大約在儲存空間中佔據 570GB,大模型 1,750 億個引數的神經網路,大約佔據 700GB 的儲存空間。GPU 的記憶體空間一般都較小(如上圖介紹的 A100 為 80GB),因此在記憶體空間無法容納這些資料時,就需要考察晶片的頻寬,也就是從硬碟到記憶體的資料的傳輸速度。
同時由於我們不會只使用一張晶片,那麼就需要使用聯合學習的方法,在多個 GPU 晶片共同訓練一個大模型,就涉及到 GPU 在晶片之間傳輸的速率。所以在很多時候,制約最後模型訓練實踐的因素或者成本,不一定是晶片的計算能力,更多時侯可能是晶片的頻寬。因為資料傳輸很慢,會導致執行模型的時間拉長,電力成本就會提高。
這個時侯,讀者大致就能完全看懂晶片的 Specification 了,其中 FP16 代表精度,由於訓練 AI LLMs 主要使用的是 Tensor Core 元件,因此只需要看這個元件下的計算能力。FP64 Tensor Core 代表了在 64 精度下每秒 H100 SXM 能夠處理 67 TFLOPS。GPU memory 意味著晶片的記憶體僅有 64GB,完全無法滿足大模型的資料儲存要求,因此 GPU memory bandwith 就意味著資料傳輸的速度,H100 SXM 為 3.35TB/s。
我們看到了,資料、神經元引數數量的膨脹帶來的大量算力以及儲存需求的缺口。這三個主要的要素孵化了一整條的產業鏈。我們將根據上圖來介紹產業鏈中每一個部分在其中扮演的角色以及作用。
硬體 GPU 提供商
硬體如 GPU 是目前進行訓練和推理的主要晶片,對於 GPU 晶片的主要設計商方面,目前 Nvidia 處於絕對的領先地位,學術界(主要是高校和研究機構)主要是使用消費級別的 GPU(RTX,主要的遊戲 GPU);工業界主要是使用 H100、 A100 等用於大模型的商業化落地。
在榜單中,Nvidia 的晶片幾乎屠榜,所有晶片都來自 Nvidia。Google 也有自己的 AI 晶片被稱為 TPU,但是 TPU 主要是 Google Cloud 在使用,為 B 端企業提供算力支援,自購的企業一般仍然傾向於購買 Nvidia 的 GPU。
大量的企業著手進行 LLMs 的研發,包括中國就有超過一百個大模型,而全球一共發行了超過 200 個大語言模型,許多網際網路巨頭都在參與這次 AI 熱潮。這些企業要麼是自購大模型、要麼是通過雲企業進行租賃。2023 年,Nvidia 最先進的晶片 H100 一經發布,就獲得了多家公司的認購。全球對 H100 晶片的需求遠遠大於供給,因為目前僅僅只有 Nvidia 一家在供給最高階的晶片,其出貨週期已經達到了驚人的 52 周之久。
鑑於 Nvidia 的壟斷情況,Google 作為人工智慧的絕對領頭企業之一,Google 牽頭,英特爾、高通、微軟、亞馬遜共同成立了 CUDA 聯盟,希望共同研發 GPU 以擺脫 Nvidia 對深度學習產業鏈的絕對影響力。
對於超大型科技公司、雲服務提供商、國家級實驗室來說,他們動則購買上千、上萬片 H100 晶片,用以組建 HPC(高效能運算中心),比如 Tesla 的 CoreWeave 叢集購買了一萬片 H100 80GB,平均購買價為 44,000 美元(Nvidia 成本大約為 1/10),總共花費 4.4 億美元;而 Tencent 更是購買 5 萬片;Meta 狂買 15 萬片,截至 2023 年底,Nvidia 作為唯一高效能 GPU 賣家,H100 晶片的訂購量就超過了 50 萬片。
在 Nvidia 的晶片供給方面,以上是其產品迭代路線圖,目前截至該報告,H200 的訊息已經發出,預計 H200 的效能是 H100 效能的兩倍,而 B100 將在 2024 年底或者 2025 年初推出。目前 GPU 的發展仍然滿足摩爾定律,效能每 2 年翻一倍,價格下降一半。
雲服務提供商
雲服務提供商在購買足夠的 GPU 組建 HPC 後,能夠為資金有限的人工智慧企業提供彈性的算力以及託管訓練解決方案。如上圖所示,目前市場主要分為三類雲算力提供商:
- 第一類是以傳統雲廠商為代表的超大規模拓展的雲算力平臺(AWS、Google、Azure)。
- 第二類是垂直賽道的雲算力平臺,主要是為 AI 或者高效能運算而佈置的,他們提供了更專業的服務,因此在與巨頭競爭中,仍然存在一定的市場空間,這類新興垂直產業雲服務企業包括 CoreWeave(C 輪獲得 11 以美元融資,估值 190 億美元)、Crusoe、Lambda(C 輪融資 2.6 億美元,估值超過 15 億美元)等。
- 第三類雲服務提供商是新出現的市場玩家,主要是推理即服務提供商,這些服務商從雲服務商租用 GPU,這類服務商主要為客戶部署已經預訓練完畢的模型,在之上進行微調或者推理,這類市場的代表企業包括了 Together.ai(最新估值 12.5 億美元)、Fireworks.ai(Benchmark 領投,A 輪融資 2,500 萬美元)等。
訓練資料來源提供商
正如我們第二部分前面所述,大模型訓練主要經歷三個步驟,分別為預訓練、微調、強化學習。預訓練需要大量的資料,微調需要高品質的資料,因此對於 Google 這種搜尋引擎(擁有大量資料)和 Reddit(優質的對答資料)這種型別的資料公司就受到市場的廣泛關注。
有些開發廠商為了不與 GPT 等通用型的大模型競爭,選擇在細分領域進行開發,因此對資料的要求就變成了這些資料是特定行業的,比如金融、醫療、化學、物理、生物、影象識別等。這些是針對特定領域的模型,需要特定領域的資料,因此就存在為這些大模型提供資料的公司,我們也可以叫他們 Data labling company,也就是為採集資料後為資料打標籤,提供更加優質與特定的資料型別。
對於模型研發的企業來說,大量資料、優質資料、特定資料是三種主要的資料訴求。
微軟的一項研究認為對於 SLM(小語言模型)來說,如果他們的資料品質明顯優於大語言模型,那麼其效能不一定會比 LLMs 差。並且實際上 GPT 在原創力以及資料上並沒有明顯的優勢,主要是其對該方向的押注的膽量造就了其成功。紅杉美國也坦言,GPT 在未來不一定會保持競爭優勢,原因是目前這方面沒有太深的護城河,主要的限制來源於算力獲取的限制。
對於資料量來說,根據 EpochAI 的預測,按照當前的模型規模增長情況,2030 年所有的低品質和高品質資料都會耗盡。所以目前業內正在探索人工智慧合成數據,這樣就可以生成無限的資料,那麼瓶頸就只剩下算力,這個方向仍然處於探索階段,值得開發者們關注。
資料庫提供商
我們有了資料,但是資料也需要儲存起來,一般是存放在資料庫中,這樣方便資料的增刪改查。在傳統的網際網路業務中,我們可能聽說過 MySQL,在以太坊客戶端 Reth 中,我們聽說過 Redis。這些都是我們存放業務資料或者區塊鏈 鏈上資料的本地資料庫。對於不同的資料型別或者業務有不同的資料庫適配。
對於 AI 資料以及深度學習訓練推理任務,目前業內使用的資料庫稱為「向量資料庫」。向量資料庫旨在高效地儲存、管理和索引海量高維向量資料。因為我們的資料並不是單純的數值或者文字,而是圖片、聲音等海量的非結構化的資料,向量資料庫能夠將這些非結構化的資料統一以「向量」的形式儲存,而向量資料庫適合這些向量的儲存和處理。
目前主要的玩家有 Chroma(獲得 1,800 萬美元融資輪融資)、Zilliz(最新一輪融資 6,000 萬美元)、Pinecone、Weaviate 等。我們預計伴隨著資料量的需求增加,以及各種細分領域的大模型和應用的迸發,對 Vector Database 的需求將大幅增加。並且由於這一領域有很強的技術壁壘,在投資時更多考慮偏向於成熟和有客戶的企業。
邊緣裝置
在組建 GPU HPC(高效能運算叢集)時,通常會消耗大量的能量,這就會產生大量的熱能,晶片在高溫環境下,會限制執行速度以降低溫度,這就是我們俗稱的「降頻」,這就需要一些降溫的邊緣裝置來保證 HPC 持續執行。
所以這裡涉及到產業鏈的兩個方向,分別是能源供應(一般是採用電能)、冷卻系統。
目前在能源供給側,主要是採用電能,資料中心及支援網路目前佔全球電力消耗的 2%-3%。BCG 預計隨著深度學習大模型引數的增長以及晶片的迭代,截至 2030 年,訓練大模型的電力將增長三倍。目前國內外科技廠商正在積極投資能源企業這一賽道,投資的主要能源方向包括地熱能、氫能、電池儲存和核能等。
在 HPC 叢集散熱方面,目前是以風冷為主,但是許多 VC 正在大力投資液冷系統,以維持 HPC 的平穩執行。比如 Jetcool 就聲稱其液冷系統能夠為 H100 叢集的總功耗降低 15%。目前液冷主要分成三個探索方向分別為冷版式液冷、浸沒式液冷、噴淋式液冷。這方面的企業有:華為、Green Revolution Cooling 、SGI 等。
應用
當前 AI 應用的發展,類似於區塊鏈行業的發展,作為一個創新性的行業,Transformer 是在 2017 年提出,OpenAI 是在 2023 年才證實大模型的有效性。所以現在許多 Fomo 的企業都擁擠在大模型的研發賽道,也就是基礎設施非常擁擠,但是應用開發卻沒有跟上。
目前前十月活的 AI 應用大多數是搜尋型別的應用,實際走出來的 AI 應用還非常有限,應用型別較為單一,並沒有一些社交等型別的應用成功闖出來。
我們同時發現,基於大模型的 AI 應用,其留存率遠低於現有的傳統網際網路應用。活躍使用者數方面,傳統的網際網路軟體中位數在 51%,最高的是 Whatsapp,具備很強的使用者粘性。但是在 AI 應用側,DAU/MAU 最高的為 character.ai 僅僅為 41%,DAU 佔據總使用者數量的中位數 14%。在使用者留存率方面,傳統網際網路軟體最好的是 Youtube、Instagram、Tiktok,前十的留存率中位數為 63%,相比之下 ChatGPT 留存率僅僅為 56%。
根據紅杉美國的報告,其將應用從面向的角色角度分為三類,分別是面向專業消費者、企業、普通消費者。
- 面向消費者:一般用於提升生產力,如文字工作者使用 GPT 進行問答,自動化的 3D 渲染建模,軟體剪輯,自動化的代理人,使用 Voice 型別的應用進行語音對話、陪伴、語言練習等。
- 面向企業:通常是 Marketing、法律、醫療設計等行業。
雖然現在有很多人批評,基礎設施遠大於應用,但其實我們認為現代世界已經廣泛的被人工智慧技術所重塑,只不過使用的是推薦系統,包括位元組跳動旗下的 tiktok、今日頭條、汽水音樂等,以及小紅書和微信視訊號、廣告推薦技術等都是為個人進行訂製化的推薦,這些都屬於機器學習演算法。所以目前蓬勃發展的深度學習不完全代表 AI 行業,有許多潛在的有機會實現通用人工智慧的技術也在並行發展,並且其中一些技術已經被廣泛的應用於各行各業。
Crypto x AI 的關係
區塊鏈得益於 ZK 技術的發展,演變成了去中心化 + 去信任化的思想。我們回到區塊鏈創造之初,是比特幣鏈。在中本聰的論文《比特幣,點對點的電子現金系統》中,其首先稱其為去信任化的、價值轉移系統。之後 Vitalik 等人發表了論文《A Next-Generation Smart Contract and Decentralized Application Platform》推出了去中心化、去信任化、價值互換的智慧合約平臺。
回到本質,我們認為整個區塊鏈網路就是一個價值網路,每一筆交易都是以底層代幣為基礎的價值轉換。這裡的價值是 Token 的形式體現,而 Tokenomics 就是具體的 Token 價值體現的規則。
在傳統的網際網路中,價值的產生是以 P/E 進行結算,是有一個最終的形式體現,也就是股價,所有的流量、價值、影響力都會形成企業的現金流,這種現金流是價值的最後體現,最後折算成 P/E 反應到股價和市值上。
但是對於以太坊網路來說,ETH 作為以太坊網路多種維度價值的的體現,其不僅僅能夠通過質押獲得穩定的現金流,還能充當價值交換的媒介、價值儲存的媒介、網路活動的消費品等。並且,其還充當安全保護層 Restaking、Layer2 生態系統的 Gas Fee 等。
Tokenomics 非常重要,代幣經濟學能夠規定生態系統的結算物(也就是網路的原生代幣)的相對價值,雖然我們無法為每一個維度進行定價,但是我們有了多維度價值的體現,這就是代幣的價格。這種價值是遠遠超越企業的證券存在形式的。一旦為網路賦予代幣,並且將該種代幣進行流通,類似於騰訊的所有 Q 幣有了限定的數量、通縮通膨的機制、代表了龐大騰訊的生態系統,作為結算物的存在、也能成為價值儲存與生息的手段。這種價值肯定是遠遠超過股價的價值。而代幣是多價值維度的最終體現。
代幣很迷人,代幣能夠把一個功能或者某個思想賦予價值,我們使用瀏覽器,但是不會考慮到底層的開源 HTTP 協議的定價,如果發行了代幣,那麼其價值就會在交易中體現。一個 MEME 幣的存在以及背後代表的詼諧思想也有價值,代幣經濟學能夠為任何一種創新與存在賦予動力,無所謂是思想還是實物創造,代幣經濟學將世間的一切都價值化了。
代幣和區塊鏈技術這種對價值重新定義與發現的手段,對任何行業也至關重要,包括 AI 行業。在 AI 行業中,發行代幣能夠讓 AI 產業鏈中的各方面都進行價值的重塑,那麼會激勵更多人願意在 AI 行業各個細分賽道深根,因為其帶來的收益將變得更為顯著,不僅僅是現金流來決定其當前價值,並且代幣的協同作用會讓基礎設施的價值得到提升,這會天然的導致胖協議瘦應用正規化的形成。
其次,AI 產業鏈中所有專案都將獲得資本增值的收益,並且這種代幣能夠反哺生態系統以及促進某種哲學思想的誕生。
代幣經濟學顯然對行業的影響是有其積極的一面,區塊鏈技術的不可篡改和無需信任的性質也有其 AI 行業的實際意義,能夠實現一些需要信任的應用,比如我們的使用者資料能夠允許在某個模型之上,但是確保模型不知道具體的資料、確保模型不洩露資料、確保返回該模型推理的真實資料。當 GPU 不足夠時,能夠通過區塊鏈網路分銷,當 GPU 迭代,閒置的 GPU 能貢獻算力到網路中,重新發現剩餘價值,這是全球化的價值網路才能做到的事情。
總之,代幣經濟學能夠促進價值的重塑和發現,去中心化帳本能夠解決信任問題,將價值在全球範圍重新流動起來。
Crypto 行業 Value Chain 專案概覽
以上是 GPU 雲算力市場的主要專案參與者,市值與基本面發展較好的是 Render,其在 2020 年推出,但是由於資料不公開與透明,因此我們暫時無法得知其業務即時發展狀況。目前使用 Render 進行業務的絕大多數是非大模型類的視訊渲染任務。
Render 作為有實際業務量的老牌 DePIN 業務,確實乘著 AI/DePIN 的風成功了,但是 Render 面向的場景與 AI 並不同,因此嚴格意義上不算是 AI 板塊。並且其視訊渲染業務確實有一定的真實需求,因此 GPU 雲算力市場不僅僅可以面向 AI 模型的訓練、推理,也可以應用於傳統渲染任務,這降低了 GPU 雲市場依賴單一市場風險。
在 Crypto 關於 AI 的產業鏈中,算力供給無疑是最重要的一點。根據行業預測,2024 年 GPU 的算力需求大約有 750 億美元,到 2032 年大約有 7,730 億美元的市場需求,年化複合增長率(CAGR)約為 33.86%。
GPU 的迭代率遵循摩爾定律(18-24 各月效能翻倍,價格下降一半),那麼對於共享 GPU 算力的需求將會變得極大,因為 GPU 市場的爆發,會在未來摩爾定律的影響下,形成大量的非最新幾代的 GPU,這時侯這些閒置的 GPU 將作為長尾算力在共享網路中繼續發揮其價值,因此我們確實看好這個賽道的長期潛力和實際效用,不僅僅是中小模型的業務還有傳統的渲染業務也會形成比較強的需求。
值得提醒的是,注意到許多報告都將低廉的價格作為這些產品的主要產品賣點,以此來說明鏈上 GPU 共享以及計算市場的廣闊空間,但是我們想要強調的是,決定雲算力市場的定價不僅僅是使用的 GPU 有關,還和資料傳輸的頻寬、邊緣裝置、配套的 AI 託管開發者工具等有關。但是在頻寬、邊緣裝置等相同的情況下,由於存在代幣補貼,一部分價值是由代幣和網路效應共同決定的,確實有更低廉的價格,這是價格上的優勢,但是同時也有其網路資料傳輸緩慢導致模型研發、渲染任務緩慢的缺點。
硬體頻寬
就像我們在 GPU 供給側所述,雲算力廠商的定價往往與 GPU 晶片有關,但是還與頻寬、冷卻系統、AI 配套開發工具等有關。在報告的 AI 產業鏈章節處,我們也提到由於大模型的引數和資料容量的問題,在傳遞資料過程中會顯著影響大模型訓練的時間,因此很多時候頻寬才是影響大模型的主要原因,特別對於鏈上雲端計算領域,其頻寬以及資料交換更慢,影響更大,因為是各地的使用者進行的協同工作,但是在其它的雲廠商如 azure 等都是建立集中化的 HPC,更便於協調和改善頻寬。
以 Menson Network 為例,其 Meson 設想的未來是,使用者可以輕鬆地將剩餘頻寬換成代幣,而有需要的人可以在 Meson 市場內訪問全球頻寬。使用者可以將資料存放在使用者的資料庫中,而其它使用者就可以訪問最近的使用者儲存的資料,以此加速網路資料的交換,加快模型的訓練速度。
但是我們認為,共享頻寬是一個偽概念,因為對於 HPC 來說,其資料主要儲存在本地節點,但是對於這種共享頻寬,資料儲存在有一定距離的(如 1km、10km、100km)以外,這些地理位置的距離導致的延遲都會遠遠高於在本地進行資料儲存,因為這樣會導致頻繁的排程分配。因此,這個偽需求也是市場不買帳的原因,Meson Network 最新一輪融資估值 10 億美元,上線交易所以後,FDV 僅僅 930 萬美元,不及估值的 1/10。
資料
根據我們在深度學習產業鏈中所述,大模型的引數數量、算力、資料三方面共同影響著大模型的品質,這裡有許多的資料來源企業以及向量資料庫提供商的市場機會,他們會為企業提供各種特定型別的資料服務。
目前上線的專案包括 EpiK Protocol、Synesis One、Masa 等,不同點在於 EpiK protocol 和 Synesis One 是對於公開資料來源進行收集,但是 Masa 是基於 ZK 技術,能夠實現隱私資料的收集,這樣對於使用者更加友好。
相比於其它 Web2 的傳統資料企業,Web3 資料提供商具備的優勢在於資料採集側,因為個人能夠貢獻自己非隱私的資料(ZK 技術能促進使用者貢獻隱私資料但是不會顯示洩漏),這樣專案的接觸面會變得很廣,不僅僅是 ToB,而且能夠為任何使用者的資料都進行定價,任何過去的資料都有了價值,並且由於代幣經濟學的存在,本身網路價值和價格是相互依賴的,0 成本的代幣隨著網路價值變高也會變高,而這些代幣會降低開發商的成本,用來獎勵使用者,使用者貢獻資料的動機將變得更足。
我們認為這種能夠同時接觸 Web2 以及 Web3,並且在使用者層面幾乎任何人都有機會貢獻自己資料的機制非常容易實現部分範圍的「Mass Adoption」,在資料消費端是各種模型,有了真實的供需雙方,並且使用者在網上隨意點選即可,操作難度也很低。唯一需要考慮的是隱私計算的問題,因此 ZK 方向的資料提供商可能有一個較好的發展前景,其中典型的專案包括 Masa。
ZKML
如果資料想要實現隱私計算以及訓練,目前業內主要採用的 ZK 方案,使用同態加密技術,將資料在鏈下推理然後將結果和 ZK 證明上傳,那麼就能保證資料的隱私性和推理的低成本高效率。在鏈上是非常不適合推理的。這也是為什麼 ZKML 賽道的投資者普遍品質更高的原因,因為這個才是符合商業邏輯的。
不僅僅這些專注於人工智慧領域的鏈下訓練和推理的專案存在,也有一些通用型的 ZK 專案,能夠提供圖靈完備的 ZK 協作處理能力,為任何鏈下計算和資料提供 ZK 證明,包括 Axiom、Risc Zero、Ritual 等專案也值得關注,這型別的專案應用邊界更廣,對於 VC 有更多的容錯性。
AI 應用
區塊鏈的應用情況也與傳統的 AI 行業較為相似,大部分處於基礎設施的建設,目前發展最為繁榮的仍然是上游產業鏈,但是下游產業鏈如應用端,發展的較為薄弱。
這型別的 AI+ 區塊鏈應用,更多是傳統區塊鏈應用 + 自動化和泛化能力。比如 DeFi 能夠通過使用者的想法來執行最優的交易、Lending 路徑,這型別的應用被稱為 AI Agent。神經網路和深度學習技術對軟體革命最根本性在於其泛化能力,能夠適配多種不同人群的不同需求,以及不同模態的資料。
而我們認為這種泛化能力,首先將使得 AI Agent 收益,其作為使用者與多種應用的橋樑,能夠幫助使用者進行復雜的鏈上決策,選擇最優路徑。Fetch.AI 就是其中代表性的專案(目前 MC 21 億美元),我們以 Fetch.AI 來簡述 AI Agent 工作原理。
上圖是 Fetch.AI 的架構圖,Fetch.AI 對 AI Agent 的定義式 「一個在區塊鏈網路上自我執行的程式,其可以連線、搜尋和交易,也可以對其進行程式設計以便於其與網路中的其它代理進行互動」。DeltaV 是建立 Agent 的平臺,註冊的 Agent 形成一個 Agent 庫,叫做 Agentverse。
AI Engine 是解析使用者的文字以及目的,然後轉化成代理能接受的精準指令,然後在 Agentverse 中找到執行這些指令的最適合的 Agent。任何服務都能註冊為代理,這樣就會形成一個以意圖為指導的嵌入式網路,這個網路能夠非常適合嵌入到比如 Telegram 這樣的應用,因為所有的入口都是 Agentverse,並且在聊天框中輸入任何操作或者想法,都會有對應的 Agent 在鏈上執行。
而 Agentverse 可以通過來接廣泛的 dAPP 來完成鏈上的應用互動任務。我們認為 AI Agent 有實際的意義,對於區塊鏈行業也有其原生需求,大模型給予應用大腦,但是 AI Agent 給予了應用雙手。
根據目前的市場資料來看,Fetch.AI 目前上線的 AI Agent 大約有 6,103 個,對於這個代理數量,在價格方面存在高估的可能性,因此市場對於其願景 願意給出更高的溢價。
AI 公鏈
類似於 Tensor、Allora、Hypertensor 、AgentLayer 等公鏈,其就是專為 AI 模型或者代理所構建的自適應網路,這個是區塊鏈原生的 AI 產業鏈一環。
我們以 Allora 來簡述這類 AI 鏈的執行原理:
- 消費者向 Allora Chain 尋求推理。
- 礦工在鏈下執行 推理模型和預測模型。
- 評估者負責評估礦工提供的推理品質,評估者通常是權威領域的專家,以準確評估推理品質。
這種類似於 RLHF(強化學習)將推理上傳到鏈上,鏈上的評估者能夠通過為結果進行排名進而改善模型的引數,這對於模型本身也是好處。同樣的,基於代幣經濟學的專案,能夠通過代幣的分發顯著降低推理的費用,這對專案的發展起到至關重要的作用。
與傳統 AI 模型使用 RLHF 演算法相比,一般是設定一個評分模型,但是這種評分模型仍然需要人工介入,並且其成本無法降低,參與方有限,相比之下 Crypto 能帶來更多的參與方,進一步激起廣泛的網路效應。
總結
首先需要強調的是,我們現在熟知的 AI 發展以及產業鏈的討論實際上是基於深度學習技術,其並不代表所有的 AI 的發展方向,這裡仍然有許多非深度學習,並且有前景的技術在孕育,但是由於 GPT 的效果著實太好,導致市場大部分的目光都被這一有效的技術路徑所吸引。
也有部分行業內的巨擘認為,當前的深度學習技術無法實現通用人工智慧,因此可能這種技術棧走向的終局是死局,但是我們認為這一技術已經有其存在的意義,也有 GPT 這一實際需求的場景存在,因此就類似於 tiktok 的推薦演算法一樣,雖然這種機器學習無法實現人工智慧,但是確實運用於各種資訊流中,優化推薦流程。所以我們仍然認可這一領域是值得理智、大力深根的。
代幣和區塊鏈技術這種對價值重新定義與發現(全球流動性)的手段,對於 AI 行業也有其有利的一面。在 AI 行業中,發行代幣能夠讓 AI 產業鏈中的各方面都進行價值的重塑,那麼會激勵更多人願意在 AI 行業各個細分賽道深根,因為其帶來的收益將變得更為顯著,不僅僅是現金流決定其當前價值。其次,AI 產業鏈中所有專案都將獲得資本增值收益,並且這種代幣能夠反哺生態系統以及促進某種哲學思想的誕生。
區塊鏈技術的不可篡改和無需信任的性質也有其 AI 行業的實際意義,能夠實現一些需要信任的應用,比如我們的使用者資料能夠允許在某個模型之上,但是確保模型不知道具體的資料、確保模型不洩露資料、確保返回該模型推理的真實資料。當 GPU 不足夠時,能夠通過區塊鏈網路分銷,當 GPU 迭代,閒置的 GPU 能貢獻算力到網路中,將廢舊的東西重新利用起來,這是全球化的價值網路才能做到事情。
GPU 電腦網路的劣勢在於頻寬,也就是對於 HPC 叢集,頻寬能夠集中解決,進而加快訓練的效率。對於 GPU 的共享平臺,雖然可以呼叫閒置算力,並且降低成本(通過代幣補貼),但是由於地理位置的問題,其訓練速度會變得非常緩慢,因此這些閒置算力只適合於那些不緊急的小模型。並且這些平臺也缺乏配套的開發者工具,因此中大型企業在當前狀況下,更傾向於傳統雲企業平臺。
總之,我們仍然認可 AI x Crypto 結合的實際效用,代幣經濟學能夠重塑價值以及發現更廣泛的價值視角,而去中心化帳本能夠解決信任問題,將價值流動起來,並且發現剩餘價值。
📍相關報導📍
Nvidia 推出 AI 遊戲助理 Project G-Assist,玩家專用大型LLM,可問攻略、出裝