老牌公鏈 NEAR 本來專注於鏈抽象領域,但隨著近期 NEAR 創辦人 Illia Polosukhin 將亮相 NVIDIA AI 大會的資訊曝光,NEAR 卻搖身一變成了 AI 頂級公鏈?本文源自鏈上觀所著文章,由 PANews 整理及撰稿。
(前情提要: 人工智慧能改變以太坊?「AI+ETH」能帶來什麼創新火花)
(背景補充: AVAX、NEAR、TON皆上漲,資金外溢還是公鏈敘事回春?)
最近,老牌公鏈 NEAR 創辦人 Illia Polosukhin 將於 3 月 20 日亮相 NVIDIA AI 大會的資訊,讓 NEAR 賺足了眼球,市場價格走勢也令人欣喜。
但不少朋友疑惑,NEAR 鏈不是 All in 在做鏈抽象麼,怎麼莫名其妙就成了 AI 頂級公鏈了?接下來,我將分享下我的觀察,順帶科普下一些 AI 模型訓練知識:
1)NEAR 創辦人 Illia Polosukhin 有過較長時間的 AI 背景:他是 Transformer 架構的共同構建者。而 Transformer 架構是如今 LLMs 大型語言模型訓練 ChatGPT 的基礎架構,足以證明 NEAR 老闆在成立 NEAR 前確實有 AI 大模型系統的建立和領導經驗。
2)NRAR 曾在 NEARCON 2023 上推出過 NEAR Tasks:其目標是為了進行人工智慧模型的的訓練和改進,簡單來說,模型訓練需求方(Vendor)可以在平臺釋出任務請求,並上傳基礎資料素材,使用者(Tasker)可以參與進行任務答題,為資料進行文字標註和影象識別等人工操作。任務完成後,平臺會給使用者 NEAR 代幣獎勵,而這些經過人工標註的資料會被用於訓練相應的 AI 模型。
例如,AI 模型需要提高識別圖片中物體的能力,Vendor 可以將大量圖片中帶有不同物體的原始圖片上傳到 Tasks 平臺,然後使用者手動標註圖片上的物體位置,就可以生成大量 「圖片 – 物體位置」 的資料,AI 就可以用這些資料來自主學習以提高圖片識別能力。
乍一聽,NEAR Tasks 不就是想社會化人工工程來為 AI 模型做基礎服務嘛,真有那麼重要?在此加一點關於 AI 模型的科普知識。
通常情況下,一次完整的 AI 模型訓練,包括資料採集、資料預處理和標註、模型設計與訓練、模型調優、微調、模型驗證測試、模型部署、模型監控與更新等等過程,其中資料標註和預處理為人工部分,而模型訓練與優化為機器部分。
顯然,大部分人理解中的機器部分要明顯大於人工部分,畢竟顯得更高科技一些,但實際情況下,人工標註在整個模型訓練中至關重要:
- 人工標註可以為影象中的物件(人、地點、事物)等新增標籤,供電腦提升視覺模型學習;
- 人工標註還能將語音中的內容轉化為文字,並標註特定音節、單詞短語等幫助電腦進行語音識別模型訓練;
- 人工標註還可以給文字新增一些快樂、悲傷、憤怒等情感標籤,讓人工智慧增強情感分析技能等等。
不難看出,人工標註是機器開展深度學習模型的基礎,沒有高品質的標註資料,模型就無法高效學習,如果標註資料量不夠大,模型效能也會受到限制。
目前,AI 微創領域有很多基於 ChatGPT 大模型進行二次微調或專項訓練的垂直方向,本質上都是在 OpenAI 的資料基礎上,額外增加新的資料來源尤其是人工標註資料來施展模型訓練。
比如,醫療公司想基於醫學影像 AI 做模型訓練,為醫院提供一套線上 AI 問診服務,只需要將大量的原始醫學影像資料上傳到 Task 平臺,然後讓使用者去標註並完成任務,就產生了人工標註資料,再將這些資料對 ChatGPT 大模型進行微調和優化,就會讓這個通用 AI 工具變成垂直領域的專家。
不過,NEAR 僅僅憑藉 Tasks 平臺,就想成為 AI 公鏈龍頭顯然還不夠,NEAR 其實還在生態系統中進行 AI Agent 服務,用來自動執行使用者一切鏈上操作,使用者只需授權就可以自由在市場中買賣資產。這有點類似 Intent-centric,用 AI 自動化執行來提升使用者鏈上互動體驗。
除此之外,NEAR 強大的 DA 能力可以讓它在 AI 資料來源的可追溯性上發揮作用,追蹤 AI 模型訓練資料有效性和真實性。
總之,背靠高效能的鏈功能,NEAR 做 AI 方向的技術延展和敘事引導,似乎要比純鏈抽象要不明覺厲多了。
半個月前我在分析 NRAR 鏈抽象時,就看到了 NEAR 鏈效能 + 團隊超強 web2 資源整合能力的優勢,萬萬沒想到,鏈抽象還沒有普及開來摘到果子,這一波 AI 賦能再一次把想像力放大了。
長期來看,在關注 NEAR 在 「鏈抽象」 上的佈局和產品推進的同時,AI 也會是個不錯的加分項和牛市催化劑!