深度分析:AI和Web3能碰撞出什麼樣的火花?

引言:AI+Web3的發展

在過去的幾年中,人工智慧(AI)和Web3技術的快速發展引起了全球範圍內的廣泛關注。AI作為一種模擬和模仿人類智能的技術,已經在人臉識別、自然語言處理、機器學習等領域取得了重大突破。AI技術的快速發展為各行各業帶來了巨大的變革和創新。

AI行業的市場規模在2023年達到了2000億美元,OpenAI、Character.AI、Midjourney等行業巨頭和優秀玩家如雨後春筍般湧現,引領了AI熱潮。

與此同時,Web3作為一種新興的網絡模式,正在逐步改變著我們對網際網路的認知和使用方式。Web3以去中心化的區塊鏈技術為基礎,通過智能合約、分布式存儲和去中心化身份驗證等功能,實現了數據的共享與可控、用戶的自治和信任機制的建立。Web3的核心理念是將數據從中心化的權威機構手中解放出來,賦予用戶對數據的控制權和數據價值的分享權。

目前Web3行業的市值達到了25萬億,無論是Bitcoin、Ethereum、Solana還是應用層的Uniswap、Stepn等玩家,新的敘事和場景也層出不窮的湧現,吸引著越來越多人加入Web3行業。

容易發現,AI與Web3的結合是東西方的builder和VC都十分關注的領域,如何將兩者很好的融合是一個十分值得探索的問題。

本文將重點探討AI+Web3的發展現狀,探索這種融合所帶來的潛在價值和影響。我們將首先介紹AI和Web3的基本概念和特點,然後探討它們之間的相互關係。隨後,我們將分析當前AI+Web3項目的現狀,並深入討論它們所面臨的局限性和挑戰。通過這樣的研究,我們期望能夠為投資者和相關行業的從業者提供有價值的參考和洞察。

AI與Web3交互的方式

AI和Web3的發展就像天平的兩側,AI帶來了生產力的提升,而Web3帶來了生產關係的變革。那麼AI和Web3能碰撞出什麼樣的火花呢?我們接下來會先來分析AI和Web3行業各自面臨的困境和提升空間,然後再探討彼此是怎麼樣幫助解決這些困境。

  1. AI行業面臨的困境和潛在提升空間

  2. Web3行業面臨的困境和潛在提升空間

2.1 AI行業面臨的困境

要想探究AI行業面臨的困境,我們首先來看看AI行業的本質。AI行業的核心離不開三個要素:算力、算法和數據。

  1. 首先是算力 :算力指的是進行大規模計算和處理的能力。AI任務通常需要處理大量的數據和進行複雜的計算,例如訓練深度神經網絡模型。高強度的計算能力可以加速模型訓練和推理過程,提高AI系統的性能和效率。近年來,隨著硬體技術的發展,如圖形處理器(GPU)和專用AI晶片(如TPU),算力的提升對於AI行業的發展起到了重要的推動作用。近年股票瘋漲的Nvidia就是作為GPU的提供商佔據了大量的市場份額,賺取了高額的利潤。

  2. 什麼是算法 :算法是AI系統的核心組成部分,它們是用於解決問題和實現任務的數學和統計方法。AI算法可以分為傳統機器學習算法和深度學習算法,其中深度學習算法在近年來取得了重大突破。算法的選擇和設計對於AI系統的性能和效果至關重要。不斷改進和創新的算法可以提高AI系統的準確性、魯棒性和泛化能力。不同的算法會有不同的效果,所以算法的提升對於完成任務的效果來說也是至關重要的。

  3. 數據為什麼重要 :AI系統的核心任務是通過學習和訓練來提取數據中的模式和規律。

    數據是訓練和優化模型的基礎,通過大規模的數據樣本,AI系統可以學習到更準確、更智能的模型。豐富的數據集能夠提供更全面、多樣化的信息,使得模型可以更好地泛化到未見過的數據上,幫助AI系統更好地理解和解決現實世界的問題。

了解當前AI的核心三要素之後,讓我們來看看AI在這三方面遇到的困境和挑戰,首先是算力方面,AI任務通常需要大量的計算資源來進行模型訓練和推理,特別是對於深度學習模型而言。然而,獲取和管理大規模的算力是一個昂貴和複雜的挑戰。高性能計算設備的成本、能耗和維護都是問題。尤其是對於初創企業和個人開發者來說,獲得足夠的算力可能是困難的。

在算法方面,儘管深度學習算法在許多領域取得了巨大的成功,但仍然存在一些困境和挑戰。例如,訓練深度神經網絡需要大量的數據和計算資源,而且對於某些任務,模型的解釋性和可解釋性可能不足。此外,算法的魯棒性和泛化能力也是一個重要問題,模型在未見過的數據上的表現可能不穩定。在眾多的算法中,如何找到最好的算法提供最好的服務,是一個需要不斷探索的過程。

在數據方面,數據是AI的驅動力,但獲取高質量、多樣化的數據仍然是一個挑戰。有些領域的數據可能很難獲得,例如醫療領域的敏感健康數據。此外,數據的質量、準確性和標註也是問題,不完整或有偏見的數據可能導致模型的錯誤行為或偏差。同時,保護數據的隱私和安全也是一個重要的考慮因素。

此外,還存在著可解釋性和透明度等問題,AI模型的黑盒特性是一個公眾關注的問題。對於某些應用,如金融、醫療和司法等,模型的決策過程需要可解釋和可追溯,而現有的深度學習模型往往缺乏透明度。解釋模型的決策過程和提供可信賴的解釋仍然是一個挑戰。

除此之外,很多AI項目創業的商業模式不是很清晰,這一點也讓許多的AI創業者感到迷茫。

2.2 Web3行業面臨的困境

而在Web3行業方面,目前也存在很多不同方面的困境需要解決,無論是對於Web3的數據分析,還是Web3產品較差的用戶體驗,亦或者是在智能合約代碼漏洞與黑客攻擊的問題,都有很多提升的空間。而AI作為提高生產力的工具,在這些方面也有很多潛在的發揮空間。

首先是數據分析與預測能力方面的提升:AI技術在數據分析和預測方面的應用為Web3行業帶來了巨大的影響。通過AI算法的智能分析和挖掘,Web3平臺可以從海量的數據中提取有價值的信息,並進行更準確的預測和決策。這對於去中心化金融(DeFi)領域中的風險評估、市場預測和資產管理等方面具有重要意義。

此外,也可以實現用戶體驗和個性化服務的改進:AI技術的應用使得Web3平臺能夠提供更好的用戶體驗和個性化服務。通過對用戶數據的分析和建模,Web3平臺可以為用戶提供個性化的推薦、定製化的服務以及智能化的交互體驗。這有助於提高用戶參與度和滿意度,促進Web3生態系統的發展,例如許多Web3協議接入ChatGPT等AI工具來更好的服務用戶。

在安全性和隱私保護方面,AI的應用對Web3行業也具有深遠的影響。AI技術可以用於檢測和防禦網絡攻擊、識別異常行為,並提供更強大的安全保障。同時,AI還可以應用於數據隱私保護,通過數據加密和隱私計算等技術,保護用戶在Web3平臺上的個人信息。在智能合約的審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全隱患,AI技術可以用於自動化合約審計和漏洞檢測,提高合約的安全性和可靠性。

可以看出,對於Web3行業面臨的困境和潛在的提升空間裡,AI在很多方面都能夠參與和給予助力。

AI+Web3項目現狀分析

結合AI和Web3的項目主要從兩個大的方面入手,利用區塊鏈技術提升AI項目的表現,以及利用AI技術來服務於Web3項目的提升。

圍繞著兩個方面,湧現出了一大批項目在這條路上探索,包括Io.net、Gensyn、Ritual等各式各樣的項目,接下來本文將從AI助力web3和Web3助力AI的不同子賽道分析現狀和發展情況。

3.1 Web3助力AI

3.1.1 去中心化算力

從OpenAI在2022年底推出ChatGPT後,就引爆了AI的熱潮,推出後5天,用戶數量就達到了100萬,而之前Instagram花了大約兩個半月才達到100萬下載量。之後,Chatgpt發力也是十分迅猛,2個月內月活用戶數達到了1億,到2023年11月,周活用戶數達到了1億。伴隨著Chatgpt的問世,AI領域也迅速的從一個小眾的賽道爆發成為一個備受關注的行業。

根據Trendforce的報告,ChatGPT需要30000個NVIDIA A100 GPU才能運行,而未來GPT-5將需要更多數量級的計算。這也讓各個AI公司之間開啟了軍備競賽,只有掌握了足夠多的算力,才能夠確定在AI之戰中有足夠的動力和優勢,也因此出現了GPU短缺的現象。

在AI崛起之前,GPU的最大提供商英偉達的客戶都集中在三大雲服務中:AWS、Azure 和 GCP。隨著人工智慧的興起,出現了大量新的買家,包括大科技公司Meta、甲骨文以及其他數據平臺和人工智慧初創公司,都加入了囤積 GPU 來訓練人工智慧模型的戰爭中。Meta 和特斯拉等大型科技公司大量增加了定製 AI 模型和內部研究的購買量。Anthropic 這樣的基礎模型公司以及 Snowflake 和 Databricks 這樣的數據平臺也購買了更多 GPU,來幫助客戶提供人工智慧服務。

正如去年Semi Analysis提到的「GPU富人和GPU窮人」,少數幾家公司擁有2萬多A100/H100 GPU,團隊成員可以為項目使用100到1000個GPU。這些公司要麼是雲提供商或者是自建LLM,包括OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral等。

然而大部分的公司都屬於GPU窮人,只能在數量少得多的 GPU 上掙扎,花費大量的時間和精力去做較難推動生態系統發展的事情。而且這種情況並不局限於初創公司。一些最知名的人工智慧公司–Hugging Face、Databricks (MosaicML)、Together 甚至 Snowflake的A100/H100 數量都小於 20K。這些公司擁有世界一流的技術人才,卻受限於 GPU的供應數量,相比於大公司在人工智慧中競賽中處於劣勢。

這種短缺並不局限於「GPU窮人」中,甚至在去2023年年底,AI賽道的龍頭OpenAI因為無法獲得足夠的 GPU,不得不關閉付費註冊數周,同時採購更多的 GPU 供應。

可以看出,伴隨著AI高速發展帶來的GPU的需求側和供給側出現了嚴重的不匹配,供不應求的問題迫在眉睫。

為了解決這一問題,一些Web3的項目方開始嘗試結合Web3的技術特點,提供去中心化的算力服務,包括Akash、Render、Gensyn等等。這類項目的共同之處在於,通過代幣來激勵廣大用戶提供閒置的GPU算力,成為了算力的供給側,來為AI客戶提供算力的支持。

供給側畫像主要可以分為三個方面:雲服務商、加密貨幣礦工、企業。

雲服務商包括大型雲服務商(如AWS、Azure、GCP)以及GPU雲服務商(如Coreweave, Lambda, Crusoe等),用戶可以轉售閒置的雲服務商的算力來獲得收入。加密礦工隨著以太坊從PoW轉向PoS,閒置的GPU算力也成為了重要的潛在供給側。此外,像特斯拉、Meta這類因為戰略布局而購買了大量GPU的大型企業,也可以將閒置的GPU算力作為供給側。

目前賽道的玩家大致分為兩類,一類是將去中心化算力用於AI的推理,另一類是將去中心化算力用作AI訓練。前者如Render(雖然聚焦在渲染,但也可用作AI算力的提供)、Akash、Aethir等;後者如io.net(推理和訓練都可以支持)、Gensyn,兩者最大的差異在於算力的要求不同。

先來聊聊前者AI推理的項目,這類項目通過代幣激勵的方式吸引用戶參與算力的提供,再將算力網絡服務提供給需求側,從而實現了閒置算力的供需撮合。其中關於這類項目的介紹與分析在我們Ryze Labs之前DePIN的研報中有提到, 歡迎查閱

最核心的點在於通過代幣激勵機制,項目先吸引供給者,然後吸引用戶使用,從而實現了項目的冷啟動和核心運轉機制,從而能夠進一步的擴張和發展起來。在這種循環之下,供給側有了更多更有價值的代幣回報,需求側有了更便宜性價比更高的服務,項目的代幣價值和供需雙方參與者的增長保持一致,隨著代幣價格的上升,吸引更多參與者和投機者參與,形成價值捕獲。

另一類是將去中心化算力用於AI的訓練,如Gensyn、io.net(AI訓練和AI推理都可以支持)。其實這一類項目的運轉邏輯和AI推理類項目並無太大的本質差異,依舊是通過代幣激勵吸引供給側的參與提供算力,供需求側來使用。

其中io.net作為去中心化算力網絡,目前GPU數量超過了50萬個,在去中心化算力項目中表現很突出,此外,目前已經也集成了Render和filecoin的算力,開始不斷發展生態項目。

此外, Gensyn是通過智能合約方式可促進機器學習的任務分配和獎勵,來實現AI的訓練。如下圖所示,Gensyn的機器學習訓練工作的每小時成本約在0.4美元,而遠遠低於AWS和GCP超過2美元的成本。

Gensyn的體系中包括四個參與主體:提交者、執行者、驗證者和舉報者。

  • 提交者:需求用戶是任務的消費者,提供將被計算的任務,為AI訓練任務付費

  • 執行者:執行者執行模型訓練的任務,並生成完成了任務的證明來供驗證者的檢查。

  • 驗證者:將非確定性訓練過程與確定性線性計算聯繫起來,將執行者的證明與預期閾值進行比較。

  • 舉報者:檢查驗證者的工作,在發現問題時並提出質疑來獲得收益。

可以看出,Gensyn希望成為一個面向全球深度學習模型的超大規模、經濟高效的計算協議。但是縱觀這個賽道,為什麼大部分的項目選擇去中心化算力做AI推理而不選擇訓練呢?

在這裡也幫助不了解AI訓練和推理的朋友介紹一下兩者的區別:

  • AI訓練 :如果我們把人工智慧比作一個學生,那麼訓練就類似於給人工智慧提供了大量知識、示例也可以理解為我們常說的數據,人工智慧從這些知識示例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。

  • AI推理 :那什麼是推理呢?可以理解為利用所學的知識去解決問題或者參加考試,在推理的階段中人工智慧是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。

可以看出兩者的算力需求是差別較大的,關於去中心化算力在AI推理和AI訓練方面的可用性將在後面的挑戰章節進行更深入的剖析。

此外,還有Ritual希望將分布式網絡與模型的創建者結合,保持去中心化和安全性。其第一個產品Infernet讓區塊鏈上的智能合約可以在鏈下訪問AI模型,允許此類合約以保持驗證、去中心化和保護隱私的方式訪問AI。

Infernet 的協調器負責管理節點在網絡中的行為和響應消費者發出的計算請求。用戶使用infernet時,推理、證明等工作會放在鏈下,輸出結果返回至協調器,並通過合約最終傳給鏈上的消費者。

除了去中心化算力網絡之外,也有Grass這類的去中心化帶寬網絡,來提升數據傳輸的速度和效率。總的來說,去中心化算力網絡的出現,為AI的算力供給側提供了一個新的可能性,推動著AI向更遠的方向前行。

3.1.2 去中心化算法模型

正如第二章中提到的,AI的三個核心要素為算力、算法和數據。既然算力可以通過去中心化的方式形成一個供給網絡,那麼算法是否也能有類似的思路,形成一個算法模型的供給網絡呢?

在分析賽道項目之前,首先讓我們一起來了解下去中心化算法模型的意義,很多人會好奇,既然已經有了OpenAI,為什麼還需要去中心化的算法網絡呢?

本質上,去中心化的算法網絡是一個去中心化的AI算法服務市場,連結了許多不同的AI模型,每個AI模型有自己擅長的知識和技能,當用戶提出問題的時候,市場會挑選出最適合回答問題的AI模型來提供答案。而Chat-GPT是OpenAI 開發的一種AI模型,可以理解和生產類似人類的文本。

簡單來說,ChatGPT像是一個能力很強的學生來幫助解決不同類型的問題,而去中心化的算法網絡像一個有很多學生的學校來幫助解決問題,雖然現在這個學生的能力很強,但拉長周期來看,能招募全球學生加入的學校有非常大的潛力空間。

目前在去中心化算法模型這個領域,也有一些項目在嘗試和探索中,接下來將以代表性的項目Bittensor作為案例來幫助大家理解這個細分領域的發展情況。

在Bittensor中,算法模型的供給側(或者說礦工)將他們的機器學習模型貢獻給網絡。這些模型可以分析數據與提供見解。模型供給者會因其貢獻而獲得加密貨幣代幣TAO作為獎勵。

為了保證問題答案的質量,Bittensor使用獨特的共識機制來確保網絡就最佳答案達成一致。當提出問題時,多個模型礦工會提供答案。然後,網絡中的驗證器會開始工作,確定最佳答案,然後將其發送回用戶。

Bittensor的代幣TAO在整個流程中主要發揮兩方面的作用,一方面用作激勵礦工向網絡貢獻算法模型,另一方面用戶需要花費代幣來提問與讓網絡完成任務。

由於 Bittensor 是去中心化的,任何有網際網路接入的人都可以加入網絡,既可以作為提出問題的用戶,也可以作為提供答案的礦工。這使得更多人能夠使用強大的人工智慧。

總之,以 Bittensor 等網絡為例,去中心化的算法模型領域有可能創造一個更加開放、透明的局面,在這個生態系統中,人工智慧模型可以以安全和分散的方式進行訓練、共享和利用。此外也有像BasedAI這樣的去中心化的算法模型網絡在嘗試類似的事情,當然其更有趣的部分在於通過ZK來保護用戶與模型交互式的數據隱私,這個在第四個小節也會進一步討論。

隨著去中心化算法模型平臺的發展,它們將使小型公司能夠在使用頂尖AI工具方面與大型組織競爭,從而對各個行業產生潛在的重大影響。

3.1.3 去中心化數據收集

對於AI模型的訓練來說,大量的數據供給是必不可少的。然而目前大部分的web2公司仍將用戶的數據佔為己有,例如X、Reddit、TikTok、Snapchat、Instagram、YouTube等平臺禁止為人工智慧訓練進行數據收集。對於AI行業的發展來說成為了很大的阻礙。

然而另一方面,一些Web2平臺卻向AI公司出售用戶的數據,而沒有分享任何的利潤給到用戶。例如Reddit 與google達成了一項價值 6000 萬美元的協議,讓Google在其帖子上訓練人工智慧模型。從而導致數據的收集權被大資本和大數據方所霸佔,導致行業超資本密集型的方向發展。

面對這樣一種現狀,一些項目結合Web3通過代幣激勵的方式,來實現去中心化的數據收集。以PublicAI為例,在PublicAI中用戶可以作為兩類角色參與:

  • 一類是AI數據的提供者,用戶可以在X上找到有價值的內容,@PublicAI官方並附上見解,使用#AI或#Web3作為分類標籤,便可以將內容發送到PublicAI數據中心,實現數據收集。

  • 另一類是數據驗證者,用戶可以登錄PublicAI數據中心,為AI訓練選擇最有價值的數據進行投票。

作為回報,用戶可以通過這兩類貢獻獲得代幣激勵,從而促進了數據的貢獻者與人工智慧產業開發之間的攜手共贏的關係。

除了PublicAI這類專門收集數據進行AI訓練的項目之外,還有很多項目也在通過通過代幣激勵進行去中心化的數據收集,例如Ocean通過數據代幣化的方式收集用戶數據來服務於AI,Hivemapper通過用戶的車載攝像頭來收集地圖數據、Dimo收集用戶的汽車數據、WiHi收集天氣數據等等,這類通過去中心化收集數據的項目,也都是潛在的AI訓練的供給側,所以從廣義來說,也可以納入到Web3助力AI的範式中。

3.1.4 ZK保護AI中的用戶隱私

區塊鏈技術帶來的除了去中心化的優勢之外,還有一個很重要的就是零知識證明。通過零知識技術,可以保護隱私的同時實現信息的驗證。

而在傳統的機器學習中,數據通常需要集中存儲和處理,這可能導致數據隱私洩露的風險。另一方面,保護數據隱私的方法,如數據加密或數據去識別化,可能會限制機器學習模型的準確性和性能。

而零知識證明的技術正好能幫助面對這一困境,來解決隱私保護和數據共享之間的衝突。

ZKML(Zero-Knowledge Machine Learning)通過使用零知識證明技術,允許在不洩露原始數據的情況下進行機器學習模型的訓練和推理。零知識證明使得數據的特徵和模型的結果可以被證明為正確,而無需揭示實際的數據內容。

ZKML的核心目標是實現隱私保護和數據共享的平衡。它可以應用於各種場景,如醫療健康數據分析、金融數據分析和跨組織合作等。通過使用ZKML,個體可以保護其敏感數據的隱私,同時與他人共享數據以獲得更廣泛的洞見和合作的機會,而無需擔心數據隱私洩露的風險。

目前該領域仍處於早期階段,大部分的項目仍在探索中,例如BasedAI 提出了一種去中心化的方法,將 FHE 與 LLM 無縫集成,以保持數據機密性。利用零知識大型語言模型 (ZK-LLM) 將隱私嵌入其分布式網絡基礎設施的核心,確保用戶數據在整個網絡運行過程中保持私密。

這裡簡單解釋下什麼是全同態加密(FHE)。全同態加密是一種加密技術,可以在加密狀態下對數據進行計算,而無需解密。這意味著在使用FHE加密的數據上執行的各種數學運算(如加法、乘法等)可以在保持數據的加密狀態下進行,並獲得與在原始未加密數據上執行相同運算所得到的結果,從而保護用戶數據的隱私。

此外,除了上述四類之外,在Web3助力AI方面,也有像Cortex這樣支持在鏈上執行AI程序的區塊鏈項目。目前,在傳統區塊鏈上執行機器學習程序面臨一個挑戰,虛擬機在運行任何非複雜的機器學習模型時效率極低。因此,大多數人認為在區塊鏈上運行人工智慧是不可能的。而Cortex虛擬機(CVM)利用 GPU,可以在鏈上執行 AI 程序,並且與 EVM 兼容。換句話說,Cortex 鏈可以執行所有以太坊 Dapp,並在此基礎上將AI機器學習融入這些 Dapp。從而實現了以去中心化、不可變和透明的方式運行機器學習模型,因為網絡共識會驗證人工智慧推理的每一步。

3.2 AI助力web3

在AI和Web3的碰撞中,除了Web3對AI的助力之外,AI對於Web3行業的助力也十分值得關注。人工智慧的核心貢獻在於生產力的提升,因此在AI審計智能合約、數據分析與預測、個性化服務、安全和隱私保護等方面都有許多嘗試。

3.2.1 數據分析與預測

目前很多Web3項目開始集成現有的AI服務(例如ChatGPT)或者自研來為Web3用戶提供數據分析和預測類的服務。涵蓋面非常廣,包括通過AI算法提供投資策略、鏈上分析AI工具、價格與市場預測等等。

例如Pond通過AI圖算法來預測未來的有價值的alpha token,為用戶和機構提供投資輔助建議;還有BullBear AI 根據用戶的歷史數據和價格線歷史以及市場走勢進行訓練,以提供最準確的信息來支持預測價格走勢,來幫助用戶獲得收益和利潤。

還有Numerai這類的投資競賽平臺,參賽者基於AI與大語言模型等來預測股票市場,利用平臺提供免費的高質量數據訓練模型,並每天提交預測。Numerai 會計算這些預測在接下來一個月中的表現,參賽者可以將 NMR 押注在模型上,根據模型的表現獲得收益。

此外,還有Arkham這類鏈上數據分析平臺也結合AI進行服務。Arkham將區塊鏈地址與交易所、基金和巨鯨等實體聯繫起來,並向用戶展示這些實體的關鍵數據和分析,為用戶提供決策優勢。其與AI結合的部分在於Arkham Ultra通過算法將地址與現實世界的實體進行匹配,由Arkham核心貢獻者在Palantir和OpenAI創始人的支持下歷時3年開發而成。

3.2.2 個性化服務

在Web2的項目中,AI在搜索和推薦領域都有很多的應用場景,服務於用戶的個性化需求。在Web3項目中也是如此,不少項目方通過集成AI的方式來優化用戶的使用體驗。

例如大家比較熟知的數據分析平臺Dune,最近新推出了Wand工具,用於藉助大型語言模型編寫 SQL 查詢。通過 Wand Create功能,用戶可以根據自然語言問題自動生成 SQL 查詢,從而使不懂SQL的用戶也可以非常方便的進行搜索。

此外,還有一些Web3的內容平臺也開始集成ChatGPT進行內容總結,例如Web3媒體平臺Followin集成了ChatGPT來總結某一賽道的觀點和最新近況;Web3百科全書平臺IQ.wiki致力於成為網絡上區塊鏈技術和加密貨幣有關的一切客觀、高質量知識的主要來源,讓區塊鏈在全球範圍內更容易被發現和獲取,並為用戶提供他們可以信賴的信息,其也集成了GPT-4來總結wiki文章;以及基於LLM的搜尋引擎的Kaito致力於成為Web3搜索平臺,改變 Web3 的信息獲取方式。

在創作方面,也有像NFPrompt這樣減少用戶創作成本的項目。NFPrompt讓用戶可以通過AI來更容易的生成NFT,從而降低了用戶的創作成本,在創作方面提供了許多個性化的服務。

3.2.3 AI審計智能合約

在Web3領域中,智能合約的審計也是一個非常重要的工作,通過AI去實現智能合約代碼的審計,可以更加高效準確的識別和找出代碼中的漏洞。

正如Vitalik曾提到,加密貨幣領域面臨的一個最大挑戰是我們代碼中的錯誤。而一個令人期待的可能性是,人工智慧(AI)能夠顯著簡化使用形式驗證工具來證明滿足特定屬性的代碼集。如果能夠做到這一點,我們有可能擁有無錯誤的SEK EVM(例如以太坊虛擬機)。減少錯誤的數量越多,空間的安全性就會增加,而AI對於實現這一點來說非常有幫助。

例如0x0.ai項目提供了人工智慧智能合約審計器,是一種使用先進算法分析智能合約並識別可能導致欺詐或其他安全風險的潛在漏洞或問題的工具。審計員使用機器學習技術識別代碼中的模式和異常,標記出潛在問題,以便進一步審查。

除了上述三類之外,還有一些利用AI來助力Web3領域的原生案例,例如PAAL幫助用戶創建個性化AI Bot,可以部署到Telegram和Discord上來服務於Web3的用戶;AI驅動的多鏈dex聚合器Hera,利用AI來提供最廣泛的代幣以及任何代幣對之間的最佳交易路徑,整體來說,AI助力Web3更多的是作為工具層面的助力。

AI+Web3項目的局限性和挑戰現狀

4.1 去中心化算力方面存在的現實阻礙

目前的Web3助力AI的項目中,很大一部分都在發力於去中心化算力,通過代幣激勵的方式來促進全球的用戶都能成為算力供給側是一個非常有趣的創新,不過另一方面,也面臨著一些現實的問題需要解決:

相比中心化算力服務提供商,去中心化算力產品通常依賴於分布在全球的節點和參與者提供計算資源。由於這些節點之間的網絡連接可能存在延遲和不穩定性,因此性能和穩定性可能較中心化算力產品差。

此外,去中心化算力產品的可用性受到供應和需求之間的匹配程度的影響。如果沒有足夠的供應者或者需求過高,可能會導致資源不足或者無法滿足用戶需求。

最後,相比中心化算力產品,去中心化算力產品通常涉及更多的技術細節和複雜性。用戶可能需要了解並處理分布式網絡、智能合約和加密貨幣支付等方面的知識,用戶理解和使用的成本會變高。

和大量的去中心化算力項目方深入探討後發現,目前的去中心化算力基本還是只能局限在AI推理而不是AI訓練。

接下來我將以四個小問題來幫助大家理解背後的原因:

1、為什麼大部分去中心化算力項目都選擇做AI推理而不是AI訓練?

2、英偉達究竟牛在哪裡?去中心化算力訓練難做的原因在哪?

3、去中心化算力(Render、Akash、io.net等)的終局會是什麼樣?

4、去中心化算法(Bittensor)的終局會是什麼樣?

接下來咱們層層抽絲剝繭:

1)縱觀這個賽道,大部分的去中心化算力項目都選擇做AI推理而不是訓練, 核心在於對於算力和帶寬的要求不同

為了幫助大家的更好地理解,我們來把AI比作一個學生:

AI訓練:如果我們把人工智慧比作一個學生,那麼訓練就類似於給人工智慧提供了大量知識、示例也可以理解為我們常說的數據,人工智慧從這些知識示例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。

AI推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或者參加考試,在推理的階段中人工智慧是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。

容易發現,兩者的難度差本質上在於大模型AI訓練需要極大的數據量,以及對數據高速通信需要的帶寬需求極高,所以目前去中心化算力用作訓練的實現難度極大。而推理對於數據和帶寬的需求小的多,實現可能性更大。

對於大模型來說,最重要的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。另一方面,對於算力要求相對較低的需求是可以實現的,例如上文提到的AI推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網絡中有一些相對大的節點服務商,可以為這些相對大的算力需求服務。

2)那麼數據和帶寬的卡點究竟在哪?為什麼去中心化訓練難以實現?

這就涉及到大模型訓練的兩個關鍵要素:單卡算力和多卡並聯。

單卡算力:目前所有的需要訓練大模型的中心,我們把它叫做超算中心。為了方便大家的理解,我們可以以人體作為比喻,超算中心就是人體的組織,底層單元GPU就是細胞。如果單個細胞(GPU)的算力很強,那麼整體的算力(單個細胞×數量)也可能會很強。

多卡並聯:而一個大模型的訓練動輒就是千億GB,對於訓練大模型的超算中心來說,至少需要萬級別個A100打底。所以就需要調動這幾萬張卡來進行訓練,然而大模型的訓練並不是簡單的串聯,並不是在第一個A100卡上訓練完之後再在第二張卡上訓練,而是模型的不同部分,在不同的顯卡上訓練,訓練A的時候可能需要B的結果,所以涉及到多卡並行。

為什麼英偉達這麼厲害,市值一路騰飛,而AMD和國內的華為、地平線目前很難追上。核心並不是單卡算力本身,而是在於兩個方面:CUDA軟體環境和NVLink多卡通信。

一方面,有沒有軟體生態能適配硬體是非常重要的,如英偉達的CUDA系統,而構建一個新的系統是很難的,就像構建了一個新的語言,替換成本非常高。

另一方面,就是多卡通信,本質上多卡之間的傳輸就是信息的輸入和輸出,怎麼並聯,怎麼傳輸。因為NVLink的存在,沒有辦法把英偉達和AMD卡打通;另外,NVLink會限制顯卡之間的物理距離,需要顯卡在同一個超算中心中,這就導致去中心化的算力如果分布在世界各地就比較難實現。

第一點解釋了為什麼AMD和國內的華為、地平線目前很難追上;第二點解釋了為什麼去中心化訓練很難實現。

3)去中心化算力的終局會是什麼樣?

去中心化算力目前難以進行大模型訓練,核心在於大模型訓練最看重的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。其對於多卡並聯的要求是很高的,而帶寬是受物理距離的限制的。英偉達通過NVLink來實現多卡通信,然而在一個超算中心裏面,NVLink會限制顯卡之間的物理距離,因此分散的算力無法形成一個算力集群去進行大模型訓練。

但另一方面,對於算力要求相對較低的需求是可以實現的,例如AI推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網絡中有一些相對大的節點服務商時,是有潛力為這些相對大的算力需求服務的。以及像渲染這類邊緣計算的場景也是相對容易實現的。

4)去中心化算法模型的終局會是什麼樣?

去中心化算法模型的終局取決於對未來AI的終局,我認為未來AI之戰可能會是有1-2個閉源模型巨頭(如ChatGPT),再加上百花齊放的模型,在這種背景下,應用層產品沒有必要和一個大模型綁定,而是與多個大模型合作,在這種背景下來看,Bittensor的這種模式潛力還是非常大的。

4.2 AI+Web3的結合較為粗糙,沒有實現1+1>2

目前在Web3與AI結合的項目中,尤其是AI助力Web3項目方面,大多數項目仍然只是表面上使用AI,沒有真正體現出AI與加密貨幣之間的深度結合。這種表面化的應用主要體現在以下兩個方面:

  • 首先,無論是利用AI進行數據分析和預測,還是在推薦和搜索場景中使用AI,或者是進行代碼審計,與Web2項目和AI的結合併沒有太大的區別。這些項目僅僅是簡單地利用AI提升效率和進行分析,沒有展現出AI與加密貨幣之間的原生融合和創新性解決方案。

  • 其次,許多Web3團隊與AI的結合更多地是在營銷層面上純粹利用AI的概念。他們只是在非常有限的領域運用了AI技術,然後開始宣傳AI的趨勢,營造出一種項目與AI很緊密的假象。然而,在真正的創新方面,這些項目還存在很大的空白。

儘管當前的Web3與AI項目還存在這些局限性,但我們應該意識到這僅僅是發展的早期階段。未來,我們可以期待更加深入的研究和創新,以實現AI與加密貨幣之間更緊密的結合,並在金融、去中心化自治組織、預測市場和NFT等領域創造出更原生且有意義的解決方案。

4.3 代幣經濟學成為AI項目敘事的緩衝之劑

正如一開始提到的AI項目的商業模式難題,由于越來越多大模型開始逐漸開源,目前大量的AI+Web3的項目很多時候是純AI項目難以在Web2發展和融資,於是選擇疊加Web3的敘事和代幣經濟學來促進用戶的參與。

但真正關鍵的是代幣經濟學的融入是否真正有助於AI項目解決實際需求,還是單純的敘事或者走短期價值,其實是需要打一個問號的。

目前大部分的AI+Web3項目還遠遠沒有到實用的階段,希望能有更多踏實有想法的團隊能夠不僅僅將token作為AI項目的一個造勢,而是真正地滿足實際的需求場景。

總結

當前,AI+Web3的項目已經湧現出許多案例和應用。首先,AI技術可以為Web3提供更高效、智能的應用場景。通過AI的數據分析和預測能力,可以幫助Web3的用戶在投資決策等場景中擁有更好的工具;此外,AI還可以審計智能合約代碼,優化智能合約的執行過程,提高區塊鏈的性能和效率。同時,AI技術還可以為去中心化應用提供更精確、智能的推薦和個性化服務,提升用戶體驗。

與此同時,Web3的去中心化和可編程性特點也為AI技術的發展提供了新的機遇。通過代幣激勵的方式,去中心化算力的項目為AI算力供不應求的困境提供了新的解決方案,Web3的智能合約和分布式存儲機制也為AI算法的共享和訓練提供了更廣闊的空間和資源。Web3的用戶自治和信任機制也為AI的發展帶來了新的可能性,用戶可以自主選擇參與數據共享和訓練,從而提高數據的多樣性和質量,進一步改善AI模型的性能和準確度。

儘管目前的AI+Web3的交叉項目仍處於早期,有許多困境需要面對,但其也帶來了很多優勢。例如去中心化算力產品存在一些缺點,但降低了對中心化機構的依賴、提供了更大的透明度和可審計性,以及能夠實現更廣泛的參與和創新。對於特定的使用案例和用戶需求,去中心化算力產品可能是一個有價值的選擇;在數據收集方面也是如此,去中心化數據收集項目也帶來了一些優勢,如減少單一數據源的依賴、提供更廣泛的數據覆蓋範圍以及促進數據的多樣性和包容性等。在實踐中,需要權衡這些優缺點,並採取相應的管理和技術措施來克服挑戰,以確保去中心化數據收集項目對AI的發展產生積極的影響。

總的來說,AI+Web3的融合為未來的科技創新和經濟發展提供了無限的可能性。通過將AI的智能分析和決策能力與Web3的去中心化和用戶自治相結合,相信未來可以構建更智能、更開放、更公正的經濟乃至社會系統。

  • Related Posts

    DeepSeek加速web3轉型 改變企業價值與風險管理模式

    DeepSeek作為一種前沿技術,正在深刻改變企業的數位化轉…

    Emily Parker:2025 Web3 trends in the USandAsia

    接下來,有請全球區塊鏈商業理事會中國及日本事務顧問Emily…

    發佈留言

    發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

    You Missed

    歷史性轉折:比特幣正在成為避險資產

    • By jakiro
    • 19 4 月, 2025
    • 8 views
    歷史性轉折:比特幣正在成為避險資產

    是什麼讓加密貨幣rug pull事件頻發?

    • By jakiro
    • 18 4 月, 2025
    • 13 views
    是什麼讓加密貨幣rug pull事件頻發?

    Wintermute Ventures:我們為什麼投資Euler?

    • By jakiro
    • 18 4 月, 2025
    • 12 views
    Wintermute Ventures:我們為什麼投資Euler?

    川普可以將鮑威爾炒魷魚嗎?會帶來什麼經濟風險?

    • By jakiro
    • 18 4 月, 2025
    • 13 views
    川普可以將鮑威爾炒魷魚嗎?會帶來什麼經濟風險?

    Glassnode:我們正在經歷牛熊轉換嗎?

    • By jakiro
    • 18 4 月, 2025
    • 12 views
    Glassnode:我們正在經歷牛熊轉換嗎?

    The Post Web加速器首批8個入選項目速覽

    • By jakiro
    • 17 4 月, 2025
    • 12 views
    The Post Web加速器首批8個入選項目速覽
    Home
    News
    School
    Search