
2025年,Shengliang Lu等人發表了「AI Applications in Web3 SupTech and RegTech: A Regulatory Perspective 」了一文,該報告指出在Web3技術和虛擬資產崛起的推動下,數字領域正在經歷一場變革性的轉變。這一網際網路技術的新階段利用了分布式帳本技術和智能合約,同時促進了去中心化、提高了透明度並減少了對中介機構的依賴。這些創新在塑造去中心化金融(DeFi)方面至關重要。然而,Web3技術的迅速普及也帶來了重大風險,一系列備受矚目的失敗案例和系統性漏洞凸顯了這些風險。阿布達比全球市場(ADGM)通過其金融服務監管局(FSRA),建立了一個透明且與國際標準接軌的先進監管框架,從而營造了一個有利的監管環境,保障了利益相關者的利益。本白皮書探討了將人工智慧(AI)融入監管技術以加強合規監控和風險管理。白皮書詳細介紹了新加坡國立大學亞洲數字金融研究所、ADGM金融服務監管局以及ADGM學院研究中心的研究與開發工作。白皮書最後總結了主要發現,並提出了未來的合作方向,以期進一步完善監管格局。中國人民大學金融科技研究所對研究核心部分進行了編譯。
1. 引言
隨著Web3技術引領網際網路技術的進步,數字領域正在經歷快速轉型。Web3技術建立在分布式帳本技術(DLT)和智能合約之上,強調去中心化,提高透明度,並減少對中介機構的依賴。包括區塊鏈在內的分布式帳本技術為交易和數據提供了安全、不可篡改的帳本,而智能合約則促進了無需中介的自動化協議。這一組合為去中心化應用(dApps)的發展提供了支持,尤其是在去中心化金融(DeFi)領域,這些應用正通過點對點互動重塑金融交易。全球加密貨幣市值已超過3萬億美元大關,可與包括蘋果和微軟在內的一些全球最大公司相媲美。加密貨幣用戶群已顯著擴大,僅在2023年就增長了34%,從1月的4.32億增至12月的5.8億。這一增長凸顯了加密貨幣在全球金融格局中日益增長的採用率和融合度。此外,數據顯示,阿拉伯聯合大公國(UAE)在加密貨幣採用方面領先全球,其超過30%的人口(約300萬人)擁有數字資產。這反映了該國對金融科技的前瞻性接納及其成為主要金融科技中心的雄心。
ADGM在快速演變的金融格局中扮演著關鍵角色。作為監督該國際金融中心和自由區金融服務的機構,ADGM金融服務監管局(FSRA)一直走在前沿,致力於營造一個不僅支持DeFi和虛擬資產(VA)增長,也支持金融服務領域更廣泛數位化轉型的監管環境。自2018年推出以來,FSRA已為虛擬資產建立了一個全面的監管框架,並對其進行了持續優化。該框架在支持創新的同時,確保了強有力的監督並與國際標準保持一致。通過擁抱數位化轉型,ADGM與Hub71等技術生態系統合作夥伴以及新加坡國立大學等研究機構緊密合作,推動在ADGM內部採用尖端的技術解決方案。這種積極主動的方法有助於將阿布達比定位為那些尋求利用先進技術和數字金融模型的金融公司的首選目的地。
為進一步增強其監管能力,ADGM金融服務監管局正在利用監管科技(RegTech)和監督科技(SupTech)的進步來簡化監管與監督流程。通過由人工智慧驅動的合規科技解決方案,FSRA可以提供更具互動性和定製化的監管互動,使在ADGM內運營的實體的合規工作更高效、更便捷。實施由人工智慧賦能的監督科技工具有助於支持FSRA的監督和風險管理目標,同時降低金融機構的成本。這些舉措共同彰顯了FSRA的使命,即提供一個透明、高效和先進的金融環境,不僅保障客戶、投資者和行業參與者的利益,也促進ADGM的可持續增長與創新。
監督科技(SupTech) 是指應用技術來增強監管當局的監督和監察職能。它涉及使用數據分析、人工智慧和自動化等先進工具,以改進對受監管活動的監控和監督,以及監管框架的執行。監督科技旨在為監管者提供更有效、數據驅動的洞察,使他們能夠更好地實時識別問題、評估風險和執行法規。
合規科技(RegTech) 是指利用技術為企業簡化、自動化和改進監管合規流程。它利用人工智慧、機器學習、自動化和數據分析等創新工具,幫助公司更有效地滿足監管要求,降低合規成本,並增強透明度和報告質量。合規科技旨在簡化複雜的合規任務,如監控交易、識別風險以及確保遵守法律標準。
由Web3技術特性引發的新風險,例如Terra(LUNA)等區塊鏈協議的失敗,以及智能合約中新出現的漏洞,都凸顯了建立有效監管框架和風險管理策略的必要性。區塊鏈技術的創新性和去中心化特性為新型欺詐和系統性失靈提供了溫床,這些問題必須得到解決,才可能實現更廣泛的應用。作為應對策略之一,ADGM正在探索將人工智慧應用於監管和監督技術解決方案,以改進合規監控和風險管理。新加坡國立大學亞洲數字金融研究所(NUS AIDF)在人工智慧技術領域開展金融科技研究,為預測性分析、異常檢測和自動化合規提供工具。FSRA正在測試和驗證這些人工智慧技術,以滿足有效監管和監督Web3與虛擬資產生態系統的新興需求。本白皮書總結了NUS AIDF和ADGM(包括FSRA和ADGM學院研究中心)在應用人工智慧技術以支持Web3和虛擬資產領域的監管與監督活動方面的研究與開發工作。
由於本文面向更廣泛的讀者,不旨在提供具體定義,讀者應注意,「虛擬資產」、「Web3」、「區塊鏈」、「DLT」和「網絡」等術語在文中可互換使用。儘管如此,第二部分對一些術語進行了解釋。
本文的其餘部分結構如下。第二部分介紹了本文的背景和範圍,第三部分討論了監管者利用人工智慧技術的潛在機遇。第四部分探討了正在塑造監管行動和活動的人工智慧創新。第五部分考察了由NUS AIDF和ADGM開展的試點項目,展示了這些創新的實際應用,例如智能合約評估、安全審計和由人工智慧驅動的盡職調查。第六部分對本文進行總結,歸納了研究發現,並探討了未來方向和可用於加強監管格局的潛在領域。
2. 背景
本節旨在解釋本文中使用的關鍵術語,為讀者更好地理解後續章節的討論奠定基礎背景。
虛擬資產(Virtual Asset)。FSRA的監管框架將數字資產分為不同類別,其中也包括法幣參考代幣和數字證券。虛擬資產是一種價值的數位化表示,可以進行數字交易,並作為(1)交換媒介;和/或(2)記帳單位;和/或(3)價值儲存手段,但在任何司法管轄區均不具有法定貨幣地位。虛擬資產(a)既非任何司法管轄區發行或擔保,其上述功能僅通過虛擬資產用戶社群內部的協議實現;並且(b)區別於法定貨幣和電子貨幣。Web3代表了網際網路的下一次演進,從「讀」(Web1)和「讀-寫」(Web2)向「讀-寫-擁有」(read-write-own)的能力過渡。與Web2的中心化平臺不同,Web3利用區塊鏈技術,賦予用戶對其數據、數字資產和在線互動的真正所有權。這種去中心化的範式減少了對中介機構的依賴,促進了更大的用戶自主權和隱私,同時重新定義了個人與數字平臺的互動方式。
分布式帳本技術(DLT)和區塊鏈網絡。DLT是一種用於記錄資產交易的數字系統,其數據同時存儲在多個站點或節點上。與傳統的中心化資料庫不同,DLT是去中心化的,無需中央權威機構,從而增強了透明度和安全性。網絡中的每個參與者都維護一個同步的帳本副本,從而降低了單點故障的風險。區塊鏈是DLT的一種特定類型,它將數據組織成加密的區塊,然後按時間順序連結形成一個鏈條。這種結構確保了記錄的數據變得不可篡改。虛擬資產通常建立在區塊鏈網絡之上。在Web3中,DLT和區塊鏈網絡通過實現安全、透明的交易,為DeFi平臺和去中心化應用(dApps)提供動力。
去中心化金融(DeFi)。DeFi是指建立在區塊鏈和DLT之上的金融生態系統,它能夠實現點對點的交易和服務,而無需銀行或金融機構等傳統中介。DeFi應用利用智能合約——區塊鏈網絡上的自執行程序——來自動化和執行借貸、交易和投資等金融操作。
人工智慧(AI)。廣義上,人工智慧定義了一系列技術的集合,這些技術使機器或系統能夠像人類一樣理解、學習、行動、推理和感知。人工智慧系統利用算法、數據和計算能力來不斷適應和改進。近年來人工智慧工具的激增,為金融業將其能力整合到各種用例中提供了可能性。人工智慧帶來了顯著的好處,包括提高運營效率、加強監管合規、提供個性化金融產品以及先進的數據分析能力。FSRA早在2022年就發起了一項名為「開放監管」(OpenReg)的倡議,旨在使監管內容機器可讀。該項目使合規科技公司和數據科學界能夠利用這個人工智慧訓練場,來構建下一代由人工智慧賦能的合規科技解決方案。
在本文中,作為FSRA將人工智慧技術融入其監督方法的持續進程的一部分,我們詳細闡述了針對Web3監管行動/活動採用人工智慧進行合規科技和監督科技的實踐。在此過程中,我們考慮了金融穩定理事會(FSB)近期發布的報告中提供的寶貴見解、歐盟《人工智慧法案》中概述的監管原則,以及「心智熔爐項目」(Project MindForge)開發的風險框架。
3. 利用人工智慧監管WEB3活動的機遇
由於區塊鏈技術、智能合約以及Web3創新的速度等獨有特性,Web3的監管框架與傳統法規相比存在一些細微差異。在全球範圍內,近期對Web3的監管重點主要集中在虛擬資產及其交易平臺。這包括執行反洗錢(AML)措施,例如整合「了解你的交易」(KYT)解決方案和實施「轉帳規則」(Travel Rule)要求;為穩定幣發行人建立審慎性指引;以及最近對DLT基金會和去中心化自治組織(DAO)等去中心化無主實體的監管。這些建立監管框架和施加保障措施以保護客戶和投資者的努力,表明了對虛擬資產和Web3日益廣泛的接受度。從金融監管者的角度審視Web3和虛擬資產的內在特性時,必須(但不限於)考慮以下幾點:
» 它們在極少人工監督下,通過在DLT上自執行的智能合約實現全天候(24/7)持續運行; » 由於智能合約編碼中的漏洞、潛在的攻擊利用以及對去中心化網絡的依賴,安全風險加劇; » 引入了「新」概念,這些概念要麼利用區塊鏈創新對現有傳統金融框架進行改造,要麼提出完全沒有歷史先例的新穎理念。 » Web3的去中心化特性確保了交易和智能合約的不可篡改性,增強了信任和透明度,但也使得處理「胖手指」失誤、黑客攻擊或意外後果等錯誤變得具有挑戰性。
監管Web3活動帶來了一些挑戰,這使得創新的監管方法和開發新工具以增強監督監控和執行能力成為必要。然而,這些挑戰也為塑造Web3生態系統更美好的未來提供了重要機遇。
快節奏的創新與風險識別。 Web3技術的創新性質和快速步伐,使得及時識別和緩解新興風險變得充滿挑戰。這種動態環境要求監管流程和框架具備更高程度的響應能力,以確保監管機構保持敏捷,能夠有效地識別、評估和應對潛在風險。
響應能力的差距增加了欺詐和市場失靈的可能性。 然而,這些監管挑戰也為「從零開始」構建框架創造了機會,允許整合能夠隨時間推移而調整的前瞻性原則。這可以鼓勵發展適應Web3獨特性的高效商業模式,最終培育一個既符合監管目標又促進行業增長的穩定而充滿活力的市場。人工智慧可以通過快速識別監管規則手冊中的改進點,以迅速響應Web3的發展,從而在促進相關問題的調查和監管框架的構建中發揮作用。
先進的實時風險監控。 在Web3生態系統中進行有效的風險監控,需要能夠實時分析海量區塊鏈數據的先進工具。鑑於DLT和智能合約的24/7持續運行,傳統的時點式(point-in-time)監管方法往往難以處理交易所產生的數據量和複雜性。因此,監管機構迫切需要開發更複雜的分析工具。實施持續監控系統和自動化風險管理工具有助於監控法規遵循情況,從而能夠對潛在威脅做出主動響應。
司法管轄區的複雜性。 Web3活動的去中心化特性常常給監管方法帶來跨司法管轄區的挑戰。由於每個監管機構對虛擬資產的治理方法可能不同,公司可能會發現,在多個、有時甚至是相互衝突的監管要求下保持合規既困難又昂貴,從而增加了進行監管套利(regulatory arbitrage)的傾向。由人工智慧驅動的合規科技工具有可能幫助公司簡化和管理這些複雜性。通過自動化日常合規任務、識別重疊的監管要求、更有效地適應新規則以及協助監管報告流程,人工智慧可以降低成本和運營負擔,最終使公司更容易滿足不同的監管期望。在接下來的章節中,我們將探討在多種場景下使用人工智慧為監管流程帶來的益處。
4. 人工智慧創新
人工智慧技術的發展經歷了重大進步,改變了各行各業的運營與創新格局。在Web3和虛擬資產(VA)領域,人工智慧有潛力極大地提升監管監督與合規效率。本節概述了新興的人工智慧技術,並探討了人工智慧創新將如何重塑Web3的監管環境。首先,本節將簡要介紹廣泛使用的人工智慧模型(我們僅簡要闡述在監管領域有廣泛應用潛力的模型),隨後探討在監管活動中採用這些人工智慧技術的用例。在考慮未來發展的可能方向之前,我們還將討論利用人工智慧所面臨的主要挑戰。
4.1 新興的人工智慧技術
機器學習(Machine Learning, ML)。機器學習是人工智慧的一個子集,專注於基於數據做出預測或決策。機器學習算法擅長分析大量的交易數據,以檢測預示欺詐活動或合規問題的模式與異常。通過運用監督式、非監督式和強化學習技術,機器學習模型能夠隨著時間的推移不斷適應和改進,為監管機構提供了強大的工具,以在無需持續人工監督的情況下提高監控效率和準確性。
自然語言處理(Natural Language Processing, NLP)。自然語言處理專注於使計算機能夠理解和處理人類語言(即文本)。通過從海量文件和通信中自動提取和分析關鍵信息,自然語言處理可以為監管審查和評估帶來效率。先進的自然語言處理模型在理解和生成類人文本方面取得了重大進展,可用於自動化回應監管機構和公眾的問詢。然而,自然語言處理技術可能存在誤解和偏見的潛在風險,因為模型可能無法完全考慮到因文化或社會規範而異的語境或語氣。若在沒有人為幹預的情況下採用這些技術,此類挑戰可能導致不正確的監管回應或行動。
生成式人工智慧(Generative AI)。生成式人工智慧是指能夠基於現有數據生成新內容(例如文本、圖像和其他媒體)的人工智慧技術。然而,自然語言處理技術可能存在誤解和偏見的潛在風險,因為模型可能無法完全考慮到因文化或社會規範而異的語境或語氣。若在沒有人為幹預的情況下採用這些技術,此類挑戰可能導致不正確的監管回應或行動。
人工智慧代理(AI Agents)。人工智慧代理是專門的生成式人工智慧模型實現,能夠通過預設的工作流程執行複雜任務,例如自動化客戶服務交互、生成法律和監管文件,甚至代表人類操作員進行虛擬協商。在監管領域,生成式人工智慧和人工智慧代理有許多潛在應用。例如,受監管實體可利用它們來自動生成詳細的定期或按需合規報告。監管機構也可以利用此類人工智慧技術來分析大量的監管申報數據,並生成一份潛在違規和風險指標的候選清單。然而,與自然語言處理技術固有的局限性類似,當前主要基於大語言模型(LLM)的生成式人工智慧模型,由於可能出現「幻覺」和語境誤解,其輸出的準確性和可靠性存在局限。
通用人工智慧(General AI)。通用人工智慧是指能夠執行人類可以承擔的任何認知任務的高度自主系統。與專為特定內容創作任務設計的生成式人工智慧不同,通用人工智慧的特點是其多功能性和在沒有預先特定編程的情況下適應廣泛場景的能力。雖然仍處於概念階段,但通用人工智慧可以促進高度自適應的監管監督和合規管理系統,這些系統能夠以極少甚至無需人為幹預的方式,自主適應新的法規和複雜的法律合規要求。
4.2 Web3監管領域的人工智慧解決方案
本節我們探討如何在Web3監管領域應用不同類型的人工智慧技術,以應對監控、執法和合規管理方面的挑戰。我們將這些技術分為兩大類:使用弱人工智慧(Narrow AI)的應用和使用生成式人工智慧的應用。請注意,弱人工智慧是指為執行特定任務並在有限約束下運行而設計的人工智慧系統。它們也被稱為「專用人工智慧」或「弱人工智慧」。
監管報告工具。 由人工智慧驅動的監管報告工具可以自動化收集、提交和分析監管申報表及認證報告。這些系統利用先進的數據挖掘和處理算法,從龐大的數據集中提取和組織信息,以促進無縫的監管報告。除了報告自動化,執行預測性分析的人工智慧工具還可以幫助受監管實體識別風險因素,從而減少潛在的合規失敗。例如,人工智慧可用於監控和預測可能妨礙遵守流動性和資本義務的財務風險。
風險畫像(Risk Profiling)。 專門用於風險畫像的人工智慧系統,可以根據虛擬資產或金融實體的風險特徵和適用的監管要求對其進行分析和分類。這些系統能夠評估歷史表現、市場行為和外部因素,以維持一個動態的風險畫像。通過不斷從新數據和監管更新中學習,這些人工智慧畫像工具可以使畫像與不斷演變的金融格局保持同步。
了解你的交易(Know Your Transaction, KYT)。 利用圖分析和圖神經網絡(GNNs),由人工智慧驅動的KYT和異常檢測系統可以專門設計用於監控和分析區塊鏈網絡上的帳戶和交易。通過利用人工智慧檢驗複雜區塊鏈交易流的能力,受監管實體將能更好地識別高風險交易和帳戶,並改進執行反洗錢(AML)要求的措施。雖然現有的KYT解決方案主要基於規則,但行業參與者正在整合人工智慧技術,例如使用模式識別進行錢包聚類和跨鏈資產流分析。
財務風險評估。 在傳統金融領域,人工智慧模型已被用於現金流預測和流動性管理。在DeFi中,平臺運營商和用戶可以採用人工智慧模型,通過分析和預測去中心化交易所及借貸平臺內部和之間的流動性風險,來更有效地管理流動性。這些模型可用於監控交易量、代幣儲備和用戶行為,以便在潛在的流動性短缺變得嚴重之前識別它們。此類模型提供的預警和可操作的洞見不僅對向消費者提供服務的金融機構有用,也對監督這些服務的監管機構有用,有助於維護DeFi生態系統的穩定與信心。
自動化合規檢查。 由生成式人工智慧執行的自動化合規檢查,可以通過解讀不同司法管轄區的各種法律框架,徹底改變企業遵守法規的方式。這類人工智慧工具將涉及複雜的語義分析,以理解監管文本、法院判決、解釋性函件和其他相關監管出版物的細微之處。這項技術可以在新法規通過時實時動態更新其監管資料庫和算法,使企業能夠迅速適應監管變化。實施此類人工智慧監管工具,將使公司能夠比以往更高效、更經濟地實現對本地和國際法規的遵守,從而顯著降低其遭受處罰和法律挑戰的風險。生成式人工智慧模型對於Web3和虛擬資產服務提供商(VASP)來說也是寶貴的工具,它們可以加速編寫白皮書、章程以及為客戶服務創建聊天機器人等手動任務。其他新興的人工智慧工具有助於加快保持信息披露的更新與合規,以及確保通信和營銷材料保持在允許的監管範圍之內。這些發展代表了該行業向更高效率和更強監管依從性轉變的潛力。
智能合約審計。 智能合約審計利用生成式人工智慧來剖析和分析跨多個平臺和程式語言的智能合約的邏輯和功能。先進的大語言模型(LLM)可以促進對複雜代碼邏輯的詳細審查,以識別與現有法律框架的不一致性、漏洞和合規問題。這些人工智慧系統可以從過去的審計中學習以提高其診斷準確性,為開發人員和監管機構提供強有力的支持,以驗證智能合約的安全性與法律合規性。下一節將進一步擴展探討為探索此類應用而進行的試點項目。
市場情緒分析。 生成式人工智慧可用於分析來自社交媒體、論壇和新聞媒體的大量非結構化數據,以評估公眾對市場狀況或特定資產的情緒。通過解讀語言和檢測情緒變化,此類工具可以預測潛在的市場動向,從而為希望響應市場趨勢的交易者和投資者,以及監控市場操縱行為的監管機構提供警示。
4.3 人工智慧實施中的挑戰
為實現有效和可靠的成果,為監管監督部署人工智慧系統需要應對一系列挑戰。我們審視了一些關鍵問題,如倫理與隱私問題、人工智慧偏見的緩解,以及提高模型行為透明度的需求。解決這些挑戰對於建立在監管流程中使用人工智慧的信任至關重要,尤其是在需要採取監督行動和判斷的場景中。在監管領域部署人工智慧引發了顯而易見的倫理和偏見問題,需要審慎關注。倫理準則對於確保能夠深刻影響個人生活的人工智慧決策保持公平和有效至關重要。訓練數據或算法中固有的偏見可能導致偏頗的結果,使某些群體處於不公平的劣勢,從而破壞監管的公平性和有效性。清晰披露數據如何被使用、處理和共享,對於促進問責制和在利益相關者之間建立信任是必要的。此外,依賴人工智慧來解讀其受監管實體提交的大量數據的監管機構,應確保有措施讓人工智慧能夠解釋使用了哪些數據以及如何使用這些數據得出結論。如果缺乏數據使用的透明度和充分的決策過程可追溯性,受監管實體可能會質疑影響他們的決策的可靠性,並使他們與其監管機構之間的關係變得緊張。
人工智慧系統需要訪問大量數據,這引發了重大的隱私問題。這些系統可能會無意中暴露敏感信息或濫用數據,導致潛在的洩露或未經授權的訪問。對此類數據的收集、存儲和處理必須受到嚴格的數據保護措施的約束,以保障個人隱私權。在監管領域,人工智慧響應的完整性易受「提示詞攻擊」(prompt hacking)所帶來的挑戰影響。用戶可能有意識或無意識地提供誤導性輸入,從而影響模型的決策矩陣,進而影響輸出的質量和可靠性。應對這些漏洞需要先進的實時監控工具,以有效分析和緩解潛在的惡意提示。人工智慧生成響應的精確性和能力可能會助長用戶的過度依賴。人工監督仍然是必要的,以防止對人工智慧系統的過度依賴,並確保對人工智慧能力的審慎利用。
4.4 未來方向
先進人工智慧技術的整合預計將影響未來法規的制定、監控和執行。我們預見到預測性分析和決策方面的潛在進步,以及可能改變監管活動的新興技術。預測性分析的進步可能會重塑由人工智慧驅動的監管和監督方法。這些進步不僅能實現主動的,而且能實現預防性的監管方法,即在潛在的合規問題和監管違規行為發生之前進行預測。可以訓練機器學習算法來預見欺詐活動或違規行為之前的異常。這使得決策者能夠在潛在問題升級之前解決它們,從而提高監管幹預的準確性和及時性。諸如量子計算和先進神經網絡等技術創新,有望擴展人工智慧系統的分析能力,使其能以更高的複雜程度處理和解讀複雜的監管數據。例如,量子計算可能以前所未有的速度處理大規模計算,從而促進更詳細和全面的評估。先進的神經網絡可以從更多樣化和複雜的數據集中學習,提供以前無法獲得的細緻入微的洞見。與此同時,人工智慧倫理和治理方面的理論進步,正在為指導這些技術在公認的社會價值觀和法律標準內運行的框架發展提供信息。隨著這些技術和框架的發展,它們將有助於催生更有效、更高效、更公平的由人工智慧驅動的監管工具。
5. ADGM 的人工智慧創新試點(與新加坡國立大學 AIDF 的聯合工作)
阿布達比全球市場(Abu Dhabi Global Market,ADGM)與新加坡國立大學亞洲數字金融研究院(Asian Institute of Digital Finance,NUS AIDF)在應對快速演進的 Web3 領域所帶來的風險與監管挑戰方面具有共同目標。為此,雙方自 2022 年起開展聯合試點項目,研究可用於改進區塊鏈應用與虛擬資產(Virtual Assets,VA)安全審計流程的人工智慧技術。試點利用創新型 AI 技術分析審計日誌、回溯歷史安全事件,以識別模式並為潛在脆弱點提供洞見。本節介紹三個試點,展示 AI 在推進對 VA 及其服務提供機構的監管評估方面的潛力。
5.1 試點一:基於 AI 的智能合約適配性評估
5.1.1 引言
智能合約是區塊鏈技術的基礎組件,可在去中心化平臺上安全地自動執行協議與交易。鑑於其在區塊鏈應用中的重要性,有必要對其代碼庫進行全面評估與驗證,以確保按預期運行並滿足監管標準。本節介紹首個試點項目:一個由 AI 賦能的智能合約適配性評估平臺。
5.1.2 既有解決方案與服務提供方
當前的智能合約驗證實踐結合了人工評估與先進技術工具,旨在排查潛在漏洞並提升效率。包括 CertiK、Trail of Bits、Halborn、Hacken 等領先服務商,綜合採用靜態與動態分析以及人工主導的形式化驗證等方法,對智能合約在網絡攻擊與性能問題方面進行評估與加固。隨著 Web3 技術進入受監管行業,智能合約驗證的範式亟需擴展。除技術層面的脆弱性外,當智能合約被用於自動化受監管活動時,其審計還應涵蓋對相關監管要求的合規性檢驗。
5.1.3 AI 驅動的評估
本試點通過兩種方法,分析智能合約代碼與 VA 白皮書之間的一致性關係。
基於 LLM 的校驗器方法(LLM-Based Validator Method)。該方法使用專有 AI 模型分析智能合約代碼與其對應 VA 白皮書之間的對齊程度。訓練數據準備首先從廣泛使用的智能合約代碼庫中抽取條款與規範,並按不同項目類型加以分類,形成針對性分析所需的知識庫。隨後,利用大型語言模型(Large Language Model,LLM)從待評估的智能合約代碼及其白皮書中抽取證據,用以核對白皮書所述目標是否在代碼中得到實現。模型採用問答(Q&A)方式逐項驗證(圖一),並圍繞代碼庫對白皮書內容進行審查。
同時,模型還執行行業普遍接受的技術檢查以識別潛在漏洞,例如靜態代碼分析;並將實現細節與業內通行做法和相關標準進行比對,以檢驗其一致性。上述核驗有助於確保智能合約按預期執行,並滿足白皮書中設定的運營與合規標準。
代碼生成方法(Code Generation Method)。該方法利用 AI 根據 VA 白皮書中描述的目標與功能生成代碼片段(例如,發行最大發行量為一億的代幣)。隨後將這些生成的代碼片段與原始智能合約代碼進行對比:在相同輸入條件下分別運行原始代碼與 AI 生成代碼並比較輸出結果。目標是在代碼結構或風格可能不同的情況下,驗證功能性輸出是否一致。若輸出匹配,可確認原始代碼按白皮書規格執行;若輸出存在差異,則對代碼進行進一步審查,查找不一致來源,並視情況進行調整或重新評估。可選地,還可以在 AI 生成代碼與原始合約代碼之間開展一次直接的對比測試 (圖二)。
上述兩種方法共同構成一套驗證框架,用於評估智能合約的實現、定位錯誤與遺漏,並確保合約按既定與公開宣示的方式運行。此類洞見可為監管機構提供有價值的客觀依據,以核實項目陳述的可證實性。
5.2 試點二:審計報告評估
5.2.1 引言
為確保由智能合約承載的業務邏輯安全可靠,項目方通常會聘請安全審計公司評估代碼並對外發布審計報告。然而,審閱此類報告往往需要計算機科學與安全領域的專業知識,監管機構未必具備。為彌補這一知識缺口,本試點測試了利用 LLM 評估此類安全審計報告充分性的評價框架。
5.2.2 既有解決方案與服務提供方
傳統做法中,安全審計報告依賴自動化工具、人工評估與專家分析,過程耗時且結論具有一定主觀性。審計通常要求審計人員檢查代碼庫、配置與操作流程,以識別脆弱點與薄弱環節。由於評估以人工為主,工作強度較大;同時對人類專業判斷的依賴也帶來誤差風險與主觀差異,不同審計人員對發現與風險的解讀可能不盡一致。Web3 項目複雜度與規模的增長,對既有審計方式提出更高要求。技術發展快速、開源特性明顯、去中心化應用數量激增,使審計人員常面臨時效壓力,可能影響分析深度。安全審計往往只能提供某一時點的「快照」,因此可能忽略審計後不斷湧現的威脅與脆弱性。另一個顯著挑戰是技術複雜度。報告通常高度技術化與細節繁複,使公眾與監管者難以全面理解與解釋其中結論。
5.2.3 基於 AI 的安全審計報告輔助評估
該評估工具使用 AI 來衡量審計報告質量。試點首先通過光學字符識別(Optical Character Recognition,OCR)與定製的信息檢索技術,採集並整理評估所需數據,包括審計範圍、評估方法、審計工具以及報告中的問題描述等要素。隨後,採用現成的 LLM 模型對報告進行處理以生成嵌入表示(embeddings),並如圖 3 所示將其表示為向量。此過程使用高級自然語言處理(Natural Language Processing,NLP)技術,例如基於定製庫的實體識別與依存句法分析,以理解並歸類報告內容。完成數據處理後,工具利用存儲的向量與預定義知識集(如下圖所示的資料庫)進行對比評估。知識集覆蓋五個具體類別:(1)內容質量與覆蓋範圍,(2)脆弱性識別與優先級排序,(3)緩解策略與報告影響,(4)呈現質量與審計方法論,(5)報告相關性與可達性。該評估過程兼具速度與全面性,通常每份報告約需五分鐘。 最後,再次調用 LLM 生成評估報告。該報告包含按上述各類別細分評估加權匯總得到的總分,反映安全審計報告的整體表現,指出優勢領域與待改進之處。同時,報告還將基
於各類別的中間評估結果給出由 LLM 生成的詳細說明,闡明其優勢與關注點,示意圖見圖三。
5.3 試點三:基於 AI 的智能盡職調查(Smart Due Diligence)
5.3.1 引言
在許可發放與持續性監督過程中,對 Web3 項目開展初始與持續盡職調查(due diligence)對監管機構至關重要。作為虛擬資產中介的虛擬資產服務提供商(Virtual Asset Service Providers,VASPs)在向客戶提供虛擬資產(Virtual Assets,VA)之前,也需對相關區塊鏈項目及其代幣執行自有的盡職調查。由於區塊鏈的去中心化特徵、化名身份以及新型組織形態,Web3 盡職調查面臨獨特挑戰。識別與核驗真實身份、理解複雜的技術基礎設施、應對多樣的組織結構與演進中的法律框架,均使流程更為複雜。與此同時,Web3 領域的公開可得數據可用於提升對活動的把握:鏈上數據能夠為交易與智能合約運行提供可驗證的實時洞見;鏈下的定性信息(如團隊資質、市場情緒、論壇與 DAO 討論、官方社交媒體渠道)則為評估提供補充。然而,儘管數據公開,攝取如此海量且高度技術化的信息仍具挑戰,需要成熟的處理與分析工具。引入人工智慧(AI)可簡化盡職調查流程,使監管機構與 VASPs 能更高效地審閱和評估 Web3 項目。
5.3.2 既有解決方案與服務提供方
為應對複雜數據分析與盡職調查需求,Web3 與 VA 領域湧現出眾多服務商。這些公司提供的工具與服務可優化合規流程、核驗身份,並在不同法域下處理部分監管義務。例如,Chainalysis 與 Elliptic 提供區塊鏈分析工具,幫助回溯加密資產交易來源,支持反洗錢(Anti-Money Laundering,AML)與反恐融資(Combating the Financing of Terrorism,CFT)合規。其他公司則提供數字身份核驗方案,力圖在去中心化環境中識別用戶。雖然上述工具在特定環節有效,但尚無法覆蓋監管機構與 VASPs 所需的全譜系監督。本試點旨在進一步改進面向監管者與 VASPs 的整體盡職調查流程。
5.3.3 AI 輔助的盡職調查
本試點從多個方面引入 AI 技術,以改進監管機構與 VASPs 的盡職調查實踐。
生成式 AI 支持企業入駐(onboarding)。 在項目向監管機構申請牌照時,生成式 AI 用於按 Web3 項目側重點定製入駐流程。本試點開發的模型可自動生成個性化表單並列示所需提交文件清單。此類定製化可避免「一刀切」的通用流程,減少與該企業具體業務無關的提交要求。
生成式 AI 審閱社交媒體。 試點使用 AI 工具監測並分析企業及其關鍵人員的社交媒體表現,識別不一致的公開披露、聲譽風險以及誤導性或欺詐性表述的跡象。所用模型能夠理解內容語境與情緒,並輸出潛在關注點供監管者參考。(註:原文該段落出現一次重複,這裡合併呈現。)
監管問答代理(Q&A Agent)。 該代理允許監管者對 Web3 項目數據進行檢索式提問,涵蓋企業自報文件、智能合約細節、官方通告與披露等。代理基於查詢時的最新數據,按需向非技術背景人員提供易懂的洞見;所有答覆均進行分類並標註來源,附有原始數據連結。系統會隨新數據持續更新,並支持監管者接入更多數據源。
該試點通過在企業入駐、風險識別與實時監管洞見等環節運用 AI,有效替代重複性與冗餘性的人工作業。鑑於眾多監管機構正積極探索此類創新,該項目具有更大範圍部署與進一步演進的潛力。
6. 結論與未來工作
6.1 結論
Web3 與 VA 活動的快速演進為創新鋪路,同時帶來全新且複雜的監管挑戰。將 AI 融入監管流程,有望增強監管機構的工具箱,以更好地監測、預測並緩釋 Web3 與 VA 領域產生的風險。本文介紹的試點項目給出了 AI 在該領域的實踐範例,展示了其在改進行業合規實踐方面的現實作用。
6.2 關鍵要點
人工智慧在 Web3 監管技術(SupTech)與監管科技(RegTech)中的變革潛力
· 以 AI 為驅動的解決方案可顯著提升 Web3 監管的有效性,包括實時風險分析、前瞻性的脆弱點探測以及更高效的合規監測。
· 通過運用多種 AI 技術(如機器學習、自然語言處理 NLP、生成式 AI 與自主代理),監管者能夠更好地保持監督、優化報告流程、發現異常並理解去中心化生態中的情緒與輿情。
· 將 AI 融入 Web3 監管,可簡化跨法域的複雜性,適應全天候運行,並使合規框架更具可達性、靈活性與創新性。
AI 落地面臨的挑戰
· 倫理與隱私、模型偏差,以及對透明度與可追溯性的需求,是關鍵議題。
· 人類監督必不可少,可降低對 AI 的過度依賴,並保障應用的可靠性。
試點所展示的實踐應用
· AI 強化的智能合約評估,有助於確保與白皮書及監管標準的一致性。
· 審計報告與盡職調查流程的自動化評估,可顯著提升效率。
· 生成式 AI 工具可支持企業入駐流程、社交媒體分析,並高效向監管者提供有用洞見。
未來方向
· 預測分析、可自適應的 AI 系統與全球協作的進步,將推動更有效的監管實踐。
· 建立 AI 治理框架與倫理標準,將成為維護信任與問責的關鍵。
6.3 未來工作
面向未來,若干關鍵方向將推動人工智慧(Artificial Intelligence,AI)在監管流程中的持續演進與融合:
· 高級 AI 模型(Advanced AI Models) 隨著 AI 技術進步,模型能力與結果質量有望進一步提升,同時實現更低的成本與算力資源佔用。
· 強化的預測分析(Enhanced Predictive Analytics) 預測分析的進一步發展將支持對風險與合規違規事件的更精準預判。藉助更大規模與更專業化的數據集,以及更複雜的算法,AI 系統可在問題發生前進行前瞻性識別,從而實現主動的早期幹預。
· 先進的 AI 治理與倫理(Advanced AI Governance and Ethics) 為確保監管場景下的 AI 應用符合倫理、保持透明並減少偏差,建立系統性的 AI 治理框架勢在必行。制定 AI 倫理標準與指南將有助於構建基於 AI 的監管系統中的信任與問責。
· 自適應與可解釋 AI(Adaptive and Explainable AI) 未來的 AI 系統應具備自適應能力,能夠隨監管環境與 Web3 活動的變化而持續學習與演化。提升算法與決策的可解釋性,將使監管決策對受其影響的相關方更為透明與可理解。
· 全球協作(Global Collaboration) 在跨法域層面建立並共享最佳實踐,將促進對全球 Web3 生態更為一致與有效的監管。