
AI Layer 1 研报:寻找未来链上 DeAI 应用的沃土
2025-06-10 • By okx交易所
作者:@anci_hu49074(Biteye)、@Jesse_meta(Biteye)、@lviswang(Biteye)、@0xjacobzhao(Biteye)、@bz1022911(PANews)
概述背景近年来,OpenAI、Anthropic、Google、Meta等头部科技公司不断推动大语言模型(LLM)的飞速发展。LLM在各行各业展现出前所未有的能力,极大地拓展了人类的想象空间,甚至在部分场景下展现了替代人类劳动的潜力。然而,这些技术的核心却牢牢掌握在少数中心化科技巨头手中。凭借雄厚的资本和对高昂算力资源的把控,这些公司建立起了难以逾越的壁垒,使绝大多数开发者和创新团队难以与之抗衡。
来源:BONDAI趋势分析报告
同时,在AI快速演进的初期,社会舆论往往聚焦于技术带来的突破和便利,而对隐私保护、透明度、安全性等核心问题的关注却相对不足。长期来看,这些问题将深刻影响AI行业的健康发展和社会接受度。如果无法妥善解决,AI“向善”还是“向恶”的争议将愈发突出,而中心化巨头在逐利本能驱动下,往往缺乏足够的动力去主动应对这些挑战。
区块链技术凭借其去中心化、透明和抗审查的特性,为AI行业的可持续发展提供了新的可能性。目前,Solana、Base等主流区块链上已经涌现出众多“Web3AI”应用。但深入分析可以发现,这些项目仍存在诸多问题:一方面,去中心化程度有限,关键环节和基础设施仍依赖中心化云服务,meme属性过重,难以支撑真正意义上的开放生态;另一方面,与Web2世界的AI产品相比,链上AI在模型能力、数据利用和应用场景等方面仍显局限,创新深度和广度有待提升。
要真正实现去中心化AI的愿景,使区块链能够安全、高效、民主地承载大规模AI应用,并在性能上与中心化方案相抗衡,我们需要设计一条专为AI量身打造的Layer1区块链。这将为AI的开放创新、治理民主和数据安全提供坚实基础,推动去中心化AI生态的繁荣发展。
AILayer1的核心特性AILayer1作为一条专为AI应用量身定制的区块链,其底层架构和性能设计紧密围绕AI任务的需求,旨在高效支撑链上AI生态的可持续发展与繁荣。具体而言,AILayer1应具备以下核心能力:
高效的激励与去中心化共识机制:AILayer1的核心在于构建一个开放的算力、存储等资源的共享网络。与传统区块链节点主要聚焦于账本记账不同,AILayer1的节点需要承担更复杂的任务,不仅要提供算力、完成AI模型的训练与推理,还需贡献存储、数据、带宽等多样化资源,从而打破中心化巨头在AI基础设施上的垄断。这对底层共识和激励机制提出了更高要求:AILayer1必须能够准确评估、激励并验证节点在AI推理、训练等任务中的实际贡献,实现网络的安全性与资源的高效分配。唯有如此才能保证网络的稳定与繁荣,并有效降低整体算力成本。
卓越的高性能与异构任务支持能力:AI任务,尤其是LLM的训练与推理,对计算性能和并行处理能力提出了极高的要求。更进一步,链上AI生态往往还需支持多样化、异构的任务类型,包括不同模型结构、数据处理、推理、存储等多元场景。AILayer1必须在底层架构上针对高吞吐、低延迟和弹性并行等需求进行深度优化,并预设对异构计算资源的原生支持能力,确保各种AI任务都能高效运行,实现从“单一型任务”到“复杂多元生态”的平滑扩展。
可验证性与可信输出保障:AILayer1不仅要防止模型作恶、数据篡改等安全隐患,更要从底层机制上确保AI输出结果的可验证性和对齐性。通过集成可信执行环境(TEE)、零知识证明(ZK)、多方安全计算(MPC)等前沿技术,平台能够让每一次模型推理、训练和数据处理过程都可以被独立验证,确保AI系统的公正性和透明度。同时,这种可验证性还能帮助用户明确AI输出的逻辑和依据,实现“所得即所愿”,提升用户对AI产品的信任和满意度。
数据隐私保护:AI应用经常涉及用户敏感数据,在金融、医疗、社交等领域,数据隐私保护尤为关键。AILayer1应在保障可验证性的同时,采用基于加密的数据处理技术、隐私计算协议和数据权限管理等手段,确保数据在推理、训练及存储等全过程中的安全性,有效防止数据泄露和滥用,消除用户在数据安全方面的后顾之忧。
强大的生态承载与开发支持能力:作为AI原生的Layer1基础设施,平台不仅要具备技术上的领先性,还需为开发者、节点运营者、AI服务提供商等生态参与者提供完善的开发工具、集成SDK、运维支持和激励机制。通过持续优化平台可用性和开发者体验,促进丰富多元的AI原生应用落地,实现去中心化AI生态的持续繁荣。
基于以上背景与期望,本文将详细介绍包括Sentient、SaharaAI、Ritual、Gensyn、Bittensor以及0G在内的六个AILayer1代表项目,系统梳理赛道的最新进展,剖析项目发展现状,并探讨未来趋势。
Sentient:构建忠诚的开源去中心化AI模型项目概述Sentient是一个开源协议平台,正在打造一条AILayer1区块链(初始阶段为Layer2,之后将迁移至Layer1),通过结合AIPipeline和区块链技术,构建去中心化的人工智能经济体。其核心目标是通过“OML”框架(开放、可盈利、忠诚)解决中心化LLM市场中的模型归属、调用追踪和价值分配问题,使AI模型实现链上所有权结构、调用透明化和价值分润化。Sentient的愿景是让任何人都能够构建、协作、拥有并将AI产品货币化,从而推动一个公平、开放的AIAgent网络生态。
SentientFoundation团队汇聚了全球顶尖的学术专家、区块链创业者和工程师,致力于构建一个社区驱动、开源且可验证的AGI平台。核心成员包括普林斯顿大学教授PramodViswanath和印度科学研究所教授HimanshuTyagi,分别负责AI安全性与隐私保护,同时由Polygon联合创始人SandeepNailwal主导区块链战略与生态布局。团队成员背景横跨Meta、Coinbase、Polygon等知名企业,以及普林斯顿大学、印度理工学院等顶尖高校,覆盖AI/ML、NLP、计算机视觉等领域,协力推动项目落地。
作为Polygon联合创始人SandeepNailwal的二次创业项目,Sentient在成立之初便自带光环,拥有丰富的资源、人脉和市场认知度,为项目发展提供了强大背书。2024年中,Sentient完成了8500万美元的种子轮融资,由FoundersFund、Pantera和FrameworkVentures领投,其他投资机构包括Delphi、Hashkey和Spartan等数十家知名VC。
设计架构与应用层基建层核心架构Sentient的核心架构由AI管道(AIPipeline)和区块链系统两部分组成:
AI管道是开发和训练“忠诚AI”工件的基础,包含两个核心过程:
数据策划(DataCuration):由社区驱动的数据选择过程,用于模型的对齐。
忠诚度训练(LoyaltyTraining):确保模型保持与社区意图一致的训练过程。
区块链系统为协议提供透明性和去中心化控制,确保AI工件的所有权、使用跟踪、收益分配与公平治理。具体架构分为四层:
存储层:存储模型权重与指纹注册信息;
分发层:授权合约控制模型调用入口;
访问层:通过权限证明验证用户是否授权;
激励层:收益路由合约将每次调用支付分配给训练者、部署者与验证者。
Sentient系统工作流程图
OML模型框架OML框架(开放Open、可货币化Monetizable、忠诚Loyal)是Sentient提出的核心理念,旨在为开源AI模型提供明确的所有权保护和经济激励机制。通过结合链上技术和AI原生加密学,具有以下特点:
开放性:模型必须开源,代码和数据结构透明,便于社区复现、审计和改进。
货币化:每次模型调用都会触发收益流,链上合约会将收益分配给训练者、部署者和验证者。
忠诚性:模型归属于贡献者社区,升级方向和治理由DAO决定,使用和修改受到加密机制的控制。
AI原生加密学(AI-nativeCryptography)AI原生加密是利用AI模型的连续性、低维流形结构与模型可微特性,开发出“可验证但不可移除”的轻量级安全机制。其核心技术是:
指纹嵌入:在训练时插入一组隐蔽的query-response键值对形成模型唯一签名;
所有权验证协议:通过第三方探测器(Prover)以query提问形式验证指纹是否保留;
许可调用机制:调用前需获取模型所有者签发的“权限凭证”,系统再据此授权模型对该输入解码并返回准确答案。
这种方式可在无重加密成本的情况下实现“基于行为的授权调用+所属验证”。
模型确权与安全执行框架Sentient当前采用的即为Melange混合安全:以指纹确权、TEE执行、链上合约分润结合。其中指纹方法为OML1.0实现主线,强调“乐观安全(OptimisticSecurity)”思想,即默认合规、违规后可检测并惩罚。
指纹机制是OML的关键实现,它通过嵌入特定的“问题-回答”对,让模型在训练阶段生成独特的签名。通过这些签名,模型拥有者可以验证归属,防止未经授权的复制和商业化。该机制不仅保护了模型开发者的权益,还为模型的使用行为提供了可追踪的链上记录。
此外,Sentient推出了EnclaveTEE计算框架,利用可信执行环境(如AWSNitroEnclaves)确保模型只响应授权请求,防止未经许可的访问和使用。虽然TEE依赖硬件且存在一定安全隐患,但其高性能和实时性优势使其成为当前模型部署的核心技术。
未来,Sentient计划引入零知识证明(ZK)和全同态加密(FHE)技术,进一步增强隐私保护和可验证性,为AI模型的去中心化部署提供更成熟的解决方案。
OML提出五种可验证性方法的评估和对比
应用层目前,Sentient的产品主要包括去中心化聊天平台SentientChat、开源模型Dobby系列以及AIAgent框架
Dobby系列模型SentientAGI已发布多个“Dobby”系列模型,主要基于Llama模型,聚焦自由、去中心化和加密货币支持的价值观。其中,leashed版本风格较为约束和理性,适合稳健输出的场景;unhinged版本偏向自由大胆,具备更丰富的对话风格。Dobby模型已经被集成到多个Web3原生项目中,如FireworkAI和Olas,用户也可以在SentientChat中直接调用这些模型进行互动。Dobby70B是有史以来最去中心化的模型,拥有超过60万名所有者(持有Dobby指纹NFT的人同时也是该模型的共同拥有者)。
Sentient还计划推出OpenDeepSearch,这是一个试图超越ChatGPT和PerplexityPro的搜索代理系统。该系统结合了Sensient的搜索功能(如查询重述、文档处理)与推理代理,通过开源LLM(如Llama3.1和DeepSeek)提升搜索质量。在FramesBenchmark上,其性能已超过其他开源模型,甚至接近部分闭源模型,展现了强大的潜力。
SentientChat:去中心化聊天与链上AIAgent集成SentientChat是一个去中心化聊天平台,结合了开源大型语言模型(如Dobby系列)与先进的推理代理框架,支持多代理集成和复杂任务执行。平台内嵌的推理代理可以完成搜索、计算、代码执行等复杂任务,为用户提供高效的交互体验。此外,SentientChat还支持链上智能体的直接集成,目前包括占星学AgentAstro247、加密分析AgentQuillCheck、钱包分析AgentPondBaseWalletSummary和灵修指引AgentChiefRaiin。用户可以根据需求选择不同的智能代理进行互动。SentientChat将作为代理的分发和协调平台使用。用户的提问可以被路由到任意一个已集成的模型或代理,以提供最优的响应结果。
AIAgent框架Sentient提供两大AIAgent框架:
SentientAgentFramework:一个轻量级开源框架,专注于通过自然语言指令实现Web任务自动化(如搜索、播放视频)。框架支持构建具备感知、规划、执行和反馈闭环的智能体,适合链下Web任务的轻量化开发。
SentientSocialAgent:针对社交平台(如Twitter、Discord和Telegram)开发的AI系统,支持自动化互动与内容生成。通过多智能体协作,该框架能够理解社交环境,并为用户提供更加智能化的社交体验,同时可与SentientAgentFramework集成,进一步扩展其应用场景。
生态和参与方式SentientBuilderProgram目前设有100万美元资助计划,旨在鼓励开发者利用其开发套件,构建通过SentientAgentAPI接入、并可在SentientChat生态中运行的AIAgent。Sentient官网公布的生态伙伴涵盖CryptoAI多个领域的项目方团队,如下
Sentient生态图
此外,SentientChat目前处于测试阶段,需要通过邀请码进入白名单后才可访问,普通用户可以提交waitlist。根据官方信息,已有超过50,000名用户和1,000,000次查询记录。SentientChat的候补名单上有2,000,000名用户等待加入。
挑战和展望Sentient从模型端入手,致力于解决当前大规模语言模型(LLM)面临的不对齐、不可信等核心问题,通过OML框架和区块链技术,为模型提供明确的所有权结构、使用追踪和行为约束,极大推动了去中心化开源模型的发展。
凭借Polygon联合创始人SandeepNailwal的资源支持,以及顶级VC和行业伙伴的背书,Sentient在资源整合和市场关注度上处于领先地位。不过在当前市场对高估值项目逐渐祛魅的背景下,Sentient能否交付真正具有影响力的去中心化AI产品,将是其能否成为去中心化AI所有权标准的重要考验。这些努力不仅关乎Sentient自身的成功,也对整个行业的信任重建和去中心化发展具有深远影响。
SaharaAI:打造人人参与的去中心化AI世界项目概述SaharaAI是一个为AI×Web3新范式而生的去中心化基础设施致力于构建一个开放、公平且协作的人工智能经济。项目通过去中心化账本技术,实现数据集、模型和智能Agent的链上管理与交易,确保数据和模型的主权与可追溯性。同时,SaharaAI引入透明、公平的激励机制,让所有贡献者,包括数据提供者、标注员和模型开发者,都能在协作过程中获得不可篡改的收入回报。平台还通过一个无需许可的“版权”系统,保护贡献者对AI资产的所有权和归属,并鼓励开放共享和创新。
SaharaAI提供从数据收集、标注到模型训练、AIAgent创建、AI资产交易等服务的一站式解决方案,覆盖整个AI生命周期,成为满足AI开发需求的全方位生态平台。其产品质量和技术能力已获得微软、亚马逊、麻省理工学院(MIT)、Motherson集团和Snap等全球顶尖企业和机构的高度认可,展现出强大的行业影响力和广泛的适用性。
Sahara不只是一个科研项目,而是由一线技术创业者与投资人联合推动、具备落地导向的深科技平台。其核心架构有可能成为AI×Web3应用落地的关键支点。SaharaAI已获得PanteraCapital、BinanceLabs、红杉中国等头部机构累计4,300万美元的投资支持;由南加州大学终身教授、2023年度三星研究员SeanRen和前BinanceLabs投资总监TylerZhou共同创立,核心团队成员来自斯坦福大学、加州大学伯克利分校、微软、谷歌、币安等顶尖机构,融合了学术界与产业界的深厚积累。
设计架构SaharaAI架构图
基础层SaharaAI的基础层分为:1.链上层用于AI资产的注册与变现,2.链下层用于运行Agents与AI服务。由链上系统与链下系统协同构成,负责AI资产的注册、确权、执行与收益分配,支撑整个AI生命周期的可信协作。
Sahara区块链与SIWA测试网(链上基础设施)SIWA测试网是Sahara区块链的第一个公开版本。Sahara区块链协议(SBP)是Sahara区块链的核心,这是一套专为AI构建的智能合约系统,实现了AI资产的链上所有权、溯源记录与收益分配。核心模块包括资产注册系统、所有权协议、贡献追踪、权限管理、收益分配、执行证明等,构建出面向AI的“链上操作系统”。
AI执行协议(链下基础设施)为支撑模型运行与调用的可信性,Sahara同时构建了链下的AI执行协议体系,结合可信执行环境(TEE),支持Agent创建、部署、运行与协同开发。每次任务执行均自动生成可验证记录,并上传链上,确保全流程可追溯、可验证。链上系统负责注册、授权与所有权记录,链下AI执行协议则支持AIAgent的实时运行与服务交互。
由于Sahara跨链兼容,因此基于SaharaAI的基础设施构建的应用可以部署在任何链上,甚至链下。
应用层SaharaAI数据服务平台(DSP)数据服务平台(DSP)是Sahara应用层的基础模块,任何人都可通过SaharaID接受数据任务,参与数据标注、去噪与审核,并获得链上积分奖励(SaharaPoints)作为贡献凭证。这一机制不仅保障了数据溯源与权属,同时推动“贡献-奖励-模型优化”形成闭环。目前进行到了第四季活动,这也是普通用户可以参与贡献的主要方式。
在此基础上,为了鼓励用户提交高质量的数据与服务,通过介紹双重激励机制,不仅可获得Sahara提供的奖励,还能获得生态伙伴的额外回报,实现一次贡献、多方收益。以数据贡献者为例,一旦其数据被模型反复调用或用于生成新应用,即可持续获取收益,真正参与AI价值链。这一机制不仅延长了数据资产的生命周期,也为协作与共建注入了强大动能,例如,BNBChain上的MyShell就通过DSP众包生成定制数据集,提升模型性能,用户则获得MyShell代币激励,形成双赢闭环。
AI企业可以基于数据服务平台来众包定制数据集,通过发布专门的数据任务,快速从位于全球的数据标注者获得响应。AI企业不再只依赖传统中心化数据供应商,就可大规模获取高质量标注数据。
SaharaAIDeveloperPlatformSaharaAIDeveloperPlatform是一个面向开发者与企业的一站式AI构建与运营平台,提供从数据获取、模型训练到部署执行与资产变现的全流程支持。用户可以直接调用SaharaDSP中的高质量数据资源,将其用于模型的训练与微调;处理完成的模型可在平台内进行组合、注册并上架至AI市场,通过Sahara区块链实现所有权确权与灵活授权。Studio同时整合去中心化计算能力,支持模型训练与Agent的部署运行,确保计算过程的安全性与可验证性。开发者还可将关键数据和模型存储,进行加密托管和权限控制,防止未授权访问。通过SaharaAIAIDeveloperPlatform,开发者无需自建基础设施,即可以更低门槛构建、部署并商业化AI应用,并通过协议化机制全面融入链上AI经济体系。
AIMarkerplaceSaharaAIMarketplace是一个面向模型、数据集与AIAgent的去中心化资产市场。它不仅支持资产的注册、交易与授权,更构建了一套透明且可追踪的收益分配机制。开发者可以将自己构建的模型或收集的数据集注册为链上资产,设置灵活的使用授权与分润比例,系统将根据调用频次自动执行收益结算。数据贡献者也能因其数据被重复调用而持续获得分润,实现“持续变现”。
这一市场与Sahara区块链协议深度整合,所有资产交易、调用、分润记录都将链上可验证,确保资产归属明确、收益可追踪。借助该市场,AI开发者不再依赖传统API平台或中心化模型托管服务,而是拥有自主、可编程的商业化路径。
生态层SaharaAI的生态层串连了资料提供者、AI开发者、消费者、企业用户与跨链合作伙伴。无论是想贡献资料、开发应用、使用产品,还是推动企业内部AI化,都能发挥作用并找到收益模式。资料标注者、模型开发团队与算力供应者可以将其资源注册为链上资产,透过SaharaAI的协议机制进行授权与分润,让每一次被使用的资源都能自动获得回报。开发者则能通过一站式的平台串接资料、训练模型、部署Agent,在AIMarketplace中直接商业化他们的成果。
一般用户无需技术背景,也可参与资料任务、使用AIApp、收藏或投资链上资产,成为AI经济的一部分。对企业来说,Sahara提供从资料众包、模型开发到私有部署与收益变现的全流程支持。除此之外,Sahara支援跨链部署,任何公链生态都可使用SaharaAI提供的协议与工具来建构AI应用、接入去中心化AI资产,实现与多链世界的兼容与扩展。这使得SaharaAI不只是单一平台,更是一个链上AI生态的底层协作标准。
生态进展
自项目启动以来,SaharaAI不仅仅提供一套AI工具或算力平台,还在在链上重构AI的生产与分配秩序,打造一个人人都能参与、确权、贡献与共享的去中心化协作网络。正因如此,Sahara选择以区块链作为底层架构,为AI构建可验证、可追踪、可分配的经济体系。
围绕这一核心目标,Sahara生态已取得显著进展。在尚处于私测阶段的情况下,平台已累计生成超320万个链上账户,日活跃账户稳定在140万以上,显示出用户参与度与网络活力。其中,超过20万名用户通过Sahara数据服务平台参与了数据标注、训练与验证任务,并获得链上激励奖励。同时,仍有数百万用户在等待加入白名单,印证了市场对去中心化AI平台的强烈需求与共识。
在企业合作方面,Sahara已与微软、亚马逊、麻省理工学院(MIT)等全球领先机构建立合作,为其提供定制化的数据采集与标注服务。企业可通过平台提交具体任务,由Sahara全球数据标注者组成的网络高效执行,实现规模化众包,执行效率、灵活性、多样化需求支持方面的优势。
SaharaAI生态图
参与方式SIWA将分四个阶段推出。目前第一阶段为链上数据所有权打基础,贡献者可以将自己的数据集注册并代币化。目前对外公开开放,不需要白名单。需要确保上传的是对AI有用的数据,抄袭或者不当内容可能会受到处理。
SIWA测试网
第二阶段实现数据集与模型的链上变现。第三阶段开放测试网,并开源协议。第四阶段推出AI数据流注册、溯源追踪与贡献证明机制。
除了SIWA测试网,现阶段普通用户可以参与SaharaLegends,通过游戏化任务了解SaharaAI的功能。完成任务后收获守护者碎片,最后可以合成一个NFT来记录对网络的贡献。
或者在数据服务平台标注数据,贡献有价值数据,以及担任审核员。Sahara后续计划和生态伙伴合作发布任务,让参与者除了获得Sahara的积分外还可获得生态伙伴的激励。第一次双奖励任务和Myshell一起举办,用户完成任务可获得Sahara的积分和Myshell的代币奖励。
根据路线图,Sahara预计于2025年Q3推出主网,届时可能也会迎来TGE。
挑战和展望
SaharaAI让AI不再局限于开发人员或者大的AI公司,让AI更加开放包容和民主化。对于普通用户,无须编程知识即参与贡献并获取收益,SaharaAI打造的是一个人人都能参与的去中心化AI世界。对于技术开发人员,SaharaAI打通Web2和Web3开发路径,提供了去中心化但灵活强大的开发工具和高质量的数据集。对于AI基础设施提供者,SaharaAI提供了模型、数据、算力与服务的去中心化变现新路径。SaharaAI不仅仅只做公链基础设施,还下场做核心应用,利用区块链技术促进AI版权系统的发展。现阶段SaharaAI已经和多个顶级AI机构达成合作,取得初步成功。后续是否成功,还应观察主网上线后的性能表现,生态产品发展和采用率以及经济模型能否在TGE后驱动用户继续为数据集做贡献。
Ritual:创新设计突破异构任务等AI核心难题项目概述Ritual旨在解决当前AI行业中存在的中心化、封闭性和信任问题,为AI提供透明的验证机制、公平的计算资源分配以及灵活的模型适配能力;允许任何协议、应用或智能合约以几行代码的形式集成可验证的AI模型;并通过其开放的架构和模块化的设计,推动AI在链上的广泛应用,打造一个开放、安全且可持续的AI生态系统。
Ritual于2023年11月完成2500万美元A轮融资,由Archetype领投,Accomplice等多家机构及知名天使投资人参与,展示了市场认可和团队的强大社交能力。创始人NirajPant和AkileshPotti均为前PolychainCapital合伙人,曾主导投资OffchainLabs、EigenLayer等行业巨头,展现出深刻洞见与判断力。团队在密码学、分布式系统、AI等领域经验丰富,顾问阵容包括NEAR和EigenLayer等项目创始人,彰显了其强大的背景与潜力。
设计架构从Infernet到RitualChainRitualChain是从Infernet节点网络自然过渡而来的第二代产品,代表了Ritual在去中心化AI计算网络上的全面升级。
Infernet是Ritual推出的第一阶段产品,于2023年正式上线。这是一个为异构计算任务设计的去中心化预言机网络,旨在解决中心化API的局限性,让开发者能够更加自由、稳定地调用透明且开放的去中心化AI服务。
Infernet采用了灵活简单的轻量化框架,由于其易用性和高效性,在推出后迅速吸引了8,000多个独立节点加入。这些节点具备多样化的硬件能力,包括GPU和FPGA,能够为AI推理和零知识证明生成等复杂任务提供强大的计算能力。然而,为了保持系统的简洁性,Infernet放弃了一些关键功能,例如通过共识协调节点或集成稳健的任务路由机制。这些限制使Infernet难以满足更广泛的Web2和Web3开发者的需求,从而促使Ritual推出了更加全面和强大的RitualChain。
RitualChain工作流程图
RitualChain是专为AI应用设计的下一代Layer1区块链,旨在弥补Infernet的局限性,并为开发者提供更加稳健和高效的开发环境。通过Resonance技术,RitualChain为Infernet网络提供了简洁且可靠的定价和任务路由机制,大幅优化了资源分配效率。此外,RitualChain基于EVM++框架,这是对以太坊虚拟机(EVM)的向后兼容扩展,具备更强大的功能,包括预编译模块、原生调度(scheduling)、内置账户抽象(AccountAbstraction,AA)以及一系列先进的以太坊改进提案(EIPs)。这些特性共同构建了一个功能强大、灵活且高效的开发环境,为开发者提供了全新的可能性。
预编译Sidecars与传统预编译相比,RitualChain的设计提升了系统的扩展性和灵活性,允许开发者以容器化方式创建自定义功能模块,而无需修改底层协议。这种架构不仅显著降低了开发成本,还为去中心化应用提供了更强大的计算能力。
具体来说RitualChain通过模块化架构将复杂计算从执行客户端中解耦,并以独立的Sidecars形式实现。这些预编译模块能够高效处理复杂的计算任务,包括AI推理、零知识证明生成和可信执行环境(TEE)操作等。
原生调度(NativeScheduling)原生调度解决了任务定时触发和条件执行的需求。传统区块链通常依赖中心化的第三方服务(如keeper)来触发任务执行,但这种模式存在中心化风险和高额成本。RitualChain通过内置调度器彻底摆脱了对中心化服务的依赖,开发者可以直接在链上设置智能合约的入口点和回调频率(callbackfrequency)。区块生产者会维护挂起调用的映射表,在生成新区块时优先处理这些任务。结合Resonance的资源动态分配机制,RitualChain能够高效且可靠地处理计算密集型任务,为去中心化AI应用提供了稳定的保障。
技术创新Ritual的核心技术创新确保了其在性能、验证和扩展性上的领先地位,为链上AI应用提供了强大的支持。
1.Resonance:优化资源分配Resonance是一个优化区块链资源分配的双边市场机制,解决异构交易的复杂性。随着区块链交易从简单转账演变为智能合约、AI推理等多样化形式,现有的费用机制(如EIP-1559)难以高效匹配用户需求与节点资源。Resonance通过引入Broker和Auctioneer两个核心角色,实现了用户交易与节点能力之间的最佳匹配:
Broker负责分析用户交易的费用意愿和节点的资源成本函数,以实现交易与节点之间的最佳匹配,提升计算资源的利用率。
Auctioneer通过双边拍卖机制组织交易费用分配,确保公平性和透明性。节点根据自身硬件能力选择交易类型,而用户则可根据优先条件(如速度或成本)提交交易需求。
这一机制显著提高了网络的资源利用效率和用户体验,同时通过去中心化的拍卖流程进一步增强了系统的透明性和开放性。
Resonance机制下:Auctioneer根据Broker的分析,将合适的任务分配给节点
2.Symphony:提升验证效率Symphony则专注于提升验证效率,解决传统区块链“重复执行”模式在处理和验证复杂计算任务时的低效问题。Symphony基于“执行一次,多次验证”(EOVMT)的模型,通过将计算与验证流程分离,大幅减少重复计算带来的性能损耗。
计算任务由指定节点执行一次,计算结果通过网络广播,验证节点利用非交互证明(succinctproofs)确认结果的正确性,而无需重复执行计算。
Symphony支持分布式验证,将复杂任务分解为多个子任务,由不同的验证节点并行处理,从而进一步提升验证效率,并确保隐私保护和安全性。
Symphony对可信执行环境(TEE)和零知识证明(ZKP)等证明系统高度兼容,为快速确认交易和隐私敏感的计算任务提供灵活支持。这一架构不仅显著降低了重复计算带来的性能开销,还确保了验证过程的去中心化和安全性。
Symphony将复杂任务分解为多个子任务,由不同的验证节点并行处理
3.vTune:可追踪的模型验证vTune是Ritual提供的一种用于模型验证和来源追踪的工具,对模型性能几乎没有影响,同时具备良好的抗干扰能力,特别适用于保护开源模型的知识产权并促进公平分发。vTune结合了水印技术和零知识证明,通过嵌入隐蔽的标记实现模型来源追踪和计算完整性保障:
水印技术:通过权重空间水印、数据水印或函数空间水印嵌入标记,即使模型公开,其归属仍可以被验证。特别是函数空间水印能够在无需访问模型权重的情况下,通过模型输出验证归属,从而实现更强的隐私保护和鲁棒性。
零知识证明:在模型微调过程中引入隐蔽数据,用于验证模型是否被篡改,同时保护模型创建者的权益。
这一工具不仅为去中心化AI模型市场提供了可信的来源验证,还显著提升了模型的安全性和生态透明性。
生态发展Ritual目前处于私有测试网阶段,对于普通用户来说参与机会较少;开发者可以申请并参与官方推出的Altar和Realm激励计划,加入Ritual的AI生态建设,获得来自官方的全栈技术支持以及资金支持。
目前官方公布了一批来自Altar计划的原生应用:
Relic:基于机器学习的自动做市商(AMM),通过Ritual的基础设施动态调整流动性池参数,实现费用和底层池的优化;
Anima:专注于基于LLM的链上交易自动化工具,为用户提供流畅自然的Web3交互体验;
Tithe:AI驱动的借贷协议,通过动态优化借贷池和信用评分,支持更广泛的资产类型。
此外,Ritual还与多个成熟项目展开了深度合作,推动去中心化AI生态的发展。例如,与Arweave的合作为模型、数据和零知识证明提供了去中心化的永久存储支持;通过与StarkWare和Arbitrum的集成,Ritual为这些生态系统引入了原生的链上AI能力;此外,EigenLayer提供的再质押机制为Ritual的证明市场增加了主动验证服务,进一步增强了网络的去中心化和安全性。
挑战和展望Ritual的设计从分配、激励、验证等关键环节入手,解决了去中心化AI面临的核心问题,同时通过vTune等工具实现了模型的可验证性,突破了模型开源与激励的矛盾,为去中心化模型市场的构建提供了技术支撑。
当下Ritual处于早期阶段,主要针对模型的推理阶段,产品矩阵正在从基础设施扩展至模型市场、L2即服务(L2aaS)以及Agent框架等领域。由于当下区块链仍处于私有测试阶段,Ritual提出的先进的技术设计方案仍有待大规模公开落地,需要持续关注。期待随着技术的不断完善和生态的逐步丰富,Ritual能够成为去中心化AI基础设施的重要组成部分。
Gensyn:解决去中心化模型训练的核心问题项目概述在人工智能加速演进、算力资源愈发稀缺的时代背景下,Gensyn正试图重塑整个AI模型训练的底层范式。
传统AI模型训练流程,算力几乎被垄断在少数几家云计算巨头手中,训练成本高昂、透明度低,阻碍了中小团队与独立研究者的创新步伐。而Gensyn的愿景正是打破这一“中心化垄断”结构,它主张将训练任务“下沉”至全球范围内无数个具备基本计算能力的设备上——无论是MacBook、游戏级GPU,还是边缘设备、闲置服务器,都可接入网络、参与任务执行、获取报酬。
Gensyn成立于2020年,专注于构建去中心化AI计算基础设施。早在2022年,团队便首次提出了意图在技术和制度层面重新定义AI模型的训练方式:不再依赖封闭的云平台或巨型服务器集群,而是将训练任务下沉至全球范围内的异构计算节点之中,构建一个无需信任的智能计算网络。
2023年,Gensyn对其愿景进行了进一步拓展:构建一个全球连接、开源自治、无许可门槛的AI网络——任何具备基本计算能力的设备,都可成为这个网络中的一份子。其底层协议基于区块链架构设计,不仅具备激励机制与验证机制的可组合性。
Gensyn自创立以来,累计获得5060万美元支持,投资方涵盖a16z、CoinFund、Canonical、
ProtocolLabs、DistributedGlobal等共计17家机构。其中,2023年6月由a16z领投的A轮融资被广泛关注,标志着去中心化AI领域开始进入主流Web3风投的视野。
团队核心成员背景也颇具分量:联合创始人BenFielding曾在牛津大学攻读理论计算机科学,具备深厚的技术研究背景;另一位联合创始人HarryGrieve则长期参与去中心化协议的系统设计与经济建模,为Gensyn的架构设计与激励机制提供了坚实支撑。
设计架构当前去中心化人工智能系统的发展正面临三大核心技术瓶颈:执行(Execution)、验证(Verification)与通信(Communication)。这些瓶颈不仅限制了大模型训练能力的释放,也制约了全球算力资源的公平整合与高效利用。Gensyn团队在系统性研究基础上,提出了三项具有代表性的创新机制——RLSwarm、Verde以及SkipPipe,针对上述问题分别构建了解决路径,推动了去中心化AI基础设施从概念走向落地。
一、执行挑战:如何让碎片化设备协同高效训练大模型?当前,大语言模型的性能提升主要依赖于“堆规模”策略:更大的参数量、更广的数据集以及更长的训练周期。但这也显著推高了计算成本——超大模型的训练往往需要被拆分至成千上万个GPU节点,这些节点之间还需进行高频的数据通信与梯度同步。在去中心化场景下,节点分布地域广泛、硬件异构、状态波动性高,传统的中心化调度策略难以奏效。
为应对这一挑战,Gensyn提出RLSwarm,一种点对点的强化学习后训练系统。其核心思路是将训练过程转化为一个分布式协作博弈。该机制分为“共享—批判—决策”三阶段:首先,节点独立完成问题推理并公开共享结果;随后,各节点对同伴答案进行评价,从逻辑性与策略合理性等角度提出反馈;最后,节点基于群体意见修正自身输出,生成更稳健的答案。该机制有效融合个体计算与群体协同,尤其适用于数学与逻辑推理等需要高精度和可验证性的任务。实验显示,RLSwarm不仅提升了效率,也显著降低了参与门槛,具备良好的扩展性和容错性。
RLSwarm的“共享—批判—决策”三阶段强化学习训练系统
二、验证挑战:如何验证不可信供应者的计算结果是否正确?在去中心化训练网络中,“任何人都可提供算力”是优势也是风险。问题在于:如何在无需信任的前提下验证这些计算是否真实有效?
传统方式如重计算或白名单审核存在明显局限——前者成本极高,不具可扩展性;后者又排除了“长尾”节点,损害网络开放性。Gensyn为此设计了Verde,一套专为神经网络训练验证场景构建的轻量级仲裁协议。
Verde的关键思想是“最小可信裁定”:当验证者怀疑供应者训练结果有误时,仲裁合约只需重算计算图中首个存在争议的操作节点,而无需重演整个训练过程。这大幅度降低了验证负担,同时确保了至少一方诚实时的结果正确性。为解决不同硬件间浮点非确定性问题,Verde还配套开发了ReproducibleOperators(可复现操作符库),强制对常见数学操作如矩阵乘法设置统一执行顺序,从而实现跨设备的位级一致输出。这一技术显著提升了分布式训练的安全性与工程可行性,是目前去信任验证体系中的重要突破。
Vader的工作流程
整个机制建立在训练者记录关键中间状态(即检查点)的基础上,多个验证者被随机指派去复现这些训练步骤,从而判断输出的一致性。一旦有验证者复算结果与训练者存在分歧,系统不会粗暴地重跑整个模型,而是通过网络仲裁机制精确定位二者在计算图中首次发生分歧的操作,仅对该操作进行重放比对,从而以极低的开销实现争议裁决。通过这种方式,Verde在无需信任训练节点的前提下,既保证了训练过程的完整性,又兼顾了效率与可扩展性,是为分布式AI训练环境量身定制的验证框架。
三、通信挑战:如何减少节点间高频同步带来的网络瓶颈?在传统的分布式训练中,模型要么被完整复制,要么被按层拆分(流水线并行),二者都要求节点间进行高频同步。特别是在流水线并行中,一个微批次必须严格按顺序经过每一层模型,导致只要某个节点延迟,就会阻塞整个训练流程。
Gensyn针对这一问题提出SkipPipe:一种支持跳跃执行与动态路径调度的高容错流水线训练系统。SkipPipe引入了“跳跃比例(skipratio)”机制,允许某些微批数据在特定节点负载过高时跳过部分模型层,同时使用调度算法动态选择当前最优计算路径。实验显示,在地理分布广、硬件差异大、带宽受限的网络环境下,SkipPipe训练时间可降低高达55%,并在高达50%节点故障率时仍能维持仅7%的损失,展现出极强的韧性和适应性。
参与方式Gensyn的公共测试网已于2025年3月31日上线,目前仍处于其技术路线图中的初期阶段(Phase0),其功能重心集中在RLSwarm的部署与验证上。RLSwarm是Gensyn的第一个应用场景,围绕强化学习模型的协作训练进行设计。每一个参与节点都将其行为绑定至链上身份,贡献过程被完整记录,这为后续激励分配和可信计算模型提供了验证基础。
Gensyn的节点排名
早期测试阶段的硬件门槛相对友好:Mac用户使用M系列芯片即可运行,Windows用户则建议配备3090或4090等高性能GPU,以及16GB以上内存,即可部署本地Swarm节点。
系统运行后通过网页登录邮箱(推荐Gmail)完成验证流程,并可选择是否绑定HuggingFace的AccessToken,以激活更完整的模型能力。
挑战和展望目前Gensyn项目最大的不确定性,在于其测试网尚未涵盖所承诺的完整技术栈。Verde与SkipPipe等关键模块仍处于待集成状态,这也使外界对其架构落地能力保持观望。官方给出的解释是:测试网将分阶段推进,每一阶段解锁新的协议能力,优先验证基础设施的稳定性与扩展性。首阶段以RLSwarm为起点,未来将逐步拓展至预训练、推理等核心场景,最终过渡至支持真实经济交易的主网部署。
尽管测试网启动之初采用了相对保守的推进节奏,但值得关注的是,仅一个月后,Gensyn即推出了支持更大规模模型与复杂数学任务的新Swarm测试任务。此举在一定程度上回应了外界对其开发节奏的质疑,也展现出团队在局部模块推进上的执行效率。
然而,问题也随之而来:新版任务对硬件提出了极高门槛,推荐配置包括A100、H100等顶级GPU(80GB显存),这对于中小节点而言几乎不可达,也与Gensyn所强调的“开放接入、去中心化训练”的初衷形成一定张力。算力的集中化趋势,若未得到有效引导,或将影响网络的公平性和去中心化治理的可持续性。
接下来,若Verde与SkipPipe能顺利集成,将有助于提升协议的完整性与协同效率。但Gensyn能否在性能和去中心化之间找到真正的平衡,仍有待测试网更长时间、更广范围的实践检验。眼下,它已初步显现出潜力,也暴露出挑战,而这正是一个早期基础设施项目最真实的状态。
Bittensor:去中心化AI网络的创新与发展项目概述Bittensor是一个结合区块链与人工智能的开创性项目,由JacobSteeves和AlaShaabana于2019年创立,旨在构建"机器智能的市场经济"。两位创始人均具备人工智能和分布式系统的深厚背景。项目白皮书的署名作者YumaRao被认为是团队核心技术顾问,为项目注入了密码学与共识算法方面的专业视角。
该项目旨在通过区块链协议整合全球算力资源,构建一个不断自我优化的分布式神经网络生态系统。这一愿景将计算、数据、存储和模型等数字资产转化为智能价值流,构建全新经济形态,确保AI发展红利的公平分配。有别于OpenAI等中心化平台,Bittensor建立了三大核心价值支柱:
打破数据孤岛:利用TAO代币激励体系促进知识共享与模型贡献
市场驱动的质量评价:引入博弈论机制筛选优质AI模型,实现优胜劣汰
网络效应放大器:参与者增长与网络价值呈指数级正相关,形成良性循环
在投资布局方面,PolychainCapital自2019年起孵化Bittensor,目前持有价值约2亿美元的TAO代币;Dao5持有约价值5000万美元的TAO,也是Bittensor生态系统的早期支持者。2024年,PanteraCapital和CollabCurrency通过战略投资进一步加码。同年8月,灰度集团将TAO纳入其去中心化AI基金,标志着机构投资者对项目价值的高度认可和长期看好。
设计架构与运行机制网络架构Bittensor构建了一个由四个协同层级组成的精密网络架构:
区块链层:基于Substrate框架搭建,作为网络的信任基础,负责记录状态变化与代币发行。系统每12秒生成新区块并按规则发行TAO代币,确保网络共识与激励分配。
神经元层(Neuron):作为网络的计算节点,神经元运行各类AI模型提供智能服务。每个节点通过精心设计的配置文件明确声明其服务类型与接口规范,实现功能模块化和即插即用。
突触层(Synapse):网络的通信桥梁,动态优化节点间连接权重,形成类神经网络结构,保障信息高效传递。突触还内置经济模型,神经元间的互动与服务调用需支付TAO代币,形成价值流转闭环。
元图层(Metagraph):作为系统的全局知识图谱,持续监测与评估各节点的贡献价值,为整个网络提供智能导向。元图通过精确计算确定突触权重,进而影响资源分配、奖励机制以及节点在网络中的影响力。
Bittensor的网络框架
Yuma共识机制网络采用独特的Yuma共识算法,每72分钟完成一轮奖励分配。验证过程结合主观评价与客观度量:
人工评分:验证者对矿工输出质量进行主观评价
Fisher信息矩阵:客观量化节点对网络整体贡献
这种"主观+客观"的混合机制,有效平衡了专业判断与算法公正。
子网(Subnet)架构和dTAO升级每个子网专注于特定AI服务领域,如文本生成、图像识别等,独立运行但与主区块链subtensor保持连接,形成高度灵活的模块化扩展架构。2025年2月,Bittensor完成了具有里程碑意义的dTAO(DynamicTAO)升级,这一系统将每个子网转变为独立经济单元,通过市场需求信号智能调控资源分配。其核心创新是子网代币(Alpha代币)机制:
运作原理:参与者通过质押TAO获取各子网发行的Alpha代币,这些代币代表了对特定子网服务的市场认可与支持力度
资源分配逻辑:Alpha代币的市场价格作为衡量子网需求强度的关键指标,初始状态下各子网Alpha代币价格一致,每个流动性池内仅有1个TAO和1个Alpha代币。随着交易活跃度提升和流动性注入,Alpha代币价格动态调整,TAO的分配按子网代币价格占比智能分配,市场热度高的子网获得更多资源倾斜,实现真正的需求驱动型资源优化配置
Bittensor子网代币排放分配
dTAO升级显著提升了生态活力与资源利用效率,子网代币市场总市值已达5亿美元,展现出强劲的增长动能。
Bittensor子网alpha代币价值
生态进展与应用案例主网发展历程Bittensor网络经历了三个关键发展阶段:
2021年1月:主网正式启动,奠定基础架构
2023年10月:"Revolution"升级引入子网架构,实现功能模块化
2025年2月:完成dTAO升级,建立市场驱动的资源分配机制
子网生态呈爆发式增长:截至2025年4月,已有95个专业子网,预计年内可能突破200个。
Bittensor子网数量
生态项目类型多元化,覆盖AI代理(如Tatsu)、预测市场(如Bettensor)、DeFi协议(如TaoFi)等多个前沿领域,构成了AI与金融深度融合的创新生态。
代表性子网生态项目TAOCAT:TAOCAT是Bittensor生态中的原生AI代理,直接构建在子网上,为用户提供数据驱动的决策工具。利用Subnet19的大语言模型、Subnet42的实时数据以及Subnet59的AgentArena,提供市场洞察和决策支持。获得DWFLabs投资,纳入其2000万美元AI代理基金,并在binancealpha上线。
OpenKaito:由Kaito团队在Bittensor上推出的子网,旨在构建去中心化的加密行业搜索引擎。目前已索引5亿网页资源,展示了去中心化AI处理海量数据的强大能力。与传统搜索引擎相比,其核心优势在于减少商业利益干扰,提供更透明、中立的数据处理服务,为Web3时代信息获取提供新范式。
TensorplexDojo:由TensorplexLabs开发的52号子网,专注于通过去中心化平台众包高质量人类生成数据集,鼓励用户通过数据标注赚取TAO代币。2025年3月,YZiLabs(原BinanceLabs)宣布投资TensorplexLabs,支持Dojo和BackpropFinance的发展。
CreatorBid:运行在Subnet6,是一个结合AI和区块链的创作平台,与Olas和其他GPU网络(如io.net)集成,支持内容创作者和AI模型开发。
技术与行业合作Bittensor在跨领域合作方面取得了突破性进展:
与HuggingFace建立深度模型集成通道,实现50个主流AI模型的链上无缝部署
2024年携手高性能AI芯片制造商Cerebras联合发布BTLM-3B模型,累计下载量突破16万次
2025年3月与DeFi巨头Aave达成战略合作,共同探索rsTAO作为优质借贷抵押品的应用场景
参与方式Bittensor设计了多元化的生态参与路径,形成完整的价值创造与分配体系:
挖矿:部署矿工节点生产高质量数字商品(如AI模型服务),根据贡献质量获取TAO奖励
验证:运行验证者节点评估矿工工作成果,维护网络质量标准,获取相应TAO激励
质押:持有并质押TAO支持优质验证者节点,根据验证者表现获取被动收益
开发:利用BittensorSDK和CLI工具构建创新应用、实用工具或全新子网,积极参与生态建设
使用服务:通过友好的客户端应用界面使用网络提供的AI服务,如文本生成或图像识别
交易:参与子网资产化代币的市场交易,捕捉潜在价值增长机会
子网alpha代币给参与者的分配
挑战和展望Bittensor尽管展现出卓越潜力,但作为前沿技术探索,仍面临多维度挑战。在技术层面,分布式AI网络面临的安全威胁(如模型窃取与对抗攻击)比中心化系统更为复杂,需持续优化隐私计算与安全防护方案;经济模型方面,早期存在通胀压力,子网代币市场波动性较高,需警惕可能的投机泡沫;监管环境上,虽然SEC已将TAO归类为效用型代币,但全球各地区监管框架差异仍可能限制生态扩张;同时,面对资源雄厚的中心化AI平台激烈竞争,去中心化解决方案需在用户体验和成本效益方面证明其长期竞争优势。
随着2025年减半周期临近,Bittensor发展将聚焦四大战略方向:进一步深化子网专业化分工,提升垂直领域应用的服务质量与性能;加速与DeFi生态的深度整合,借助新引入的EVM兼容性拓展智能合约应用边界;通过dTAO机制在未来100天内平稳将网络治理权重从TAO逐步转向Alpha代币,推动治理去中心化进程;同时积极拓展与其他主流公链的互操作性,扩大生态边界与应用场景。这些协同发展的战略举措将共同推动Bittensor向"机器智能市场经济"的宏伟愿景稳步迈进。
0G:以存储为基础的模块化AI生态系统项目概述0G是一个专为AI应用设计的模块化Layer1公链,旨在为数据密集型和高计算需求场景提供高效、可靠的去中心化基础设施。通过模块化架构,0G实现了共识、存储、计算和数据可用性等核心功能的独立优化,支持动态扩展,能够高效处理大规模AI推理和训练任务。
创始团队由MichaelHeinrich(CEO,曾创立融资超1亿美元的Garten)、MingWu(CTO,微软研究员,Conflux联合创始人)、FanLong(Conflux联合创始人)和ThomasYao(CBO,Web3投资者)组成,拥有8名计算机科学博士,成员背景涵盖微软、苹果等,具备深厚的区块链和AI技术经验。
融资方面,0GLabs完成3500万美元Pre-seed轮和4000万美元Seed轮,总计7500万美元,投资方包括HackVC、DelphiVentures和AnimocaBrands等。此外,0GFoundation获得2.5亿美元代币购买承诺、3060万美元公开节点销售和8888万美元生态基金。
设计架构0GChain0GChain的目标是打造最快的模块化AI公链,其模块化架构支持对共识、执行和存储等关键组件进行独立优化,并集成了数据可用性网络、分布式存储网络和AI计算网络。这种设计为系统在应对复杂的AI应用场景时提供了卓越的性能和灵活性。以下是0GChain的三大核心特色:
模块化可扩展性(ModularScalabilityforAI)0G采用横向可扩展的架构,能够高效处理大规模的数据工作流。其模块化设计将数据可用性层(DA层)与数据存储层分离,为AI任务(如大规模训练或推理)的数据访问和存储提供了更高的性能和效率。
0G共识(0GConsensus)0G的共识机制由多个独立的共识网络组成,这些网络可以根据需求动态扩展。随着数据量的指数级增长,系统吞吐量也能同步提升,支持从1个到数百甚至上千个网络的扩展。这种分布式架构不仅提升性能,还能确保系统的灵活性和可靠性。
共享质押(SharedStaking)验证者需在以太坊主网上质押资金,为所有参与的0G共识网络提供安全保障。如果任意0G网络发生可罚事件,验证者在以太坊主网上的质押资金将被削减。这一机制将以太坊主网的安全性扩展至所有0G共识网络,确保整个系统的安全性和稳健性。
0GChain具备EVM兼容性,确保以太坊、Layer2Rollup或其他链的开发者可以轻松集成0G的服务(如数据可用性和存储),无需迁移。同时0G还在探索支持SolanaVM、NearVM和比特币兼容性,以便AI应用扩展至更广泛的用户群体。
0G存储(0GStorage)0GStorage是一个高度优化的分布式存储系统,专为去中心化应用和数据密集型场景设计。其核心通过一种独特的共识机制——随机访问证明(ProofofRandomAccess,PoRA),激励矿工存储和管理数据,从而实现安全性、性能和公平性的平衡。
其架构可以分为三层:
日志层(LogLayer):实现非结构化数据的永久存储,适用于归档或数据日志等用途。
键值存储层(Key-ValueLayer):管理可变的结构化数据,并支持权限控制,适合动态应用场景。
事务处理层(TransactionLayer):支持多用户的并发写入,提升协作和数据处理效率。
随机访问证明(ProofofRandomAccess,PoRA)是0GStorage的关键机制,用于验证矿工是否正确存储了指定的数据块。矿工会周期性地接受挑战,需提供有效的加密哈希作为证明,类似于工作量证明。为确保公平竞争,0G对每次挖矿操作的数据范围限制为8TB,避免大规模运营商垄断资源,小规模矿工也能在公平环境中参与竞争。
随机访问证明示意图
通过纠删编码技术,0GStorage将数据分割成多个冗余的小片段,并分布到不同的存储节点上。这种设计确保即使部分节点下线或发生故障,数据仍然可以被完整恢复,不仅显著提升了数据的可用性和安全性,还使系统在处理大规模数据时表现出色。此外,数据存储通过扇区级和数据块级的精细化管理,不仅优化了数据访问效率,还增强了矿工在存储网络中的竞争力。
提交的数据以顺序方式组织,这种顺序被称为数据流(dataflow),可以被理解为日志条目列表或固定大小数据扇区的序列。在0G中,每一块数据都可以通过一个通用的偏移量(offset)快速定位,从而实现高效的数据检索和挑战查询。默认情况下,0G提供一个称为主数据流(mainflow)的通用数据流,用于处理大部分应用场景。同时,系统还支持专用数据流(specializedflows),这些数据流专门接受特定类别的日志条目,并提供独立的连续地址空间,针对不同的应用需求进行优化。
通过以上设计,0GStorage能够灵活适配多样化的使用场景,同时保持高效的性能和管理能力,为需要处理大规模数据流的AIxWeb3应用提供强大的存储支持。
0G数据可用性(0GDA)
数据可用性(DataAvailability,DA)是0G的核心组件之一,旨在提供可访问、可验证且可检索的数据。这一功能是去中心化AI基础设施的关键,例如验证训练或推理任务的结果,以满足用户需求并确保系统激励机制的可靠性。0GDA通过精心设计的架构和验证机制,实现了出色的可扩展性和安全性。
0GDA的设计目标是在保证安全性的同时提供极高的扩展性能。其工作流程主要分为两个部分:
数据存储通道(DataStorageLane):数据通过纠删编码技术被分割成多个小片段(“数据块”),并分布到0GStorage网络中的存储节点上。这种机制有效支持了大规模的数据传输,同时确保数据的冗余性与可恢复性。
数据发布通道(DataPublishingLane):数据的可用性由DA节点通过聚合签名进行验证,并将结果提交到共识网络。通过这种设计,数据发布仅需要处理少量关键数据流,避免了传统广播方式中的瓶颈问题,从而显著提升了效率。
为了确保数据的安全性和高效性,0GDA使用了一种基于随机性的验证方法,结合聚合签名机制,形成了完整的验证流程:
随机构建法定小组:通过可验证随机函数(VerifiableRandomFunction,VRF),共识系统从验证者集合中随机选出一组DA节点构成法定小组(quorum)。这种随机选择方法理论上保证了法定小组的诚实性分布与整个验证者集合一致,因此数据可用性客户端无法与法定小组串通。
聚合签名验证:法定小组对存储的数据块进行抽样验证,并生成聚合签名,将可用性证明提交到0G的共识网络。这种聚合签名方式极大提升了验证效率,其性能比传统以太坊快几个数量级。
0G的验证流程
通过以上机制,0GDA提供了一种高效、扩展性强且安全性有保障的数据可用性解决方案,为去中心化AI应用提供了坚实的基础支持。
0G算力(0GCompute)0G计算网络是一个去中心化框架,旨在为社区提供强大的AI计算能力。通过智能合约,算力提供商可以注册他们提供的AI服务类型(例如模型推理),并为服务设定价格。用户发送AI推理请求后,服务提供商会根据用户余额的充足性决定是否响应,从而实现高效的算力分配。
为了进一步优化交易成本和网络效率,服务提供商能够批量处理多个用户请求。这种方式有效减少了链上结算的次数,降低了频繁交易带来的资源消耗。同时,0G计算网络采用了零知识证明(ZK-Proofs)技术,通过链下计算和链上验证,大幅压缩交易数据,降低链上结算成本。结合0G的存储模块,其可扩展的链下数据管理机制能够显著减少存储请求追踪数据键的链上成本,同时提升存储和检索的效率。
目前,0G的去中心化AI网络主要提供AI推理服务,并已在效率与成本优化方面展现出优势。未来,0G计划进一步扩展其能力,实现从推理到训练等更多AI任务的全面去中心化,为用户提供更加完善的解决方案。
生态发展0G的测试网目前已从Newtonv2升级到Galileov3,根据官网数据,具有8000多个验证者。存储网络上有1591个活跃矿工,目前已处理了43万多个上传文件,提供了总计450.72G的存储空间。
0G项目在去中心化AI领域的影响力也随着合作企业的增加和深入不断扩大,根据官方数据,目前已完成450多次集成,涵盖AI算力、数据、模型、框架、infra、DePin等全面领域。
0G生态图
同时,0G基金会还推出了价值8888万美元生态基金,用于支持AI相关项目的开发,已涌现出以下一批原生应用:
zer0:AI驱动的DeFi流动性解决方案,提供链上流动性优化服务
H1uman:去中心化的AIAgent工厂,创建可扩展的AI集成工作流
LeeaLabs:多AIAgent的基础设施,支持安全的多Agent系统部署
Newmoney.AI:智能DeFi的代理钱包,自动化管理投资和交易
Unagi:AI驱动的链上娱乐平台,融合动漫和游戏的Web3体验
Rivalz:可验证的AI预言机,为智能合约提供可信的AI数据访问
AvinasiLabs:专注于长寿研究的AI项目
参与方式普通用户目前可以通过以下方式参与0G生态:
参与0G测试网交互:0G已推出TestnetV3(Galileov3),用户可通过访问官方测试网页面(0GTestnetGuide)领取测试代币,并在0G链上的DApps上进行交互体验。
参与Kaito活动:0G现已加入Kaito平台的内容创作活动,用户可通过创作并分享与0G相关的优质内容(如技术分析、生态进展或AI应用案例)参与互动,赢取奖励,
挑战和展望0G在存储领域展现了深厚的技术实力,为去中心化存储提供了一套完整的模块化解决方案,具备出色的可拓展性和经济性(存储成本低至10-11美元/TB)。同时,0G通过数据可用性层(DA)解决了数据的可验证性问题,为未来的大规模AI推理和训练任务奠定了坚实基础。这一设计为去中心化AI在数据存储层提供了强有力的支撑,并为开发者创造了优化的存储和检索体验。
在性能层面,0G预计主网TPS将提升至3,000到10,000的范围,性能较此前实现了10倍增长,确保网络能够满足AI推理和高频交易等任务伴随的高强度的计算需求。然而,在算力市场和模型方面,0G仍需要长足的建设。目前,0G的算力业务还局限于AI推理服务,在模型训练任务的支持上,还需要更多的定制化设计和技术创新。作为AI发展的核心组成,模型和算力不仅是推动产品升级和大规模应用的关键,也是0G实现其成为最大AILayer1生态系统目标的必经之路。
总结当前现状:多元切入,面临挑战回顾以上的六个AILayer1项目,它们各自选择了不同的切入点,围绕AI资产、算力、模型、存储等核心要素,探索去中心化AI基础设施与生态构建的路径:
Sentient:聚焦去中心化模型的研发,推出Dobby系列模型,强调模型的可信、对齐与忠诚,底层链开发方面仍在持续推进阶段,将实现模型与链的深度融合。
SaharaAI:以AI资产所有权保护为核心,首阶段着力于数据的确权与流通,致力于为AI生态提供可信的数据基础。
Ritual:围绕去中心化算力在推理方面的高效落地方案,强化区块链本身的功能,提升系统的灵活性和可扩展性,助力AI原生应用发展。
Gensyn:致力于解决去中心化模型训练难题,通过技术创新降低大规模分布式训练的成本,为AI算力共享与民主化提供可行路径。
Bittensor:较为成熟的子网平台,通过代币激励和去中心化治理,率先构建起丰富的开发者和应用生态,是去中心化AI的早期典范。
0G:以去中心化存储为切入点,聚焦AI生态中数据存储与管理难题,逐步拓展到更全面的AI基础设施和应用服务。
项目对比和总结
总体来看,这些项目既有技术路线的差异,也有生态战略的互补,共同推动着链上去中心化AI生态的多元化发展。但不可否认的是,整个赛道仍处于早期探索阶段。虽然许多前瞻性的愿景和蓝图被提出,但实际开发进度和生态体系建设仍需要时间沉淀,许多关键基础设施和创新型应用也有待落地。
如何吸引和激励更多的算力、存储等基础节点加入网络,是当下亟需突破的核心问题。正如比特币网络经历了长达十几年的发展,才逐步获得主流市场的认可,去中心化AI网络也需要持续扩展节点规模,才能满足海量AI任务对算力的巨大需求。也只有当网络中的算力、存储等资源达到一定的丰富度,才能有效降低使用成本,并推动算力的普惠化,最终实现去中心化AI的宏伟愿景。
此外,链上AI应用在创新性方面依然存在不足。目前不少产品仍以Web2模式为蓝本进行简单迁移,缺乏与区块链原生机制深度融合的创新设计,未能充分展现去中心化AI的独特优势。这些现实挑战提醒我们,行业的持续发展不仅需要技术层面的突破,更离不开用户体验的提升和整个生态系统的不断完善。
持续发展:AILayer1和DeAI优质项目不断涌现除了以上我们深入介绍的项目外,在时代的大趋势下,还有不少新的AILayer1和DeAI值得我们关注。(由于篇幅限制,这里先进行精要介绍,可以关注我们持续跟踪更多AI赛道的投研内容)
KiteAI
KiteAI基于其核心共识机制“ProofofAttributedIntelligence”(PoAI),构建了一条EVM兼容的Layer1区块链,致力于打造一个公平的AI生态系统,旨在确保数据提供者、模型开发者以及AIAgent创作者在AI价值创造中的贡献能够被透明记录并获得公正回报,从而打破由少数科技巨头垄断的AI资源格局。目前KiteAI将发展重点聚焦在C端应用层,并通过子网架构和交易市场等形式,保障AI资产的开发、确权和变现。
Story
围绕开放知识产权(IP)打造的AILayer1,为创作者和开发者提供一套全流程工具,帮助他们在链上注册、追踪、授权、管理和变现各种内容IP,无论是视频、音频、文本还是AI作品。Story允许用户将原创内容铸造成NFT,并内置灵活授权和分润机制,让用户可以进行二次创作和商业合作,同时确保所有权和收益分配透明可查。
Vana
Vana是专为“用户数据变现与AI训练”构建的新一代数据底层AILayer1。它跳出了大公司垄断数据的限制,让个人能真正拥有、管理并分享自己的数据。用户可通过“数据DAO”(用户共管、分享并获益于AI训练数据的去中心化自治组织),在保留数据所有权的前提下,将社交、健康、消费等数据汇集后用于AI训练,并参与分红。此外,Vana在设计上重视隐私与安全,采用隐私计算和加密验证技术保护用户的数据安全。
Nillion
Nillion是一个专注于数据隐私和安全计算的“盲计算网络”,为开发者和企业提供了一套隐私增强技术(如多方安全计算MPC、同态加密、零知识证明等),可实现在不解密原始数据的前提下进行数据的存储、共享和复杂计算。这让诸如AI、去中心化金融(DeFi)、医疗、个性化应用等场景能够更安全地处理高价值和敏感信息,而不必担心数据泄露风险。目前,Nillion生态已经支持包括AI隐私计算、个性化智能体、私有知识库等众多创新应用,吸引了Virtuals、NEAR、Aptos、Arbitrum等合作伙伴。
MiraNetwork
MiraNetwork是一个专为AI输出做”去中心化验证”的创新网络,旨在为自主AI打造可信赖的验证层。Mira的核心创新采用集成评估技术在后台同时运行多个不同的语言模型,将AI生成的结果细分为具体断言后交由分布式模型节点独立验证,只有当绝大多数模型达成共识并认定内容为”事实”时才输出给用户。通过这种多模型共识机制,Mira将单一模型25%的幻觉率显著降低至仅3%,相当于错误率降低90%以上。Mira摒弃了对中心化大机构或单一大模型的依赖,采用分布式节点和经济激励机制,成为众多Web2和Web3AI应用的可验证基础设施层,真正实现从AI副驾驶,向具备自主决策能力且可信任的AI系统跃迁。
PrimeIntellect
PrimeIntellect是一个聚焦在去中心化AI训练和算力基础设施的平台,致力于整合全球计算资源,推动开源AI模型的协同训练。其核心架构包括点对点的算力租赁市场和开放的训练协议,允许任何人将闲置硬件贡献到网络,用于大模型训练与推理,从而缓解了传统AI高度集中、门槛高且资源浪费的问题。同时,PrimeIntellect开发了开源分布式训练框架(如OpenDiLoco),支持数十亿参数大模型的跨地域高效训练,并在算法创新与特殊赛道深耕,比如基于元基因组的METAGENE-1模型和面向数学推理的INTELLECT-MATH项目。2025年,PrimeIntellect还推出了SYNTHETIC-1计划,利用众包与强化学习,打造全球最大开源推理与数学代码验证数据集。
未来展望:开放与共赢的去中心化AI尽管挑战重重,链上去中心化AI依然拥有广阔的发展前景和变革潜力。随着底层技术逐步成熟、各项目持续兑现承诺,去中心化AI的独特优势有望日益凸显,AILayer1们将有望实现以下愿景:
算力、数据和模型的民主化共享,打破技术寡头垄断,让全球个体、企业和组织都能无门槛参与AI创新。
AI资产的确权流通与可信治理,推动数据、模型等核心资产在链上自由流通和交易,保障所有者的收益,形成健康的开放生态。
AI输出更可信、可追溯、可对齐,为AI的安全、可控发展提供坚实支撑,有效降低“AI作恶”的风险。
行业应用的普惠落地,在金融、医疗、教育、内容创作等领域释放AI的巨大价值,让AI以去中心化方式真正造福社会。
随着越来越多的AILayer1项目不断推进,我们期待去中心化AI的目标能够早日实现,也希望有更多开发者、创新者和参与者加入,共同构建一个更加开放、多元和可持续的AI生态。
Biteye
Biteye是亚洲领先的Web3投研平台,致力于打造“最聪明的钱”聚集地,服务于超过30万高质量用户。我们以高密度内容、深度研究和AI驱动的智能分析,持续挖掘Web3世界中真正有价值的机会与信号。
X:@BiteyeCN;TG:t.me/biteyecn