Galaxy万字长文:加密货币和AI交叉领域和项目盘点

前言

公链的出现是计算机科学历史上最深刻的进步之一。但AI的发展将会并且已经在对我们的世界产生深远的影响。如果说区块链技术为交易结算、数据存储和系统设计提供了新的模板,那么人工智能则是计算、分析和内容交付方面的一场革命。这两个行业的创新正在释放新的用例,从而可能在未来几年加速这两个行业的采用。本报告探讨了加密货币和AI的持续集成,重点关注试图弥合两者之间差距、利用两者力量的新颖用例。具体来说,本报告研究了开发去中心化计算协议、零知识机器学习(zkML)基础设施和AI智能体的项目。

加密货币为AI提供了无需许可、无需信任且可组合的结算层。这解锁了用例,例如通过去中心化计算系统使硬件更容易访问,构建可以执行需要价值交换的复杂任务的AI智能体,以及开发身份和溯源(provenance)解决方案来对抗女巫攻击和深度伪造。AI为加密货币带来了许多我们在Web2中看到的相同好处。这包括由于大语言模型(即经过专门训练的ChatGPT和Copilot版本)而为用户和开发人员增强的用户体验(UX)以及潜在的潜力显著提高智能合约功能和自动化。区块链是AI所需的透明的数据丰富环境。但区块链的计算能力也有限,这是直接集成AI模型的主要障碍。

加密货币和Ai交叉领域正在进行的实验和最终采用背后的驱动力与推动加密货币最有前途的用例的驱动力相同——访问无需许可和无需信任的协调层,从而更好地促进价值转移。鉴于巨大的潜力,该领域的参与者需要了解这两种技术交叉的基本方式。

要点:

在不久的将来(6个月到1年),加密货币和AI的集成将由AI应用程序主导,这些应用程序可以提高开发人员的效率、智能合约的可审计性和安全性以及用户的可访问性。这些集成并非特定于加密货币,而是增强了链上开发人员和用户体验。

正如高性能GPU严重短缺一样,去中心化计算产品正在实施AI定制的GPU产品,为采用提供了推动力。

用户体验和监管仍然是吸引去中心化计算客户的障碍。然而, OpenAI的最新发展以及美国正在进行的监管审查凸显了无需许可、抗审查、去中心化的AI网络的价值主张。

链上AI集成,特别是能够使用人工智能模型的智能合约,需要改进zkML技术和其他验证链下计算的计算方法。缺乏全面的工具和开发人员人才以及高昂的成本是采用的障碍。

AI智能体非常适合加密货币,用户(或智能体本身)可以创建钱包以与其他服务、智能体或人员进行交易。目前使用传统的金融方法无法实现这一点。为了更广泛的采用,需要与非加密产品进行额外的集成。

术语

AI是利用计算和机器来模仿人类推理和解决问题的能力。

神经网络是人工智能模型的一种训练方法。他们通过离散的算法层运行输入,对其进行改进,直到产生所需的输出。神经网络由具有权重的方程组成,可以修改权重来改变输出。它们可能需要大量的数据和计算来进行训练,以便其输出准确。这是开发AI模型最常见的方式之一(ChatGPT使用依赖于Transformer神经网络过程)。

训练是开发神经网络和其他人工智能模型的过程。它需要大量数据来训练模型以正确解释输入并产生准确的输出。在训练过程中,模型方程的权重不断修改,直到产生令人满意的输出。培训费用可能非常昂贵。例如,ChatGPT使用数万个自己的GPU来处理数据。资源较少的团队通常依赖专门的计算提供商,例如AmazonWebServices、Azure和GoogleCloud提供商。

推理是实际使用AI模型来获取输出或结果(例如,使用ChatGPT为有关加密货币和AI交叉点的论文创建大纲)。在整个培训过程和最终产品中都会使用推理。由于计算成本的原因,即使在训练完成后,它们的运行成本也可能很高,但其计算强度低于训练。

零知识证明 (ZKP)允许在不泄露基础信息的情况下验证声明。这在加密货币中很有用,主要有两个原因:1)隐私和2)扩展。为了保护隐私,这使用户能够在不泄露敏感信息(例如钱包中有多少ETH)的情况下进行交易。对于扩展而言,它使链下计算能够比重新执行计算更快地在链上得到证明。这使得区块链和应用程序能够廉价地在链下运行计算,然后在链上验证它们。

AI/加密货币生态图

AI和加密货币交叉的项目仍在构建支持大规模链上人工智能交互所需的底层基础设施。

去中心化计算市场正在兴起,以提供训练和推理人工智能模型所需的大量物理硬件,主要以GPU的形式。这些双向市场将那些租赁和寻求租赁计算的人连接起来,促进价值的转移和计算的验证。在去中心化计算中,正在出现几个提供附加功能的子类别。除了双边市场之外,本报告还将审查专门提供可验证训练和微调输出的机器学习训练提供商,以及致力于连接计算和模型生成以实现AI的项目,也经常被称为智能激励网络。

zkML是希望以经济有效且及时的方式在链上提供可验证模型输出的项目的一个新兴重点领域。这些项目主要使应用程序能够处理链下繁重的计算请求,然后在链上发布可验证的输出,证明链下工作负载是完整且准确的。zkML在当前实例中既昂贵又耗时,但越来越多地被用作解决方案。这在zkML提供商和想要利用AI模型的DeFi/游戏应用程序之间的集成数量不断增加中显而易见。

充足的计算供应以及验证链上计算的能力为链上AI智能体打开了大门。智能体是经过训练的模型,能够代表用户执行请求。智能体提供了显著增强链上体验的机会,使用户只需与聊天机器人对话即可执行复杂的交易。然而,就目前而言,智能体项目仍然专注于开发基础设施和工具,以实现轻松快速的部署。

去中心化计算

概述

AI需要大量计算来训练模型和运行推理。在过去的十年中,随着模型变得越来越复杂,计算需求呈指数级增长。例如,OpenAI发现,从2012年到2018年,其模型的计算需求从每两年翻一番变为每三个半月翻一番。这导致对GPU的需求激增,一些加密货币矿工甚至重新利用其GPU来提供云计算服务。随着访问计算的竞争加剧和成本上升,一些项目正在利用加密技术来提供去中心化计算解决方案。他们以具有竞争力的价格提供按需计算,以便团队能够以经济实惠的方式训练和运行模型。在某些情况下,权衡的是性能和安全性。

最先进的GPU(例如Nvidia生产的GPU)的需求量很大。2023年9月,Tether收购了德国比特币矿商NorthernData的股份,据报道,该公司斥资4.2亿美元购买了10,000个H100GPU(用于AI训练的最先进GPU之一)。获得一流硬件的等待时间可能至少为六个月,在许多情况下甚至更长。更糟糕的是,公司经常被要求签署长期合同,以获取他们甚至可能不会使用的计算量。这可能会导致存在可用计算但市场上不可用的情况。去中心化计算系统有助于解决这些市场效率低下的问题,创建一个二级市场,计算所有者可以在接到通知后立即转租其过剩容量,从而释放新的供应。

除了有竞争力的定价和可访问性之外,去中心化计算的关键价值主张是抗审查性。尖端AI开发日益由拥有无与伦比的计算和数据访问能力的大型科技公司主导。AI指数报告2023年年度报告中强调的第一个关键主题是,工业界在AI模型的开发方面日益超越学术界,将控制权集中在少数技术领导者手中。这引发了人们的担忧,即他们是否有能力在制定支撑AI模型的规范和价值观方面产生巨大影响力,特别是在这些科技公司推动监管以限制其无法控制的人工智能开发之后。

去中心化计算垂直领域

近年来出现了几种去中心化计算模型,每种模型都有自己的重点和权衡。

广义计算

Akash、io.net、iExec、Cudos等项目都是去中心化计算应用程序,除了数据和通用计算解决方案之外,它们还提供或即将提供用于AI训练和推理的专用计算的访问权限。

Akash是目前唯一完全开源的“超级云”平台。它是使用CosmosSDK的权益证明网络。AKT是Akash的原生代币,作为一种支付形式,用于保护网络安全并激励参与。Akash于2020年推出了第一个主网,专注于提供无需许可的云计算市场,最初以存储和CPU租赁服务为特色。2023年6月,Akash推出了一个专注于GPU的新测试网,并于9月推出了GPU主网,使用户能够租赁GPU进行人工智能训练和推理。

Akash生态系统中有两个主要参与者——租户和供应商。租户是想要购买Akash网络计算资源的用户。供应商是计算资源供应商。为了匹配租户和供应商,Akash依靠逆向拍卖流程。租户提交他们的计算要求,在其中他们可以指定某些条件,例如服务器的位置或进行计算的硬件类型,以及他们愿意支付的金额。然后,供应商提交他们的要价,最低出价者将获得任务。

Akash验证者维护网络的完整性。验证者集目前限制为100个,并计划随着时间的推移逐步增加。任何人都可以通过质押比当前质押AKT数量最少的验证者更多的AKT来成为验证者。AKT持有者还可以将其AKT委托给验证者。网络的交易费用和区块奖励以AKT形式分配。此外,对于每笔租赁,Akash网络都会按照社区确定的费率赚取“收取费用”,并将其分配给AKT持有者。

二级市场

去中心化计算市场旨在填补现有计算市场的低效率。供应限制导致公司囤积超出其可能需要的计算资源,并且由于与云提供商的合同结构将客户锁定在长期合同中,即使可能不需要持续访问,供应也进一步受到限制。去中心化计算平台释放了新的供应,使世界上任何拥有计算需求的人都可以成为供应商。

AI训练对GPU的需求激增是否会转化为Akash上的长期网络使用还有待观察。例如,Akash长期以来一直为CPU提供市场,以70-80%的折扣提供与中心化替代品类似的服务。然而,较低的价格并没有带来显著的采用。网络上的活跃租约已经趋于平缓,到2023年第二季度,平均只有33%的计算、16%的内存和13%的存储。虽然这些都是链上采用的令人印象深刻的指标(作为参考,领先的存储提供商Filecoin已经2023年第三季度存储利用率为12.6%),这表明这些产品的供应继续超过需求。

Akash推出GPU网络已经过去半年多了,现在准确评估长期采用率还为时过早。迄今为止,GPU的平均利用率为44%,高于CPU、内存和存储,这是需求的一个迹象。这主要是由对最高质量GPU(如A100)的需求推动的,超过90%已出租。

Akash的每日支出也有所增加,相对于GPU出现之前几乎翻了一番。这部分归因于其他服务使用量的增加,尤其是CPU,但主要是新GPU使用量的结果。

定价与LambdaCloud和Vast.ai等中心化竞争对手相当(或者在某些情况下甚至更贵)。对最高端GPU(例如H100和A100)的巨大需求意味着该设备的大多数所有者对在面临竞争性定价的市场上市兴趣不大。

虽然最初的兴趣很有希望,但采用仍然存在障碍(下面进一步讨论)。去中心化计算网络需要采取更多措施来产生需求和供应,团队正在尝试如何最好地吸引新用户。例如,2024年初,Akash通过了第240号提案,增加GPU供应商的AKT排放量并激励更多供应,特别针对高端GPU。团队还致力于推出概念验证模型,向潜在用户展示其网络的实时功能。Akash正在训练他们自己的基础模型,并且已经推出了聊天机器人和图像生成产品,可以使用AkashGPU创建输出。同样,io.net开发了stablediffusion模型,并正在推出新的网络功能,更好地模仿传统GPU数据中心的性能和规模。

去中心化机器学习训练

除了能够满足AI需求的通用计算平台外,一组专注于机器学习模型训练的专业AIGPU供应商也正在兴起。例如,Gensyn正在“协调电力和硬件来构建集体智慧”,其观点是,“如果有人想要训练某些东西,并且有人愿意训练它,那么就应该允许这种训练发生。”

该协议有四个主要参与者:提交者(submitters)、求解者(solvers)、验证者(verifiers)和吹哨者(whistleblowers)。提交者向网络提交带有培训请求的任务。这些任务包括训练目标、要训练的模型和训练数据。作为提交过程的一部分,提交者需要为求解者所需的估计计算量预先支付费用。

提交后,任务将分配给对模型进行实际训练的求解者。然后,求解者将已完成的任务提交给验证者,验证者负责检查训练以确保正确完成。吹哨者有责任确保验证者诚实行事。为了激励吹哨者参与网络,Gensyn计划定期提供故意错误的证据,奖励吹哨者抓住他们。

除了为人工智能相关工作负载提供计算之外,Gensyn的关键价值主张是其验证系统,该系统仍在开发中。为了确保GPU供应商的外部计算正确执行(即确保用户的模型按照他们希望的方式进行训练),验证是必要的。Gensyn采用独特的方法解决了这个问题,利用了称为“概率学习证明、基于图形的精确协议和Truebit式激励游戏”的新颖验证方法。这是一种乐观求解模式,允许验证者确认求解者已正确运行模型,而无需自己完全重新运行模型,完全重新运行模型是一个成本高昂且低效的过程。

除了其创新的验证方法之外,Gensyn还声称相对于中心化替代方案和加密货币竞争对手而言具有成本效益,提供的ML训练价格比AWS便宜高达80%,同时在测试方面胜过Truebit等类似项目。

这些初步结果是否可以在去中心化网络中大规模复制还有待观察。Gensyn希望利用小型数据中心、零售用户以及未来手机等小型移动设备等提供商的多余计算能力。然而,正如Gensyn团队自己所承认的那样,依赖异构计算提供商带来了一些新的挑战。

对于GoogleCloudProviders和Coreweave等中心化供应商来说,计算成本昂贵,而计算之间的通信(带宽和延迟)却很便宜。这些系统旨在尽快实现硬件之间的通信。Gensyn颠覆了这一框架,通过让世界上任何人都可以提供GPU来降低计算成本,但同时也增加了通信成本,因为网络现在必须在相距较远的异构硬件上协调计算作业。Gensyn尚未推出,但它是构建去中心化机器学习训练协议时可能实现的概念证明。

去中心化通用智能

去中心化计算平台也为AI创建方法的设计提供了可能性。Bittensor是一种基于Substrate构建的去中心化计算协议,试图回答“我们如何将AI转变为协作方法?”的问题。Bittensor旨在实现AI生成的去中心化和商品化。该协议于2021年推出,希望利用协作机器学习模型的力量来不断迭代并产生更好的AI。

Bittensor从比特币中汲取灵感,其原生货币TAO的供应量为2100万,减半周期为四年(第一次减半将于2025年)。Bittensor不是使用工作量证明来生成正确的随机数并获得区块奖励,而是依赖于“智能证明”(ProofofIntelligence),要求矿工运行模型来响应推理请求而生成输出。

激励智能

Bittensor最初依赖专家混合(MoE)模型来生成输出。当提交推理请求时,MoE模型不会依赖一个广义模型,而是将推理请求转发给给定输入类型的最准确的模型。想象一下建造一栋房子,你聘请了各种专家来负责施工过程的不同方面(例如:建筑师、工程师、油漆工、建筑工人等……)。MoE将其应用于机器学习模型,尝试根据输入利用不同模型的输出。正如Bittensor创始人AlaShaabana所解释的那样,这就像“与一屋子聪明人交谈并获得最佳答案,而不是与一个人交谈”。由于在确保正确路由、消息同步到正确模型以及激励方面存在挑战,这种方法已被搁置,直到项目得到进一步开发。

Bittensor网络中有两个主要参与者:验证者和矿工。验证者的任务是向矿工发送推理请求,审查他们的输出,并根据他们的响应质量对它们进行排名。为了确保他们的排名可靠,验证者会根据他们的排名与其他验证者排名的一致程度给予“vtrust”分数。验证者的vtrust分数越高,他们获得的TAO币就越多。这是为了激励验证者随着时间的推移就模型排名达成共识,因为就排名达成一致的验证者越多,他们的个人vtrust分数就越高。

矿工,也称为服务者,是运行实际机器学习模型的网络参与者。矿工们相互竞争,为验证者提供针对给定查询的最准确的输出,输出越准确,赚取的TAO就越多。矿工可以随心所欲地生成这些输出。例如,在未来的情况下,Bittensor矿工完全有可能之前在Gensyn上训练过模型,并用它们来赚取TAO。

如今,大多数交互直接发生在验证者和矿工之间。验证者向矿工提交输入并请求输出(即训练模型)。一旦验证者查询网络上的矿工并收到他们的响应,他们就会对矿工进行排名并将其排名提交到网络。

验证者(依赖PoS)和矿工(依赖模型证明,PoW的一种形式)之间的这种互动被称为Yuma共识。它旨在激励矿工产生最佳输出来赚取TAO,并激励验证者对矿工输出进行准确排名,以获得更高的vtrust分数并增加他们的TAO奖励,从而形成网络的共识机制。

子网和应用程序

Bittensor上的交互主要包括验证者向矿工提交请求并评估其输出。然而,随着贡献矿工的质量提高和网络整体智能的增长,Bittensor将在其现有堆栈之上创建一个应用程序层,以便开发人员可以构建查询Bittensor网络的应用程序。

2023年10月,Bittensor通过Revolution升级引入了子网,朝着实现这一目标迈出了重要一步。子网是Bittensor上激励特定行为的单独网络。Revolution向任何有兴趣创建子网的人开放网络。自发布以来的几个月内,已经启动了超过32个子网,包括用于文本提示、数据抓取、图像生成和存储的子网。随着子网的成熟并成为产品就绪,子网创建者还将创建应用程序集成,使团队能够构建查询特定子网的应用程序。一些应用程序(聊天机器人、图像生成器、推特回复机器人、预测市场)目前已经存在,但除了Bittensor基金会的资助之外,没有正式的激励措施让验证者接受和转发这些查询。

为了提供更清晰的说明,下面是一个示例,说明应用程序集成到网络中后Bittensor可能如何工作。

子网根据根网络(rootnetwork)评估的性能赚取TAO。根网络位于所有子网之上,本质上充当一种特殊的子网,并由64个最大的子网验证者按权益进行管理。根网络验证者根据子网的性能对子网进行排名,并定期将排放的TAO代币分配给子网。通过这种方式,各个子网充当根网络的矿工。

Bittensor展望

Bittensor仍在经历成长的烦恼,因为它扩展了协议的功能以激励跨多个子网的智能生成。矿工们不断设计新的方法来攻击网络以获得更多TAO奖励,例如通过稍微修改其模型运行的高评价推理的输出,然后提交多个变体。影响整个网络的治理提案只能由完全由Opentensor基金会利益相关者组成的Triumvirate提交和实施(需要注意的是,提案需要在实施之前得到由Bittensor验证者组成的Bittensor参议院的批准)。该项目的代币经济正在进行修改,以提高对TAO跨子网使用的激励。该项目还因其独特的方法而迅速获得名声,最受欢迎的人工智能网站之一HuggingFace的首席执行官表示Bittensor应该将其资源添加到该网站。

在核心开发人员最近发表的一篇名为“BittensorParadigm”的文章中,该团队阐述了Bittensor的愿景,即最终发展为“对所测量的内容不可知”。理论上,这可以使Bittensor开发子网来激励所有由TAO支持的任何类型的行为。仍然存在相当大的实际限制——最值得注意的是,证明这些网络能够扩展以处理如此多样化的流程,并且潜在的激励措施推动的进步超过了中心化产品。

为AI模型构建去中心化计算堆栈

上述部分提供了正在开发的各种类型的去中心化AI计算协议的粗略概述。在其开发和采用的早期,它们提供了生态系统的基础,最终可以促进“AI构建块”的创建,例如DeFi的“货币乐高”概念。无需许可的区块链的可组合性为每个协议构建在另一个协议之上提供了可能性,以提供更全面的去中心化人工智能生态系统。

例如,这是Akash、Gensyn和Bittensor可能全部交互以响应推理请求的一种方式。

需要明确的是,这只是未来可能发生的事情的一个例子,而不是当前生态系统、现有合作伙伴关系或可能结果的代表。互操作性的限制以及下面描述的其他考虑因素极大地限制了当今的集成可能性。除此之外,流动性破碎化和使用多种代币的需要可能会损害用户体验,Akash和Bittensor的创始人都指出了这一点。

其他去中心化产品

除了计算之外,还推出了其他几种去中心化基础设施服务,以支持加密货币新兴的AI生态系统。

列出所有这些超出了本报告的范围,但一些有趣且说明性的示例包括:

Ocean:一个去中心化的数据市场。用户可以创建代表其数据的数据NFT,并可以使用数据代币进行购买。用户既可以将其数据货币化,又可以对其拥有更大的主权,同时为AI团队提供开发和训练模型所需的数据的访问权限。

Grass:一个去中心化的带宽市场。用户可以将多余的带宽出售给AI公司,后者利用这些带宽从互联网上抓取数据。Grass建立在Wynd网络之上,这不仅使个人能够将其带宽货币化,而且还为带宽购买者提供了更多样化的观点来了解个人用户在网上看到的内容(因为个人的互联网访问通常是根据其IP地址专门定制的))。

HiveMapper:构建一个去中心化的地图产品,其中包含从日常汽车驾驶员收集的信息。HiveMapper依靠AI来解释从用户仪表板摄像头收集的图像,并奖励用户通过强化人类学习反馈(RHLF)帮助微调AI模型的代币。

总的来说,这些都指向探索支持AI模型的去中心化市场模型或开发它们所需的周边基础设施的几乎无限的机会。目前,这些项目大多处于概念验证阶段,需要更多的研究和开发来证明它们能够以提供全面人工智能服务所需的规模运行。

展望

去中心化计算产品仍处于开发的早期阶段。他们刚刚开始推出最先进的计算能力,能够在生产中训练最强大的AI模型。为了获得有意义的市场份额,他们需要展示与中心化替代方案相比的实际优势。更广泛采用的潜在触发因素包括:

GPU供应/需求。 GPU的稀缺加上快速增长的计算需求正在导致GPU军备竞赛。由于GPU的限制,OpenAI已经一度限制对其平台的访问。Akash和Gensyn等平台可以为需要高性能计算的团队提供具有成本竞争力的替代方案。对于去中心化计算提供商来说,未来6-12个月是一个特别独特的机会来吸引新用户,由于缺乏更广泛的市场准入,这些新用户被迫考虑去中心化产品。再加上Meta的LLaMA2等性能日益提高的开源模型,用户在部署有效的微调模型时不再面临同样的障碍,使计算资源成为主要瓶颈。然而,平台本身的存在并不能确保足够的计算供应和消费者的相应需求。采购高端GPU仍然很困难,而且成本并不总是需求方的主要动机。这些平台将面临挑战,以展示使用去中心化计算选项的实际好处(无论是由于成本、审查阻力、正常运行时间和弹性还是可访问性)来积累粘性用户。他们必须快速行动。GPU基础设施投资和建设正在以惊人的速度进行。

监管。监管仍然是去中心化计算运动的阻力。短期内,缺乏明确的监管意味着提供商和用户都面临使用这些服务的潜在风险。如果供应商提供计算或买方在不知情的情况下从受制裁实体购买计算怎么办?用户可能会犹豫是否使用缺乏中心化实体控制和监督的去中心化平台。协议试图通过将控制纳入其平台或添加过滤器以仅访问已知的计算提供商(即提供了解你的客户KYC信息)来减轻这些担忧,但需要更强大的方法在确保合规性的同时保护隐私。短期内,我们可能会看到KYC和合规平台的出现,这些平台限制对其协议的访问,以解决这些问题。此外,围绕美国可能的新监管框架的讨论(最好的例子是《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》的发布)凸显了进一步限制GPU获取的监管行动的潜力。

审查。监管是双向的,去中心化的计算产品可以从限制AI访问的行动中受益。除了行政命令之外,OpenAI创始人SamAltman还在 国会作证,说明监管机构需要为人工智能开发颁发许可证。关于人工智能监管的讨论才刚刚开始,但任何此类限制访问或审查AI功能的尝试都可能加速不存在此类障碍的去中心化平台的采用。2023年11月OpenAI领导层变动(或缺乏)进一步表明,将最强大的现有AI模型的决策权授予少数人是有风险的。此外,所有AI模型都必然反映了创建它们的人的偏见,无论是有意还是无意。消除这些偏差的一种方法是使模型尽可能开放地进行微调和训练,确保任何地方的任何人都可以访问各种类型和偏差的模型。

数据隐私。 当与为用户提供数据自主权的外部数据和隐私解决方案集成时,去中心化计算可能会比中心化替代方案更具吸引力。当三星意识到工程师正在使用ChatGPT帮助芯片设计并将敏感信息泄露给ChatGPT时,三星成为了这一事件的受害者。PhalaNetwork和iExec声称为用户提供SGX安全飞地来保护用户数据,并且正在进行的全同态加密研究可以进一步解锁确保隐私的去中心化计算。随着AI进一步融入我们的生活,用户将更加重视能够在具有隐私保护的应用程序上运行模型。用户还需要支持数据可组合性的服务,以便他们可以将数据从一种模型无缝移植到另一种模型。

用户体验(UX)。 用户体验仍然是更广泛采用所有类型的加密应用程序和基础设施的重大障碍。这对于去中心化计算产品来说并没有什么不同,并且在某些情况下,由于开发人员需要了解加密货币和人工智能,这会加剧这种情况。需要从基础知识进行改进,例如登入抽象与区块链的交互,以提供与当前市场领导者相同的高质量输出。鉴于许多提供更便宜产品的可操作的去中心化计算协议很难获得常规使用,这一点显而易见。

智能合约和zkML

智能合约是任何区块链生态系统的核心构建块。在给定一组特定条件的情况下,它们会自动执行并减少或消除对受信任第三方的需求,从而能够创建复杂的去中心化应用程序,例如DeFi中的应用程序。然而,由于智能合约目前大部分存在,其功能仍然受到限制,因为它们根据必须更新的预设参数执行。

例如,部署的借贷协议智能合约包含根据特定贷款与价值比率何时清算头寸的规范。虽然在静态环境中有用,但在风险不断变化的动态情况下,这些智能合约必须不断更新以适应风险承受能力的变化,这给不通过中心化流程管理的合约带来了挑战。例如,依赖去中心化治理流程的DAO可能无法快速反应以应对系统性风险。

集成AI(即机器学习模型)的智能合约是增强功能、安全性和效率同时改善整体用户体验的一种可能方法。然而,这些集成也带来了额外的风险,因为不可能确保支撑这些智能合约的模型不会被攻击或解释长尾情况(鉴于数据输入的稀缺,长尾情况很难训练模型)。

零知识机器学习(zkML)

机器学习需要大量的计算来运行复杂的模型,这使得AI模型由于成本高昂而无法直接在智能合约中运行。例如,为用户提供收益优化模型的DeFi协议将很难在链上运行该模型,而无需支付过高的Gas费。一种解决方案是增加底层区块链的计算能力。然而,这也增加了对链验证者集的要求,可能会破坏去中心化特性。相反,一些项目正在探索使用zkML以无需信任的方式验证输出,而不需要密集的链上计算。

说明zkML有用性的一个常见示例是,用户需要其他人通过模型运行数据并验证其交易对手实际上运行了正确的模型。也许开发人员正在使用去中心化计算提供商来训练他们的模型,并担心该提供商试图通过使用输出差异几乎无法察觉的更便宜的模型来削减成本。zkML使计算提供商能够通过其模型运行数据,然后生成可以在链上验证的证明,以证明给定输入的模型输出是正确的。在这种情况下,模型提供者将具有额外的优势,即能够提供他们的模型,而不必透露产生输出的基础权重。

也可以做相反的事情。如果用户想要使用他们的数据运行模型,但由于隐私问题(比如在医疗检查或专有商业信息的情况下),不希望提供模型的项目访问他们的数据,那么用户可以在他们的数据上运行模型而不共享数据,然后通过证明验证他们运行了正确的模型。这些可能性通过解决令人望而却步的计算限制,极大地扩展了人工智能和智能合约功能集成的设计空间。

基础设施和工具

鉴于zkML领域的早期状态,开发主要集中在构建团队所需的基础设施和工具,以将其模型和输出转换为可以在链上验证的证明。这些产品尽可能地抽象了开发的零知识方面。

EZKL和Giza是通过提供机器学习模型执行的可验证证明来构建此工具的两个项目。两者都帮助团队构建机器学习模型,以确保这些模型可以在链上以可信方式验证结果的方式执行。这两个项目都使用开放神经网络交换(ONNX)将用TensorFlow和Pytorch等通用语言编写的机器学习模型转换为标准格式。然后,他们输出这些模型的版本,这些模型在执行时也会生成zk证明。EZKL是开源的,生产zk-SNARKS,而Giza是闭源的,生产zk-STARKS。这两个项目目前仅兼容EVM。

过去几个月,EZKL在增强zkML解决方案方面取得了重大进展,主要集中在降低成本、提高安全性和加快证明生成速度。例如,2023年11月,EZKL集成了一个新的开源GPU库,可将聚合证明时间缩短35%;1月,EZKL发布了Lilith,这是一种软件解决方案,用于在使用EZKL证明时集成高性能计算集群和编排并发作业系统。Giza的独特之处在于,除了提供用于创建可验证的机器学习模型的工具之外,他们还计划实现相当于HuggingFace的web3,为zkML协作和模型共享开辟用户市场,并最终集成去中心化计算产品。一月份,EZKL发布了一项基准评估,比较了EZKL、Giza和RiscZero(如下所述)的性能。EZKL展示了更快的证明时间和内存使用。

ModulusLabs还在开发一种专为AI模型定制的新的zk-proof技术。Modulus发表了一篇名为《智能的成本》(TheCostofIntelligence )的论文(暗示在链上运行AI模型的成本极高),该论文对当时现有的zk-proof系统进行了基准测试,以确定改进AI模型zk-proofs的能力和瓶颈。该论文于2023年1月发布,表明现有产品过于昂贵且效率低下,无法大规模实现AI应用。在最初研究的基础上,Modulus在11月推出了Remainder,这是一种专门的零知识证明器,专门用于降低AI模型的成本和证明时间,目标是使项目在经济上可行,将模型大规模集成到智能合约中。他们的工作是闭源的,因此无法与上述解决方案进行基准测试,但最近在Vitalik关于加密和人工智能的博客文章中引用了他们的工作。

工具和基础设施开发对于zkML空间的未来增长至关重要,因为它可以显著减少需要部署运行可验证的链下计算所需的zk电路的团队的摩擦。创建安全接口,使从事机器学习工作的非加密原生构建者能够将他们的模型带到链上,这将使应用程序能够通过真正新颖的用例进行更大的实验。工具还解决了更广泛采用zkML的一个主要障碍,即缺乏知识渊博且对零知识、机器学习和密码学交叉领域工作感兴趣的开发人员。

协处理器(Coprocessors)

正在开发的其他解决方案(称为“协处理器”)包括RiscZero 、Axiom和Ritual。协处理器这个术语主要是语义上的——这些网络履行许多不同的角色,包括在链上验证链下计算。与EZKL、Giza和Modulus一样,他们的目标是完全抽象零知识证明生成过程,创建本质上能够执行链下程序并生成链上验证证明的零知识虚拟机。RiscZero和Axiom可以为简单的AI模型提供服务,因为它们是更通用的协处理器,而Ritual是专门为与AI模型一起使用而构建的。

Infernet是Ritual的第一个实例,包含一个InfernetSDK,允许开发人员向网络提交推理请求并接收输出和证明(可选)作为回报。 Infernet节点接收这些请求并在返回输出之前处理链下计算。例如,DAO可以创建一个流程,确保所有新的治理提案在提交之前满足某些先决条件。每次提交新提案时,治理合约都会通过Infernet触发推理请求,调用DAO特定治理训练的AI模型。该模型审查提案以确保提交所有必要的标准,并返回输出和证据,批准或拒绝提案的提交。

在接下来的一年里,Ritual团队计划推出更多功能,形成称为Ritual超级链的基础设施层。前面讨论的许多项目都可以作为服务提供商插入Ritual。Ritual团队已经与EZKL集成以生成证明,并且可能很快会添加其他领先提供商的功能。Ritual上的Infernet节点还可以使用Akash或io.netGPU以及在Bittensor子网上训练的查询模型。他们的最终目标是成为开放AI基础设施的首选提供商,能够为任何网络、任何工作负载的机器学习和其他AI相关任务提供服务。

应用

zkML有助于调和区块链和人工智能之间的矛盾,前者本质上是资源受限的,而后者需要大量的计算和数据。正如Giza的一位创始人所说,“用例非常丰富……这有点像以太坊早期问智能合约的用例是什么……我们所做的只是扩展智能合约的用例。”然而,如上所述,当今的开发主要发生在工具和基础设施级别。应用仍处于探索阶段,团队面临的挑战是证明使用zkML实现模型所产生的价值超过了其复杂性和成本。

目前的一些应用包括:

去中心化金融。 zkML通过增强智能合约能力,升级了DeFi的设计空间。DeFi协议为机器学习模型提供大量可验证且不可篡改的数据,可用于生成收益获取或交易策略、风险分析、用户体验等。例如,Giza与YearnFinance合作,为Yearn的新v3金库构建概念验证自动风险评估引擎。ModulusLabs与LyraFinance合作将机器学习纳入其AMM,与IonProtocol合作实施分析验证者风险的模型,并帮助Upshot验证其人工智能支持的NFT价格信息。 NOYA(利用EZKL)和Mozaic等协议提供了对专有链下模型的访问,这些模型使用户能够访问自动化流动性挖矿,同时使他们能够验证链上的数据输入和证明。 SpectralFinance正在构建链上信用评分引擎,以预测Compound或Aave借款人拖欠贷款的可能性。由于zkML,这些所谓的“De-Ai-Fi”产品在未来几年可能会变得更加流行。

游戏。 长期以来,游戏一直被认为可以通过公链进行颠覆和增强。zkML使人工智能的链上游戏成为可能。 ModulusLabs已经实现了简单链上游戏的概念验证。 LeelavstheWorld是一款博弈论国际象棋游戏,用户在其中对抗AI国际象棋模型,zkML验证Leela所做的每一步都是基于游戏运行的模型。同样,团队也使用EZKL框架来构建简单的歌唱比赛和链上井字游戏。 Cartridge正在使用Giza使团队能够部署完全链上游戏,最近重点引入了一款简单的人工智能驾驶游戏,用户可以竞争为试图避开障碍物的汽车创建更好的模型。虽然简单,但这些概念验证指向未来的实现,能够实现更复杂的链上验证,例如能够与游戏内经济体进行交互的复杂NPC演员,如《 AIArena》中所见,这是一款超级大乱斗游戏,玩家可以在其中训练自己的战士,然后部署为AI模型进行战斗。

身份、溯源和隐私。 加密货币已经被用作验证真实性和打击越来越多的人工智能生成/操纵内容和深度伪造的手段。zkML可以推进这些努力。WorldCoin是一种身份证明解决方案,要求用户扫描虹膜以生成唯一的ID。未来,生物识别ID可以使用加密存储在个人设备上进行自我托管,并使用验证本地运行的生物识别所需的模型。然后,用户可以提供生物识别证据,而无需透露自己的身份,从而在确保隐私的同时抵御女巫攻击。这也可以应用于需要隐私的其他推论,例如使用模型分析医疗数据/图像来检测疾病、验证人格并在约会应用程序中开发匹配算法,或者需要验证财务信息的保险和贷款机构。

展望

zkML仍处于实验阶段,大多数项目都专注于构建基础设施原语和概念证明。如今的挑战包括计算成本、内存限制、模型复杂性、有限的工具和基础设施以及开发人员人才。简而言之,在zkML能够以消费产品所需的规模实施之前,还有相当多的工作要做。

然而,随着该领域的成熟以及这些限制的解决,zkML将成为AI和加密集成的关键组成部分。从本质上讲,zkML承诺能够将任何规模的链下计算引入链上,同时保持与链上运行相同或接近相同的安全保证。然而,在这一愿景实现之前,该技术的早期用户将继续必须在zkML的隐私和安全性与替代方案的效率之间进行权衡。

AI智能体

AI和加密货币最令人兴奋的集成之一是正在进行的AI智能体实验。智能体是能够使用AI模型接收、解释和执行任务的自主机器人。这可以是任何事情,从拥有一个随时可用的根据你的偏好进行微调的个人助理,到雇用一个根据你的风险偏好来管理和调整你的投资组合的金融机器人。

由于加密货币提供了无需许可和无需信任的支付基础设施,智能体和加密货币可以很好地结合在一起。经过培训后,智能体将获得一个钱包,以便他们可以自行使用智能合约进行交易。例如,今天的简单智能体可以在互联网上抓取信息,然后根据模型在预测市场上进行交易。

智能体提供商

Morpheus是2024年在以太坊和Arbitrum上上市的最新开源智能体项目之一。其白皮书于2023年9月匿名发布,为社区的形成和构建提供了基础(包括ErikVorhees等著名人物)。该白皮书包括一个可下载的智能体协议,它是一个开源的LLM,可以在本地运行,由用户的钱包管理,并与智能合约交互。它使用智能合约排名来帮助智能体根据处理的交易数量等标准确定哪些智能合约可以安全地进行交互。

白皮书还提供了构建Morpheus网络的框架,例如使智能体协议运行所需的激励结构和基础设施。这包括激励贡献者构建用于与智能体交互的前端、供开发人员构建可插入智能体以便他们可以相互交互的应用程序的API,以及使用户能够访问运行智能体所需的计算和存储的云解决方案在边缘设备上。该项目的初始资金已于2月初启动,完整协议预计将于2024年第二季度启动。

去中心化自治基础设施网络(DAIN)是一种新的智能体基础设施协议,在Solana上构建智能体到智能体经济。DAIN的目标是让来自不同企业的智能体可以通过通用API无缝地相互交互,从而大大开放AI智能体的设计空间,重点是实现能够与web2和web3产品交互的智能体。一月份,DAIN宣布与AssetShield首次合作,使用户能够将“智能体签名者”添加到其多重签名中,这些签名者能够根据用户设置的规则解释交易并批准/拒绝。

Fetch.AI是最早部署的AI智能体协议之一,并开发了一个生态系统,用于使用FET代币和Fetch.AI钱包在链上构建、部署和使用智能体。该协议提供了一套用于使用智能体的全面工具和应用程序,包括用于与智能体交互和订购代理的钱包内功能。

Autonolas的创始人包括Fetch团队的前成员,它是一个用于创建和使用去中心化AI智能体的开放市场。Autonolas还为开发人员提供了一套工具来构建链下托管的AI智能体,并可以插入多个区块链,包括Polygon、Ethereum、GnosisChain和Solana。他们目前拥有一些活跃的智能体概念验证产品,包括用于预测市场和DAO治理。

SingularityNet正在为AI智能体构建一个去中心化的市场,人们可以在其中部署专注的AI智能体,这些智能体可以被其他人或智能体雇用来执行复杂的任务。其他公司,如AlteredStateMachine,正在构建AI智能体与NFT的集成。用户铸造具有随机属性的NFT,这些属性赋予他们在不同任务上的优势和劣势。然后可以对这些智能体进行训练,以增强某些属性,以用于游戏、DeFi或作为虚拟助手并与其他用户进行交易。

总的来说,这些项目设想了一个未来的智能体生态系统,这些智能体能够协同工作,不仅可以执行任务,还可以帮助构建通用AI。真正复杂的智能体将有能力自主完成任何用户任务。例如,完全自主的智能体将能够弄清楚如何雇用另一个智能体来集成API,然后执行,而不必确保智能体在使用之前已经与外部API(例如旅行预订网站)集成并执行任务。从用户的角度来看,不需要检查智能体是否可以完成任务,因为智能体可以自己确定。

比特币和AI智能体

2023年7月,闪电网络实验室推出了在闪电网络上使用智能体的概念验证实施方案,称为LangChain比特币套件。该产品特别有趣,因为它旨在解决Web2世界中日益严重的问题——Web应用程序的门禁且昂贵的API密钥。

LangChain通过为开发人员提供一套工具来解决这个问题,使智能体能够购买、出售和持有比特币,以及查询API密钥和发送小额支付。在传统的支付领域,小额支付由于费用而成本高昂,而在闪电网络上,智能体可以每天以最低的费用发送无限的小额支付。当与LangChain的L402支付计量API框架结合使用时,这允许公司可以根据使用量的增加和减少调整其API的访问费用,而不是设定单一的成本过高的标准。

在未来,链上活动主要由智能体与智能体交互所主导,这样的事情将是必要的,以确保智能体能够以成本不过高的方式相互交互。这是一个早期的例子,说明如何在无需许可且经济高效的支付赛道上使用智能体,为新市场和经济互动开辟了可能性。

展望

智能体领域仍处于新生阶段。项目刚刚开始推出功能性智能体,可以使用其基础设施处理简单的任务——这通常只有经验丰富的开发人员和用户才能访问。然而,随着时间的推移,AI智能体对加密货币的最大影响之一是所有垂直领域的用户体验改进。交易将开始从基于点击转向基于文本,用户能够通过大语言模性与链上智能体进行交互。DawnWallet等团队已经推出了聊天机器人钱包,供用户在链上进行交互。

此外,目前尚不清楚智能体如何在Web2中运作,因为金融领域依赖于受监管的银行机构,这些机构不能24/7运营,也无法进行无缝跨境交易。正如LynAlden所强调的那样,由于缺乏退款和处理微交易的能力,与信用卡相比,加密赛道尤其有吸引力。然而,如果智能体成为一种更常见的交易方式,现有的支付提供商和应用程序很可能会迅速采取行动,实施在现有金融领域运营所需的基础设施,从而削弱使用加密货币的一些好处。

目前,智能体可能仅限于确定性的加密货币交易,其中给定输入保证给定输出。这两种模型都规定了这些智能体弄清楚如何执行复杂任务的能力,而工具则扩大了它们可以完成的范围,都需要进一步开发。为了让加密智能体在新颖的链上加密用例之外变得有用,需要更广泛的集成和接受加密作为一种支付形式以及监管的明确性。然而,随着这些组件的发展,智能体准备成为上述去中心化计算和zkML解决方案的最大消费者之一,以自主的非确定性方式接收和解决任何任务。

结论

AI为加密货币引入了我们在web2中看到的相同创新,增强了从基础设施开发到用户体验和可访问性的各个方面。然而,项目仍处于发展早期,近期加密货币和AI集成将主要由链下集成主导。

像Copilot这样的产品将使开发人员效率“提高10倍”,Layer1和DeFi应用程序已经与微软等大公司合作推出人工智能辅助开发平台。Cub3.ai和TestMachine等公司正在开发用于智能合约审计和实时威胁监控的AI集成,以增强链上安全性。LLM聊天机器人正在使用链上数据、协议文档和应用程序进行培训,为用户提供增强的可访问性和用户体验。

对于真正利用加密货币底层技术的更高级集成来说,挑战仍然是证明在链上实施AI解决方案在技术上是可行的,而且在经济上也是可行的。去中心化计算、zkML和AI智能体的发展指向有前景的垂直领域,这些领域为加密货币和AI深度互联的未来奠定了基础。

本文可能来自AI生成或投稿,请分辨其真实性!转载需注明出处:http://www.lanbi.net/news/63670.html

Like (0)
热心网友的头像热心网友
Previous 2024-10-29
Next 2024-10-29

相关推荐

防范以“虚拟货币”“区块链”名义进行非法集资的风险。本站内容均来自于互联网转载或网友投稿,请勿轻易相信站内任何链接与内容。本站不接受任何商业、盈利性内容。