Crypto+AI有什么好处?盘点值得关注的十大Crypto+AI趋势
Crypto+AI值得关注的未来发展趋势以及Crypto+AI未来有啥好处?AI+ Crypto 是近期加密货币市场备受瞩目的前沿领域之一,比如去中心化 AI 训练、GPU DePINs 以及抗审查的 AI 模型等。
在这些令人眼花缭乱的进展背后,我们不禁要问:这究竟是真正的科技突破还是只是在蹭热点?下面就和脚本之家小编详细了解下吧!
值得关注的十大Crypto+AI趋势
1.智能体间的交互 (Agent-to-Agent Interaction)
区块链因其天然的透明性和可组合性,成为实现智能体间无缝交互的理想平台。在这种交互中,由不同机构为不同目的开发的智能体可以协作完成任务。目前已有一些令人兴奋的尝试,例如智能体之间相互转账、一起发行代币等。我们期待智能体间的交互能够进一步扩展:一方面创造全新的应用场景,例如由智能体驱动的新型社交平台;另一方面优化现有的企业工作流程,例如平台认证、微支付、跨平台工作流集成等,从而简化如今复杂繁琐的操作流程。- Danny、Katie、Aadharsh、Dmitriy
aethernet 和 clanker 在 Warpcast 上共同发行 Token
2.去中心化智能体组织 (Decentralized Agentic Organizations)
大规模多智能体协作是另一个令人振奋的研究方向。多智能体系统如何协同完成任务、解决问题,甚至管理协议和系统?在 2024 年初的文章《加密 + AI 应用的承诺与挑战》中,Vitalik 提出了利用 AI 智能体进行预测市场和裁决的设想。他认为,在大规模应用中,多智能体系统在“真相”发现和自治治理方面有着巨大的潜力。我们期待看到这种多智能体系统的能力如何被进一步发掘,以及“群体智能”如何在实验中展现出更多可能性。
此外,智能体与人类的协作也是一个值得探索的方向。比如,社区如何围绕智能体展开互动,或者智能体如何组织人类完成集体行动。我们希望看到更多以大规模人类协作为目标的智能体实验。当然,这需要配备某种验证机制,特别是在任务由链下完成的情况下。但这种探索可能会带来一些意想不到的奇妙结果。- Katie、Dmitriy、Ash
3.智能体驱动的多媒体娱乐 (Agentic Multimedia Entertainment)
数字化虚拟人格的概念已经存在多年。例如,初音未来 (Hatsune Miku, 2007) 曾在 2 万座席的场馆举办售罄演唱会;Lil Miquela ( 2016) 在 Instagram 上拥有超过 200 万粉丝。最近的例子包括 AI 虚拟主播 Neuro-sama ( 2022),其在 Twitch 上的订阅量已超过 60 万;以及匿名 Kpop 男团 PLAVE ( 2023),其在不到两年的时间里在 YouTube 上的观看量已突破 3 亿次。随着 AI 技术的进步以及区块链在支付、价值转移和开放数据平台中的应用,这些智能体有望变得更加自主,并可能在 2025 年开启一个全新的主流娱乐类别。- Katie、Dmitriy
从左上顺时针:初音未来、Virtuals 的 Luna、Lil Miquela 和 PLAVE
4.生成式/智能体驱动的内容营销 (Generative/Agentic Content Marketing)
在某些情况下,智能体本身是产品,而在另一些情况下,智能体则可以成为产品的补充。在注意力经济中,持续输出吸引人的内容是任何想法、产品或公司成功的关键。生成式/智能体驱动的内容为团队提供了一个强大的工具,可以确保一个可扩展、全天候的内容创作渠道。这一领域因“memecoin 与智能体的区别”这一话题的讨论而加速发展。智能体是 memecoin 实现传播的一个强大工具,即使它们还未完全实现“智能体化”。
另一个例子是,游戏行业为了保持用户参与度,正越来越多地追求动态化。一种经典的方法是引导用户生成内容,而纯粹的生成式内容(如游戏内物品、NPC,甚至完全生成的关卡)可能成为这一趋势的下一个阶段。我们很好奇, 2025 年智能体的能力将如何进一步扩展内容分发和用户互动的边界。- Katie
5.下一代艺术工具/平台 (Next-Gen Art Tools/Platforms)
在 2024 年,我们推出了 IN CONVERSATION WITH 系列,这是一个与音乐、视觉艺术、设计、策展等领域的加密艺术家对话的访谈节目。今年的访谈让我注意到一个趋势:对加密技术感兴趣的艺术家通常也对前沿技术充满热情,并希望这些技术能够更深地融入他们的创作实践,例如 AR/VR 对象、代码生成艺术以及实时编码 (livecoding)。
生成艺术 (Generative Art) 与区块链技术的结合由来已久,这也让区块链成为 AI 艺术的理想载体。在传统平台中,展示和呈现这些艺术形式非常困难。而 ArtBlocks 则为数字艺术如何通过区块链实现展示、存储、货币化和保存提供了一个初步的探索,极大地改善了艺术家与观众的体验。此外,AI 工具还让普通人也能轻松创作自己的艺术作品。我们非常期待在 2025 年,区块链如何进一步提升这些工具的能力。- Katie
KC: 既然你对加密文化感到挫败并存在不认同的地方,那是什么促使你仍然选择参与 Web3?Web3 为你的创作实践带来了哪些价值?是实验性的探索、经济回报,还是其他方面?
MM: 对我来说,Web3 在多个方面对我个人以及其他艺术家都有积极影响。就我个人而言,那些支持发布生成艺术的平台对我的创作尤为重要。比如,你可以上传一个 JavaScript 文件,当有人铸造或收藏一件作品时,代码会实时运行,并在你设计的系统中生成独特的艺术作品。这种实时生成的过程,是我创作实践中的核心部分。在我编写和构建的系统中引入随机性,无论是从概念上还是技术上,都深刻影响了我对艺术的思考方式。然而,如果不是在专门为这种艺术形式设计的平台上展示,或者是在传统画廊中展示,往往很难向观众传达这一过程。
在画廊中,可能会展示一个通过投影或屏幕实时运行的算法,或者展示由算法生成的多个输出中挑选出的作品,并以某种方式转化为实体形式进行展览。但对于那些对代码作为艺术媒介不太熟悉的观众来说,他们很难理解这种创作过程中随机性的意义,而这种随机性正是所有以生成方式使用软件的艺术家实践中的重要部分。当作品的最终呈现形式仅仅是一张发布在 Instagram 上的图片,或者是一件打印出来的实体作品时,我有时会觉得很难向观众强调作品中“代码作为创作媒介”的这一核心理念。
NFT 的出现让我感到振奋,因为它不仅提供了一个展示生成艺术的平台,还帮助普及了“代码作为艺术媒介”这一概念,让更多人能够理解这种创作方式的独特性和价值。
摘自 IN CONVERSATION WITH:Maya Man
6.数据市场 (Data Markets)
自 Clive Humby 提出“数据是新石油”这一观点以来,企业纷纷采取措施囤积并货币化用户数据。然而,用户逐渐意识到自己的数据是这些巨头公司赖以生存的基石,却几乎无法控制数据的使用方式,也未能从中获得收益。随着强大 AI 模型的快速发展,这一矛盾愈发尖锐。一方面,我们需要解决用户数据被滥用的问题;另一方面,随着更大规模、更高质量的模型耗尽了公共互联网数据这一“资源”,新的数据来源也显得尤为重要。
为了将数据的控制权还给用户,去中心化基础设施提供了广阔的设计空间。这需要在数据存储、隐私保护、数据质量评估、价值归属和货币化机制等多个领域提出创新解决方案。同时,针对数据供应短缺问题,我们需要思考如何利用技术优势,构建具有竞争力的解决方案,例如通过更优的激励机制和过滤方法,创造出更高价值的数据产品。尤其是在当前 Web2 AI 仍占主导地位的背景下,如何将智能合约与传统服务协议 (SLA) 相结合,是一个值得深入探索的方向。- Danny
7.去中心化计算 (Decentralized Compute)
在 AI 的开发和部署中,除了数据,计算能力同样是关键要素。过去几年,大型数据中心依靠对场地、能源和硬件的独占访问权,主导了深度学习和 AI 的发展。然而,随着物理资源的限制和开源技术的发展,这种格局正在逐步被打破。
去中心化 AI 的计算 v1 阶段类似于 Web2 的 GPU 云,但在硬件供应和需求方面并无明显优势。而在 v2 阶段,我们看到一些团队开始构建更完善的技术堆栈,包括高性能计算的编排、路由和定价系统,同时开发专有功能以吸引需求并提升推理效率。一些团队专注于通过编译器框架优化跨硬件的推理路由,而另一些则在其计算网络上开发分布式模型训练框架。
此外,一个被称为 AI-Fi 的新兴市场正在形成,其通过创新的经济机制,将计算能力和 GPU 转化为收益资产,或者利用链上流动性为数据中心提供硬件融资的新途径。然而,去中心化计算是否能真正实现其潜力,仍取决于理念与实际需求之间的差距能否被弥合。- Danny
8.计算核算标准 (Compute Accounting Standards)
在去中心化高性能计算 (HPC) 网络中,如何协调异构计算资源是一个重要的挑战,而目前缺乏统一的核算标准让这一问题更加复杂。AI 模型的输出结果具有多样性,例如模型变体、量化 (quantization)、通过温度 (temperature) 和采样超参数调整的随机性等。此外,不同的 GPU 架构和 CUDA 版本也会导致硬件输出结果的差异。这些因素使得在异构分布式系统中,如何准确统计模型和计算市场的容量成为一个亟待解决的问题。
由于缺乏这些标准,今年我们在 Web2 和 Web3 的计算市场中多次看到模型性能和计算资源的质量与数量被错误核算的情况。这迫使用户通过运行自己的基准测试或限制计算市场的使用速率来验证 AI 系统的实际性能。
加密领域一贯强调“可验证性”,因此我们希望到 2025 年,加密与 AI 的结合能让系统性能更加透明。普通用户应该能够轻松对比模型或计算集群的关键输出特性,从而审计和评估系统的实际表现。- Aadharsh
9.概率隐私原语 (Probabilistic Privacy Primitives)
Vitalik 在文章《加密 + AI 应用的承诺与挑战》中提到一个独特的矛盾: “在密码学中,开源是实现安全的唯一方法,但在 AI 中,公开模型(甚至是训练数据)会极大增加其受到对抗性机器学习攻击的风险。”
虽然隐私保护并非区块链的新研究方向,但随着 AI 的快速发展,隐私相关的密码学技术正在加速应用。今年在隐私增强技术方面已经取得了显著进展,例如零知识证明 (ZK)、全同态加密 (FHE)、可信执行环境 (TEE) 和多方计算 (MPC)。这些技术被用于如在加密数据上进行通用计算的私有共享状态等场景。同时,像 Nvidia 和 Apple 这样的技术巨头也在利用专有的 TEE 技术,在硬件、固件和模型保持一致的情况下,实现联邦学习和私有 AI 推理。
未来,我们将重点关注如何在随机状态转换中保护隐私,以及这些技术如何促进去中心化 AI 在异构系统上的实际应用,例如去中心化的私有推理、加密数据的存储和访问管道,以及完全自主的执行环境的构建。- Aadharsh
Apple 的 Apple Intelligence 堆栈和 Nvidia 的 H100 GPU
10.智能体意图与下一代用户交易界面 (Agentic Intents and Next-Gen User Trading Interfaces)
AI 智能体的一个重要应用是帮助用户在链上自主完成交易。然而,在过去的 12-16 个月中,关于“智能体意图”、“智能体行为”、“求解器”等术语的定义始终模糊不清,与传统“机器人”开发的区别也不够明确。
未来一年,我们期待看到更复杂的语言系统与多种数据类型和神经网络架构结合,从而推动这一领域的发展。智能体会继续使用现有的链上系统完成交易,还是会开发全新的工具和方法?大语言模型 (LLM) 是否仍会作为这些系统的核心,还是会被其他技术取代?在用户界面层面,用户是否会通过自然语言与系统交互完成交易?经典的“钱包即浏览器”理论是否会成为现实?这些都是值得探索的问题。- Danny、Katie、Aadharsh、Dmitriy
AI+Crypto的8大真正优势
设想#1:去中心化 AI 训练
链上 AI 训练的问题在于需要 GPU 间的高速通信和协调,因为神经网络在训练时需要反向传播。 Nvidia 为此有两项创新(NVLink 和 InfiniBand)。这些技术使 GPU 通信变得超快,但它们仅限本地技术,仅适用于位于单个数据中心内的 GPU 集群(50+ 千兆位速度)。
如果引入去中心化网络,由于网络延迟和带宽增加,速度会突然变慢几个数量级。与从数据中心内的 Nvidia 高速互连获得的吞吐量相比,这种速度对于 AI 训练用例来说是不可能的。
请注意,以下也有创新可能会给未来带来希望:
- InfiniBand 上正大规模分布式训练,因为 NVIDIA 本身正在通过 NVIDIA Collective Communications Library 支持 InfiniBand 上的分布式非本地训练。然而,它仍处于新生阶段,因此采用指标尚待确定。距离上的物理定律瓶颈仍然存在,因此 InfiniBand 上的本地训练仍然要快得多。
- 已经发表的一些关于去中心化训练的新研究,这些研究通信同步时间变少,可能会使去中心化训练在未来更加实用。
- 模型训练的智能分片和调度有助于提高性能。 同样,新的模型架构可能是为未来的分布式基础设施专门设计的(Gensyn 正在这些领域进行研究)。
训练的数据部分也具有挑战性。任何 AI 训练过程都涉及处理大量数据。通常,模型在具有高可扩展性和性能的中心化安全数据存储系统上进行训练。这需要传输和处理数 TB 的数据,并且这不是一次性周期。数据通常充满噪音并且包含错误,因此在训练模型之前必须对其进行清理,并转换为可用的格式。此阶段涉及标准化、过滤和处理缺失值的重复任务。这些都在去中心化环境中面临严峻挑战。
训练的数据部分也是迭代的,这与 Web3 并不兼容。OpenAI 经历了数千次迭代才取得了其成果。在 AI 团队中,数据科学家最基本的任务场景包括定义目标、准备数据、分析和整理数据以提取重要见解,并使其适合建模。然后,开发机器学习模型来解决定义的问题,并使用测试数据集验证其性能。这个过程是迭代的:如果当前模型表现不如预期,专家会返回到数据收集或模型训练阶段以改进结果。想象一下,这个过程如果在去中心化环境中进行,最先进的现有框架和工具在 Web3 中适配就变得不容易了。
另一个在链上训练 AI 模型的问题是,相较于推理,这个市场要无趣得多。目前,AI 大型语言模型的训练需要大量的 GPU 计算资源。从长远来看,推理将成为 GPU 的主要应用场景。试想为了满足全球需求,需要训练多少个 AI 大型语言模型,与使用这些模型的客户数量相比,哪个又更多?
设想#2:使用过度冗余的 AI 推理计算来达成共识
关于加密与 AI 的另一个挑战是验证 AI 推理的准确性,因为你无法完全信任单一的中心化方来执行推理操作,节点存在可能出现不当行为的潜在风险。这种挑战在 Web2 AI 中不存在,因为没有去中心化共识系统。
解决方案是冗余计算,让多个节点重复同样的 AI 推理操作,这样可以在无需信任的环境中运行,避免单点故障。
然而这种方法的问题在于,高端 AI 芯片极度短缺。高端 NVIDIA 芯片的等待时间长达数年导致价格上涨。如果你要求 AI 推理在多个节点上多次重新执行,那么就会成倍增加高昂成本,这对许多项目来说是不可行的。
设想#3:近期特定于 Web3 的 AI 用例
有人建议 Web3 应该有自己独特的、专门针对 Web3 客户的 AI 用例。这可以是(例如)使用 AI 对 DeFi 池进行风险评分的 Web3 协议、根据钱包历史记录为用户建议新协议的 Web3 钱包,或者使用 AI 控制非玩家角色的 Web3 游戏( NPC)。
目前来看,这是一个初创市场(在短期内),其中使用案例仍在探索阶段。一些挑战包括:
- 由于市场需求仍处于起步阶段,Web3 原生用例所需的潜在 AI 交易较少。
- 客户较少,与 Web2 客户相比,Web3 客户少了几个数量级,因此市场的去中心化程度较低。
- 客户本身不太稳定,因为他们是资金较少的初创公司,一些初创公司可能会随着时间的推移而消亡。而满足 Web3 客户的 Web3 AI 服务提供商可能需要重新获得部分客户群,以取代那些已经消失的客户群,这使得扩展业务变得极具挑战性。
长远来看,我们非常看好 Web3 原生的 AI 用例,特别是随着 AI 代理变得更加普遍。我们想象未来任何特定的 Web3 用户都会有大量的 AI 代理,来帮助自己完成任务。
设想#4:消费级 GPU DePIN
有许多依赖消费级 GPU 而不是数据中心的去中心化 AI 计算网络。消费类 GPU 非常适合低端 AI 推理任务或延迟、吞吐量和可靠性灵活的消费用例。但对于严肃的企业用例(这是重要的市场的大多数),与家用机器相比,客户需要更高可靠性的网络,并且如果他们有更复杂的推理任务,通常需要更高端的 GPU。数据中心更适合这些更有价值的客户用例。
请注意,我们认为消费级 GPU 适用于演示,以及能够容忍较低可靠性的个人和初创企业。但这些客户价值较低,因此我们认为专为 Web2 企业定制的 DePINs,长期来看将更有价值。因此,GPU DePIN 项目已经从早期主要使用消费级硬件,发展为具备 A100/H100 和集群级可用性的情况。
现实——加密货币 x AI 的实际用例
现在我们讨论能提供真正好处的用例。这些才是真正的胜利,加密货币 x AI 可以增加明显的价值。
真正好处#1:为 Web2 客户提供服务
麦肯锡估计,在分析的 63 个用例中,生成式 AI 每年可以增加相当于 2.6 万亿至 4.4 万亿美元的收入——相比之下,英国 2021 年 GDP 总额为 3.1 万亿美元。这将使 AI 的影响力增加 15% 至 40%。如果我们将生成式 AI 嵌入到目前用于用例之外的其他任务软件中的影响考虑在内,估计影响力大约会增加一倍。
如果你根据上述估计进行计算,这意味着全球 AI(超越生成 AI)的总市场价值可能达到数十万亿美元。相比之下,今天所有加密货币(包括比特币和所有山寨币)的总价值仅为 2.7 万亿美元左右。因此,让我们面对现实吧:短期内需要 AI 的绝大多数客户将是 Web2 客户,因为真正需要 AI 的 Web3 客户将只占这 2.7 万亿美元的一小部分(考虑到 BTC 是这个市场,比特币本身不需要 / 使用 AI)。
Web3 AI 用例才刚刚开始,目前还不清楚该市场规模有多大。但有一点是肯定的——可预见的未来,它仅占 Web2 市场中的一小部分。我们相信 Web3 AI 仍然有光明未来,但这仅仅意味着 Web3 AI 目前最强大的应用是服务 Web2 客户。
假设可以从 Web3 AI 中受益的 Web2 客户示例包括:
- 从头开始构建以 AI 为中心的垂直特定软件公司(例如 Cedar.ai 或 Observe.ai)
- 为了自己目的而微调模型的大型企业(例如 Netflix)
- 快速增长的 AI 提供商(例如 Anthropic)
- 将 AI 融入现有产品的软件公司(例如 Canva)
这是相对稳定的客户角色,因为客户通常规模大且有价值。他们不太可能很快倒闭,而且他们代表了 AI 服务的巨大潜在客户。为 Web2 客户提供服务的 Web3 AI 服务将受益于这些稳定的客户群。
但为什么 Web2 客户想要使用 Web3 堆栈呢?这篇文章的接下来部分阐述了这种情况。
真正好处#2:通过 GPU DePIN 降低 GPU 使用成本
GPU DePIN 聚合了未充分利用的 GPU 计算能力(其中最可靠的来自数据中心),并使其可用于 AI 推理。类比该问题的简单方法是「GPU 中的 Airbnb」。
我们对 GPU DePIN 感到兴奋的原因是,如上所述,NVIDIA 芯片短缺,而且目前有浪费的 GPU 周期可用于 AI 推理。这些硬件所有者付出沉没成本,并且目前没有充分利用设备,因此与现状相比,可以以低得多的成本提供这些部分 GPU ,因为这实际上为硬件所有者「找到了钱」。
示例包括:
- AWS 机器。如果你今天要从 AWS 租用 H100,则必须承诺为期 1 年的租赁,因为市场供应有限。这会产生浪费,因为你可能不会每年 365 天、每周 7 天都使用 GPU。
- Filecoin 挖矿硬件。 Filecoin 有大量补贴供应但没有大量实际需求。Filecoin 从未找到真正产品市场契合点,因此 Filecoin 矿工面临倒闭的风险。这些机器配备 GPU,可以重新用于低端 AI 推理任务。
- ETH 挖矿硬件。当以太坊从 PoW 过渡到 PoS 时,这就快速释放了大量硬件,可以重新用于 AI 推断。
注意,并非所有 GPU 硬件都适合 AI 推理。造成这种情况的一个明显原因是,较旧的 GPU 没有 LLMs 所需的 GPU 内存量,尽管已经有一些有趣的创新可以在这方面提供帮助。例如,Exabits 的技术可以将活动神经元加载到 GPU 内存中,将不活动神经元加载到 CPU 内存中。他们预测哪些神经元需要活跃 / 不活跃。这使得低端 GPU 能够处理 AI 工作负载,即使 GPU 内存有限。这有效地使低端 GPU 对于 AI 推理更加有用。
Web3 AI DePINs 需随着时间的推移发展其产品,并提供企业级服务,例如单点登录、SOC 2 合规性、服务级协议(SLA)等。这类似于当前云服务提供商为 Web2 客户提供的服务。
真正好处#3:抗审查的模型以避免 OpenAI 自我审查
关于 AI 审查制度的讨论很多。例如土耳其暂时禁止了 OpenAI(后来 OpenAI 提高了合规性,他们就改变了做法)。我们认为国家级的审查制度是无趣的,因为各国需要采用 AI 来保持竞争力。
OpenAI 也会进行自我审查。例如,OpenAI 不会处理 NSFW 内容。 OpenAI 也不会预测下一次总统选举。我们认为 AI 用例不仅有趣,而且市场巨大,但 OpenAI 出于政治原因不会触及该市场。
开源是个很好的解决方案,因为 Github 存储库不受股东或董事会的影响。 Venice.ai 就是一例,它承诺保护隐私并以抗审查的方式运营。 Web3 AI 可以有效地提升其水平,即在成本较低的 GPU 集群上为这些开源软件 (OSS) 模型提供支持,以执行推理。正是由于这些原因,我们相信 OSS + Web3 为抗审查的 AI 铺平道路的理想组合。
真正好处#4:避免向 OpenAI 发送个人身份信息
大型企业对其内部数据存在隐私担忧。对于这些客户来说,信任 OpenAI 第三方拥有这些数据可能很难。
Web3 中,对这些企业来说,他们的内部数据突然出现在去中心化网络上,可能看起来更加令人担忧(表面上)。然而,针对 AI 的隐私增强技术中存在创新:
可信执行环境(TEE),例如 Super Protocol
全同态加密 (FHE),例如 Fhenix.io(Hack VC 管理的基金的投资组合公司)或 Inco Network(均由 Zama.ai 提供支持),以及 Bagel 的 PPML
这些技术仍在不断发展,并且通过即将推出的零知识 (ZK) 和 FHE ASIC,性能仍在不断提高。但长期目标是在微调模型时保护企业数据。随着这些协议的出现,Web3 可能会成为隐私保护 AI 计算更具吸引力的场所。
真正好处#5:利用开源模型的最新创新
过去几十年来,开源软件一直在蚕食专有软件的市场份额。我们将 LLM 视为某种专有软件形式,足以破坏 OSS。值得注意的挑战者例子包括 Llama、RWKV 和 Mistral.ai。随着时间的推移,这个列表无疑会不断增长(更全面的列表可以在 Openrouter.ai 上找到)。通过利用 Web3 AI(由 OSS 模型提供支持),人们可以利用这些新的创新来创新。
我们相信,随着时间的推移,开源的全球开发队伍与加密货币激励措施相结合,可以推动开源模型以及建立在其之上的代理和框架的快速创新。 AI 代理协议的一个例子是 Theoriq。 Theoriq 利用 OSS 模型创建一个可组合的 AI 代理互连网络,可以将其组装起来创建更高级别的 AI 解决方案。
我们之所以对此充满信心,是因为过去,随着时间的推移,大多数「开发者软件」的创新慢慢被 OSS 超越。微软曾经是一家专有软件公司,现在他们是为 Github 做出贡献的排名第一的公司。这是有原因的,如果你看看 Databricks、PostGresSQL、MongoDB 和其他公司如何颠覆专有数据库,那就是 OSS 颠覆整个行业的一个例子,所以这里的先例非常有说服力。
然而,这其中也有一个问题。开源大型语言模型(OSS LLMs)的一个棘手之处在于,OpenAI 已经开始与一些组织签订付费数据许可协议。如果这一趋势继续下去,开源大型语言模型可能会因为获取数据的财务障碍而更难以竞争。Nvidia 可能会进一步加强对保密计算的投入,以作为安全数据共享的助力。时间将揭示这一切的发展。
真正好处#6:通过高削减成本的随机抽样或通过 ZK 证明达成共识
Web3 AI 推理的挑战之一是验证。假设验证者有机会欺骗他们的结果来赚取费用,因此验证推论是一项重要措施。请注意,这种作弊行为实际上尚未发生,因为 AI 推理还处于起步阶段,但除非采取措施抑制这种行为,否则这是不可避免的。
标准的 Web3 方法是让多个验证器重复相同的操作并比较结果。如前所述,这一问题面临的突出挑战是,由于目前高端 Nvidia 芯片的短缺,AI 推理的成本非常昂贵。鉴于 Web3 可以通过未充分利用的 GPU DePIN 提供更低成本的推理,冗余计算将严重削弱 Web3 的价值主张。
更有前途的解决方案是为链下 AI 推理计算执行 ZK 证明。在这种情况下,可以验证简洁的 ZK 证明,以确定模型是否经过正确训练,或者推理是否正确运行(称为 zkML)。例子包括 Modulus Labs 和 ZKonduit。由于 ZK 操作是计算密集型的,因此这些解决方案的性能仍处于初级阶段。不过,我们预计随着 ZK 硬件 ASIC 在不久的将来发布,情况会得到改善。
更有希望的是一种,有点「Optimistic」基于采样的 AI 推理方法设想。在这个模型中,只需验证验证者生成结果的一小部分即可,但将大幅削减的经济成本设置得足够高,这样如果被发现,就会对验证者的作弊产生强大的经济抑制作用。通过这种方式,你可以节省冗余计算。
另一个有前途的设想是水印和指纹解决方案,例如 Bagel Network 提出的解决方案。这类似于 Amazon Alexa 为其数百万台设备提供设备内 AI 模型质量保证的机制。
真正好处#7:通过 OSS 节省费用(OpenAI 的利润)
Web3 为 AI 带来的下一个机会是成本民主化。到目前为止,我们已经讨论了通过 DePIN 节省 GPU 成本。但 Web3 还提供了节省中心化 Web2 AI 服务利润率的机会(例如 OpenAI,截至撰写本文时,其年收入超过 10 亿美元)。这些成本节省来自于这样一个事实:使用 OSS 模型而不是专有模型来实现额外的节省,因为模型创建者并不试图盈利。
许多 OSS 模型将保持完全免费,从而为客户带来最佳的经济效益。但可能也有些 OSS 模型也在尝试这些货币化方法。考虑一下 Hugging Face 上所有模型中只有 4% 是由有预算来帮助补贴模型的公司训练的。其余 96% 的模型由社区训练。这个群体(96% 的 Hugging Face)具有基本的实际成本(包括计算成本和数据成本)。因此,这些模型将需要以某种方式货币化。
有一些提议可以实现开源软件模型的货币化。其中最有趣的之一是「初始模型发行」的概念,即将模型本身进行代币化,保留一部分代币给团队,将模型未来的一些收入流向代币持有者,尽管在这方面肯定存在一些法律和监管障碍。
其他 OSS 模型将尝试通过使用来货币化。请注意,如果这成为现实,OSS 模型可能会开始越来越类似于其 Web2 盈利模型。但实际上,市场将分为两部分,一些模型仍然完全免费。
真正好处#8:去中心化的数据源
AI 面临的最大挑战之一是寻找正确的数据来训练模型。我们之前提到去中心化 AI 训练有其挑战。但是使用去中心化网络来获取数据怎么样(然后可以将其用于其他地方的训练,甚至在传统的 Web2 场所)?
这正是像 Grass 这样的初创公司正在做的事情。 Grass 是一个由「数据抓取者」组成的去中心化网络,这些人将机器的闲置处理能力贡献给数据源,为 AI 模型的训练提供信息。假设,从规模上看,由于大型激励节点网络的强大力量,这种数据源可以优于任何一家公司的内部数据源工作。这不仅包括获取更多数据,还包括更频繁地获取数据,以使数据更加相关和最新。事实上,阻止去中心化的数据抓取大军也是不可能的,因为它们本质上是去中心化的,并且不驻留在单个 IP 地址内。他们还有个可以清理和标准化数据的网络,以便数据在被抓取后有用。
获得数据后,你还需要位置将其存储在链上,以及使用该数据生成的 LLMs。
注意,未来数据在 Web3 AI 中的作用可能会发生变化。如今,LLMs 的现状是使用数据预训练模型,并随着时间的推移使用更多数据对其进行完善。 然而,由于互联网上的数据是实时变化的,这些模型总是有点过时。 因此,LLM 推断的响应稍微不准确。
未来的发展方向可能是一种新范式——「实时」数据。这个概念是,当一个大型语言模型(LLM)被问到推理问题时,LLM 可以通过提示传输并注入数据,而这些数据是实时从互联网重收集的。这样,LLM 可以使用最新的数据。Grass 就在研究这部分内容。
以上就是脚本之家小编给大家分享的Crypto+AI有什么好处?盘点值得关注的十大Crypto+AI趋势的详细解读了,希望大家喜欢!
本站提醒:投资有风险,入市须谨慎,本内容不作为投资理财建议。