区块链领域正面临过时数据基础设施的挑战,这些挑战严重阻碍了去中心化金融(DeFi)的进步。具体而言,现有的技术瓶颈限制了DeFi平台进行实时交易的能力,并阻碍了其进一步的规模化扩展。为了克服这些限制,开发和部署下一代数据解决方案变得至关重要,这将为DeFi的未来发展奠定坚实的基础。
在高性能区块链迅速发展的同时,传统数据基础设施却未能跟上,这给去中心化金融(DeFi)的未来带来了严峻挑战。若不进行彻底的改革,创新发展和市场接受度将会停滞不前。
作者:Maxim Legg,Pangea创始人兼CEO
目前,区块链行业正面临着基础设施的重大挑战。尽管我们称赞理论上的高交易速率和去中心化的理念,然而,依赖RPC的系统和传统索引方法却引发了显著的延迟问题。设想一下,如果在Web2应用中,20秒的加载时间被认为是不可接受的,那么我们为何要在Web3环境中妥协呢?
数据显示,53%的用户会在网站加载超过三秒后选择退出,这表明我们行业对延迟的普遍忍耐实际上威胁到了大规模采用的生存空间。
慢速的交易处理不仅仅是影响用户体验的问题。像Aptos这样的高性能公链每秒可处理数千笔交易,然而,我们却在尝试通过“科学怪人式索引器”来访问这些数据——这些系统由Postgres和Kafka等工具拼凑而成,这些工具本质上并未被设计用来满足区块链的独特需求。
这些问题带来的后果远远超出单纯的延迟。现有索引解决方案迫使开发团队面临一个两难的选择:要么构建定制的基础设施(可能耗费高达90%的开发资源),要么接受现有工具的严重局限性。这种情况导致了一个性能悖论:区块链运行得越快,数据基础设施的瓶颈就愈加明显。
在实际市场环境中,当做市商需要执行跨链套利交易时,他们不仅要与其他交易者竞争,还要与自身的基础设施限制作斗争。每一毫秒的节点轮询或状态更新的等待时间都代表着错失的机会和潜在的收益损失。
这不再是理论问题。目前,主要的交易机构正在运营数百个节点,仅仅是为了维持具竞争力的反应时间。当市场需求达到峰值性能时,基础设施的瓶颈便成为关键的失效点。
传统的自动做市商机制或许能满足低交易量的代币对,但根本不足以支撑机构级别的交易需求。
如今,大多数区块链索引器更合适地被称为数据聚合器,它们构建了过于简化的链上状态视图,虽然适用于基础场景,但在高负载环境下性能迅速崩溃。这种方法虽然能够应对第一代DeFi应用,但在处理多个高性能公链上的实时状态变化方面则显得无能为力。
解决方案需要从根本上重新审视我们如何处理区块链数据。下一代系统必须能直接将数据推送给用户,而不是通过传统数据库架构集中访问,这样才能实现本地处理,以获得真正的低延迟性能。每一个数据点都需要有可验证的来源,且通过时间戳和证明确保其可靠性,并降低被操控的风险。
一场根本性的转变正悄然进行。随着区块链速度的提升及gas费用的降低,像衍生品这样的复杂金融产品在链上变得越来越可行。而衍生品被用于价格发现的过程,主要发生在中心化交易所。随着区块链变得更快更经济,衍生品协议将成为价格发现的主要场所。
这些转变对基础设施提出了更高的要求,需要在“眨眼之间”(100至150毫秒内)传输数据。这一时间阈值并不是随意设定的,而是人类对延迟感知的临界点。任何超出这一阈值的延迟都将从根本上限制去中心化金融的发展潜力。
目前,过度依赖节点轮询和延迟不一致的模式无法满足严格金融应用的扩展需求。我们已经观察到重要交易机构正在构建日益复杂的定制解决方案,这清楚地表明现有基础设施无法满足市场需求。
随着更高效的区块链和更低的gas费用使复杂金融工具成为可能,实时流式传输状态变化的能力对于市场效率至关重要。当前以数秒的延迟聚合数据的模式,从根本上限制了去中心化金融的发展潜力。
新兴区块链正在将数据吞吐量推向前所未有的水平。如果没有相应的数据基础设施的进步,我们就会制造出连接着自行车轮子的法拉利引擎——拥有强劲的动力却无法有效发挥其性能。
市场将会迫使这种变革的发生。那些无法适应的参与者将在生态系统中逐渐失去相关性。在这个生态系统中,实时数据访问不再是奢侈品,而是参与的基本必要条件。
观点来源:Pangea创始人兼CEO Maxim Legg
相关推荐:赋能社区并塑造加密货币的未来