AI驱动的DeFi带来了新的安全隐患,因此必须进行透明且严谨的审计以确保去中心化系统的安全。
AI驱动的去中心化金融(DeFi)引入了新的安全风险,这需要通过透明且严格的审计来保护去中心化系统的安全。
观点作者:Jason Jiang,CertiK首席商务官
自从去中心化金融(DeFi)生态系统问世以来,它一直以创新为特征,从去中心化交易所(DEX)、借贷协议到稳定币等不断涌现的技术。
最近的创新是DeFAI,即由人工智能驱动的DeFi。在DeFAI中,自主机器人基于大数据集进行训练,能够通过执行交易、管理风险和参与治理协议,显著提高效率。
然而,就如所有基于区块链的创新一样,DeFAI也可能引入新的攻击向量,因此加密社区必须积极应对这些问题,以提高用户的安全性。这意味着必须深入分析由于创新而可能出现的漏洞,以确保安全。
在区块链中,大多数智能合约通常基于简单的逻辑进行运作,比如“如果发生X,那么执行Y。”由于其固有的透明性,此类智能合约可以被有效审计和验证。
相对而言,DeFAI偏离了传统智能合约的结构,其AI代理往往是基于概率的。这些AI代理依据不断变化的数据集、历史输入和上下文来做出决策。它们能够解读信号并进行自我调整,而不是仅仅按照预设条件反应。尽管这可能为某些人提供了复杂的创新,但其固有的不确定性却为潜在的错误和漏洞提供了滋生环境。
迄今为止,去中心化协议中已经出现了一些AI驱动交易机器人的早期迭代,标志着DeFAI的逐步转向。例如,用户或去中心化自治组织(DAO)可以利用机器人快速扫描特定市场模式,并在几秒钟内进行交易。尽管这些机制听上去很具创新性,但大部分机器人仍然在Web2的基础设施上运行,这使得Web3面临着集中化单点故障的风险。
在这种变化可能带来行业尚未准备好应对的新攻击面的背景下,行业不应仅仅沉浸在将AI融入去中心化协议的兴奋之中。恶意行为者可能通过操纵模型、数据投毒或对抗性输入攻击来利用AI代理。
例如,可以通过训练AI代理以识别DEX之间的套利机会来说明这一点。
威胁活动者可能篡改输入数据,导致代理执行毫无利润的交易,甚至从流动性池中提取资金。此外,被攻破的代理不仅可能会误导协议,并传播虚假信息,还能成为更大攻击的起点。
这些风险因大多数AI代理目前的黑箱性质而加剧,就连开发者也难以透明地了解所创建AI代理的决策逻辑。
这种状况与Web3基本理念背道而驰,因为Web3强调透明性与可验证性。
鉴于这些风险,有人可能会对DeFAI的影响表示忧虑,甚至呼吁暂停这一发展。尽管如此,DeFAI可能会继续演进并获得更高的用户采纳。因此,行业需要相应调整其安全策略。涉及DeFAI的生态系统需要有标准化的安全模型,在此模型中,开发者、用户和第三方审计师共同确定维护安全和降低风险的最佳方式。
AI代理必须像其他链上基础设施一样受到审视和审计。这要求对其代码逻辑进行严格审计、模拟最坏情况,甚至利用红队演习在恶意行为者利用之前揭示潜在攻击向量。此外,行业必须确立透明度标准,包括开源模型和文档。
无论行业如何看待这一转变,DeFAI在去中心化系统的信任方面引入了新问题。当AI代理能够自主持有资产、与智能合约交互并对治理提案投票时,信任不仅仅是验证逻辑的问题,更是验证意图的问题。这引发了用户如何确保代理的目标与他们的短期和长期目标相一致的必要探讨。
前进的道路应当是跨学科的解决方案。诸如零知识证明等密码学技术可以帮助验证AI行为的完整性,链上证明框架能够追踪决策的源头。最终,具有AI元素的审计工具应如同开发者目前审查智能合约代码一样全面地评估代理的运行。
然而,现实是,行业尚未完全达到这一目标。目前,严格的审计、透明度和压力测试仍然是实现安全的最佳防御措施。因此,参与DeFAI协议的用户应当验证所涉及的协议在其驱动AI逻辑中是否遵循这些原则。
DeFAI本身并并非不安全,但与当前大多数Web3基础设施相比,其采用速度存在超越现有安全框架的风险。正如加密行业所经历的——通常是通过艰难的教训——缺乏安全性的创新最终会导致灾难性的后果。
鉴于AI代理能够代表用户进行操作、持有他们的资产并影响协议的未来,行业必须意识到:每一行AI逻辑仍然是代码,而每一行代码都有可能被利用。
如果希望DeFAI能够在不损害安全性的前提下进行采纳,必须在设计阶段就考虑安全性和透明度。任何不足之处都可能导致去中心化所要避免的结果。
观点作者:Jason Jiang,CertiK首席商务官。
相关推荐:以太坊基金会(Ethereum Foundation)推出"以太坊隐私管理员"及其路线图
本文仅供一般信息目的,不构成法律或投资建议。此处表达的观点、想法和意见仅代表作者个人立场,不一定反映或代表Cointelegraph的观点和意见。