AI驱动的DeFi带来了新的安全隐患。为确保去中心化系统的安全,亟需进行透明且严格的审计流程。
AI驱动的去中心化金融(DeFi)带来了新的安全风险,因此需要透明和严格的审计来保护这些去中心化系统。
观点作者:Jason Jiang,CertiK首席商务官
自去中心化金融(DeFi)生态系统问世以来,创新特征一直是其核心,从去中心化交易所(DEX)到借贷协议以及稳定币等。
最新发展是AI驱动的DeFi(DeFAI),在DeFAI中,通过大数据集训练的自主人工智能机器人能够显著提升交易、风险管理和治理协议的效率。
然而,正如所有区块链创新一样,DeFAI也可能引入新的攻击向量,整个加密社区必须认真解决这些问题,以提高用户安全性。这需要深入研究这些创新可能带来的漏洞,以确保整体安全。
在区块链的背景下,大多数智能合约通常基于简单的逻辑运行。例如,“如果X发生,那么Y就会执行。”这些智能合约因其固有的透明性,方便审计和验证。
然而,DeFAI偏离了这种传统的智能合约结构,因为其AI代理是基于概率性的。它们根据不断变化的数据集、先前的输入和上下文做出决策。AI代理能够解析信号并适应环境,而不是仅仅对预设事件作出反应。尽管这种复杂性可能被视为创新的积极因素,但其固有的不确定性却为错误和漏洞提供了滋生土壤。
迄今为止,在去中心化协议中,AI驱动交易机器人的早期应用标志着向DeFAI的转变。例如,用户或去中心化自治组织(DAO)可以利用机器人快速扫描特定市场模式并执行交易。尽管这看起来很有前景,但大部分机器人依然在Web2的基础设施上运行,从而导致Web3承受中心化的单点故障风险。
在这样的转型过程中,行业不应对将AI融入去中心化协议的热情盲目自信,因为这可能创造出行业尚未准备好应对的新攻击面。恶意攻击者可能通过模型操纵、数据投毒或对抗性输入来攻击AI代理。
例如,假设有一个AI代理被训练用于识别DEX之间的套利机会。攻击者可以篡改其输入数据,导致代理执行无效的交易,甚至从流动性池中抽走资金。此外,被攻击的代理可能误导整个协议,使其相信虚假信息,或者成为更大攻击的跳板。
由于大多数AI代理目前都是黑箱,风险变得更加严重。即便是开发这些代理的程序员,他们对AI决策能力的了解也可能有限。
这些问题与Web3的核心理念相悖,因为Web3旨在确保透明性与可验证性。
针对这些风险,尽管可能有人对DeFAI的影响表示担忧,甚至呼吁暂停这一发展,但DeFAI很可能仍会持续发展并获得更高程度的普及。因此,行业需要相应调整其安全方法。在涉及DeFAI的生态系统中,可能需要建立统一的安全模型,开发者、用户和第三方审计师应协作制定维护安全与减少风险的最佳策略。
AI代理应当像其他链上基础设施一样,却需以审慎与审查的态度对待。这包括严格审计其代码逻辑,模拟最坏情境,甚至通过红队演习暴露潜在攻击向量,务必在恶意行为者利用这些漏洞之前进行防范。此外,行业还需确立透明度标准,例如开源模型及相关文档。
无论行业如何看待这一转变,DeFAI在去中心化系统的信任问题上引入了新的挑战。当AI代理可以自主持有资产、与智能合约互动并对治理提议投票时,信任的验证已不再仅限于逻辑的验证,也包括意图的验证。这意味着需要探索用户如何确保代理的目标与其短期和长期利益保持一致。
前进的方向应当是跨学科的解决方案,例如,零知识证明等密码学技术可有助于验证AI行为的完整性,链上证据框架可以追踪决策的来源。最后,集成AI元素的审计工具,能够像当前开发者审查智能合约代码那样,对代理进行全面评估。
然而,目前行业仍未达到这个标准。严格的审计、透明度和压力测试仍然是最佳的防御措施。用户在参与DeFAI协议时,应验证这些协议在驱动其AI逻辑时是否遵循这些原则。
DeFAI本身并不不安全,但与当前大多数Web3基础设施的安全框架相比,其快速的采用可能带来风险。正如加密行业在不断总结经验教训(通常是艰难的方式)中所意识到的那样,缺乏安全性的创新往往会导致灾难。
考虑到AI代理可能很快就会代表用户进行投资、持有资产并影响协议的发展,行业必须坚持一个事实:每一行AI逻辑仍然是代码,每一行代码都可能被恶意利用。
如果DeFAI的采用希望在不牺牲安全性的前提下进行,必须在设计过程中充分考虑安全性和透明度。任何缺陷都有可能导致违背去中心化的初衷。
观点作者:Jason Jiang,CertiK首席商务官。
相关推荐:以太坊基金会推出其“以太坊隐私管理员”及相关路线图。
本文仅供一般信息之用,并不构成法律或投资建议。本文中表达的观点、想法及意见仅代表作者个人立场,不一定反映或代表Cointelegraph的观点和意见。