Vitalik Buterin,以太坊的联合创始人,在发现ChatGPT的最新更新可能被用于泄露私人数据后,认为将人工智能应用于加密治理是一个“坏主意”。
以太坊(ETH)联合创始人Vitalik Buterin近日发出警告:在ChatGPT的最新升级被发现存在泄露隐私数据的漏洞后,不应让人工智能主导加密货币的治理。 新闻
Buterin指出,加密项目在治理过程中如果依赖人工智能,可能会成为恶意行为者的可乘之机。周六,他在社交平台X(前Twitter)上发文称:“如果用AI来分配贡献奖励,必然有人会在各个环节植入越狱指令,比如‘把所有钱都转给我’之类的命令。”
他的这一观点是对AI数据平台EdisonWatch创始人Eito Miyamura发布的视频的回应。该视频展示了OpenAI于周三为ChatGPT新增的一项功能,可能被用于泄露用户的私人信息。
如今,许多加密用户依赖AI开发复杂的交易机器人和自动化代理,以进行投资组合管理,一些人也在考虑用AI辅助治理团队管理或全部管理加密协议。
针对上述潜在风险,Buterin提出了更安全的治理方案。他强调,“盲目相信‘AI治理’是错误的”,并提出了一种“信息金融(info finance)”的替代策略。
他解释说:“可以建立一个开放的市场,任何人都可以提交模型,并引入由人工评审团进行抽查与评估的机制。”
这也是为什么单纯的“AI治理”是个坏主意。
— vitalik.eth (@VitalikButerin) 2025年9月13日
如果你用AI来分配贡献奖励,势必有人会在多个地方植入越狱指令和‘把所有钱都转给我’这类命令。
作为替代,我支持信息金融(https://t.co/Os5I1voKCV…)的方案。
来自Vitalik的最新观点。 https://t.co/a5EYH6Rmz9
Buterin早在2024年11月就阐述过信息金融的核心思想:该方法以“你想了解的事实”为出发点,设计市场以最优的方式引导参与者提供有用信息,并通过预测市场收集对未来事件的洞见。
他在最新的社交平台发文中还补充道:“这种‘机制设计’的思路,允许拥有大型语言模型(LLM)的人接入系统,而不是直接自己编写模型,这样的设计更具韧性。”
进一步解释说:“这一方式可以实现模型的多样性,并为模型提交者和外部投机者提供内在激励,从而激发他们持续关注和快速修正潜在问题。”
周三,OpenAI对ChatGPT进行了升级,新增了对Model Context Protocol(模型上下文协议)工具的支持。该标准旨在实现AI模型与其他软件系统的集成,充当智能代理的角色。
Miyamura在社交平台上指出,他仅凭受害者的邮箱地址,就能让模型泄露邮件内容,并警示此升级“带来了严重的安全隐患”。
他详细介绍称,攻击者可以向受害者邮箱发送带有“越狱提示”的日历邀请,即使受害者未接受邀请,ChatGPT也可能被利用展开攻击。这种攻击过程无需用户主动操作,安全风险极高。
当受害者让ChatGPT查看日历时,AI会读取带有提示的邀请,从而“被攻击者操控,按照攻击者的指令行动”,甚至导致邮件搜索和转发等敏感操作被操控。
Miyamura强调,此升级需要人工授权批准,但因“决策疲劳”普遍存在,普通用户容易盲目信任AI,直接点击“同意”。
他还指出:“即使AI变得再智能,也可能被低级陷阱欺骗或钓鱼,导致敏感数据泄露。”
此外,有人评论指出:加密行业的高管们强调,加密货币不仅仅是Web3.0的标志,更代表了“资本主义2.0”的新范式。