AI系统必须从底层架构着手打造透明度,运用区块链账本与确定性沙盒技术构建可验证、可追溯的基础设施。
值得信赖的人工智能的未来依赖于构建具有自身证据的架构,使得透明度与可审计性成为系统的核心特性,而非之后的补丁。
观点
观点作者:Avinash Lakshman,Weilliptic 创始人兼首席执行官
现代科技文化倾向于优先解决令人兴奋的创新——诸如复杂的模型和吸引人的功能——而将问责与道德规范视为未来的附加事项。然而,当AI的基础架构缺乏透明度时,任何事后修复都无法根本性地阐明或改善输出的生成逻辑及其操控方式。
这也是为什么我们会看到像Grok自称“假埃隆·马斯克”、以及Anthropic的Claude Opus 4在意外删除公司关键代码库后诉诸谎言和恫吓的事件。尽管媒体头条会归咎于提示工程、内容政策或企业文化,但根本原因在于架构性的缺陷。
我们应要求系统在设计之初就不是为了审查而存在,而是让透明度成为其固有特性。如果希望公众信任AI,基础设施必须能提供可验证的证明,而非仅仅是承诺。
当透明度融入AI的基础架构时,信任成为推动创新的动力,而非限制手段。
在消费者技术领域,道德问题通常被视为产品规模化后需要补救的“发布后”事项。这就像在未确认基础地基符合规范之前就建造一座30层的办公楼,虽然可能暂时幸运,但潜在风险会逐渐积累,直至爆发。
同样,中心化AI工具也不能例外。当模型被用来审批欺诈信贷或产生误诊结果时,利益相关者有权要求详细的审计追踪。具体包括:哪些数据支撑了决策?模型由谁微调?微调过程如何?哪些安全措施失败了?
然而,许多现有平台依赖的AI系统并未设计为保留这些记录,因此相关审计信息往往缺失或无法追溯。
好消息是,目前已存在实现AI信任与透明的方法。强制执行可信机制的一种途径是基于确定性沙盒环境。例如:所有AI代理在WebAssembly中运行,保证在相同输入下始终输出相同结果,便于监管和责任追溯。
每次沙盒状态变化后,系统都会生成加密哈希,由验证者签名和验证,将这些记录写入区块链账本,确保不可篡改。这使得任何一方都不能篡改历史记录,所有操作都能溯源。
由于代理的工作状态和模型参数(如训练数据指纹、模型权重)都在同一透明账本中注册,任何版本的确切血统都可以被验证。这对AI调用外部系统时,也提供了加密凭证和策略控制,保证每次交互的合法性和可追溯性。
如此一来,区块链账本确保了系统的不可变性和验证性,确定性沙盒排除非可重现行为,而策略引擎有效限制代理的操作范围,实现道德标准的可验证性。这不仅提升了系统的安全性,也加快了创新步伐。
例如,定义一个数据生命周期管理代理,它可以安全地对生产数据库进行快照、加密存档,并在链上记录每一步操作,甚至在数月后处理用户的删除请求,确保全过程可追溯且符合合规要求。每个快照的哈希值、存储位置及删除确认都实时加入区块链,让IT和审计团队无需费力筛查分散的日志或依赖供应商仪表盘,就能验证数据的完整性和合规状态。
这些示例仅仅展示了面向证明的自主AI基础架构如何在保护企业利益的同时,推动新型的成本节约和价值创造。
近期的AI失败案例并未暴露单一模型的缺陷,而是“黑箱”系统固有的问责空白——因为问责从未被作为设计核心。
搭载自身证据的系统将实现从“信我”到“自己查证”的转变。这对于监管机构、用户、以及高管们而言尤为重要,确保每个决策都可追溯和验证。
在未来,决策将以机器速度作出,若这些决定依然不透明,则意味着每个新模型都带来新的责任风险。
将透明度和可审计性作为系统的硬性设计属性,AI的自主性与问责制将得以无缝共存,而非相互制约。
观点作者:Avinash Lakshman,Weilliptic 创始人兼CEO
相关阅读:Grok、DeepSeek在加密交易竞赛中超越ChatGPT和Gemini
本文仅为信息分享,不构成法律或投资建议。文中观点仅代表作者个人,可能不反映Cointelegraph的官方立场。











