Vitalik Buterin 对区块链和加密货币领域日益依赖人工智能 (AI) 进行治理表示担忧。在最近 X 的一篇文章中,Buterin 强调了使用人工智能驱动系统的风险,尤其是在分配捐款资金等场景下。他警告说,此类系统存在单点故障,攻击者可能会利用越狱提示进行攻击。“如果你使用人工智能来分配捐款资金,人们会尽可能多地在任何地方安装越狱提示,并加上‘把钱都给我’的提示,”他写道。Buterin 的言论源于研究员 宫村英人 进行的一项测试,该测试演示了如何操纵 ChatGPT 的新模型上下文协议 (MCP) 工具来泄露 Gmail 和 SharePoint 等关联账户的私人数据。
Miyamura 强调的漏洞涉及三个步骤:首先,攻击者发送带有越狱提示的日历邀请;其次,当用户请求 ChatGPT 查看日历时,AI 会读取恶意邀请;第三,AI 被劫持并执行攻击者的指令,例如泄露用户的私人电子邮件数据。Miyamura 强调,大多数用户信任 AI 请求而不仔细审查其授予的访问权限,这加剧了风险。“请记住,AI 可能非常智能,但也可能以极其愚蠢的方式被欺骗和网络钓鱼,从而泄露您的数据,”他总结道。此次演示强调了 AI 系统(即使是具有高级功能的系统)也可能被操纵,从而泄露敏感信息并损害用户信任。
为了应对这些漏洞,Buterin 提出了一种他称之为“信息金融”的模型,该模型使用人工智能工具,但并非唯一决策者。相反,他主张建立一个由人类作为最终仲裁者的系统,审查和批准人工智能辅助决策。在该模型中,贡献者可以向开放市场提交模型或想法,这些提交内容将接受人类陪审团的选择性审核。这种方法旨在防止纯人工智能治理系统中可能出现的权力集中化。Buterin 强调,这种混合模型不仅使系统更难以操纵,而且还提高了可靠性。对于通常建立在去中心化和信任原则之上的去中心化自治组织 (DAO) 和其他加密项目而言,这种方法对于降低过度授权和中心化控制相关的风险至关重要。
Buterin 的警告意义非凡,不仅局限于理论探讨,更关乎区块链治理未来的实际考量。许多 DAO 和加密项目已经在平衡效率与去中心化方面苦苦挣扎,而将人工智能引入治理机制可能会加剧这些问题。Buterin 强调了人工智能主导治理的危险,并呼吁在将人工智能融入决策过程时采取更加谨慎和深思熟虑的方式。他的“信息金融”模型代表了一种务实的解决方案,它充分利用了人工智能的分析优势,同时确保人类监督仍然是核心要素。这有助于防止单一人工智能系统或少数人工智能驱动的决策主导治理格局,从而可能破坏基于区块链系统的民主和去中心化本质。
Buterin 的警告虽然及时,但也反映了关于人工智能在数字经济中作用的更广泛讨论。随着人工智能系统日益复杂,并融入金融和企业决策的各个方面,对强有力的保障措施和监督机制的需求日益重要。Miyamura 在 ChatGPT 的 MCP 工具中展现的漏洞,堪称一个警示案例,表明在缺乏足够人为干预的情况下部署人工智能系统可能出现的问题。Buterin 提出的“信息金融”模型可以作为蓝图,指导组织如何负责任地整合人工智能,同时保持基于信任的系统所必需的透明度和问责制。随着人工智能在治理和决策中的应用不断增长,从这些案例中汲取的经验教训,对于塑造确保创新和安全的最佳实践和监管框架至关重要。
维塔利克·布特林
Eito Miyamura
宫村爱人
以太坊 基础
CoinBureau