随着人工智能从被动响应指令的工具进化为可自主执行任务的智能体,人类在数字世界的控制权正面临被架空的潜在风险。
国外黑客新闻网(The Hacker News)1月24日发布的文章指出,AI智能体与人类用户、传统服务账户存在本质区别,导致现有访问权限和审批模型全面失效。实际操作中,为提升AI任务执行效率,系统赋予智能体的权限往往高于用户本人,这种“访问权限漂移”可能导致AI在用户不知情、未授权的情况下,执行技术层面合法但违背用户自主意愿的操作。当AI的技术权力事实上凌驾于人类用户之上时,人类数字主权边界将被悄然打破,权力出现隐形流失。
德勤在1月21日发布的报告中指出,当前AI的“代理权”已超越安全防御措施,全球仅有20%的公司建立了成熟的AI智能体治理模型。多数企业和个人在将控制权交给AI时缺乏有效的权限防护机制,进一步加剧了人类主权被架空的风险。
为重塑人机权限契约边界,全球技术治理者正推动将可信属性写入AI底层设计。新加坡资媒局(IMDA)1月22日发布的《智能体AI治理框架》提出“有意义的监督”核心概念,指出仅设置人工确认按钮无法实现有效控制,AI需让用户清晰知晓决策意图和可能产生的后果。
《福布斯》杂志介绍,目前技术界推崇“双重授权”架构,将AI的数据“访问权”与结果“行动权”分离。AI可协助完成资料查询、方案起草等基础任务,但在涉及支付、签约或隐私修改的关键环节,需触发独立验证机制,将最终决策权交还给人类,确保技术始终作为人类意志的延伸而非替代。
伴随AI成长的“AI原生代”已产生自主意识觉醒诉求,不再倾向于将全部私人数据交付云端,而是要求AI在本地化、私有化基础设施上运行。德勤报告提到的“主权AI”正演变为个人需求,用户希望自主控制AI的数据访问范围、塑造AI行为模式,并能在不丢失数据的前提下随时终止使用。
未来AI的“代理权”竞争将聚焦合法性维度,能够证明自身有所不为、将控制权交还给用户的平台,才能真正获得用户信任,占据数字世界的控制权高地。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
来源:市场资讯