安全是“AI超人”的必修课
创始人
2026-03-07 19:52:00

文丨维 辰

AI发展的核心问题是什么?全国政协委员、奇安信科技集团董事长齐向东认为是安全问题。日前,他在接受采访时表示,AI向“超人化”演进,带来的新风险突出,更须注重创新与安全的动态平衡。

AI在许多领域都呈现出比肩甚至超越人类的能力。然而,比能力更重要的,是将能力用到哪里。在人类社会,一个有才无德、滥用能力之人的社会危害性会远高于能力匮乏者。AI没有意识,更没有德行一说,但其能够被人操纵,自身也有安全水平差异,“AI超人”的能力也会起到不同作用。比如,不法分子用AI伪造视频实施诈骗,若视频还是存在一只手有六根手指等破绽,欺骗性会低很多,反之则会给更多人带来损失。所以说,“AI超人”与“能人”一样,朝着正确方向前进,能力才是美事。

随着AI从信息智能到物理智能、生物智能,安全风险也陡增——如今,许多人有疑问会先“咨询”大语言模型,有些AI“一本正经地胡说八道”。而拥有超级权限、超级能力的AI智能体一旦“做错事”,会直接造成损失。最近,Meta一名AI安全研究员被AI智能体OpenClaw删除数百封邮件,连输3次停止指令都刹不住,就将AI智能体的安全黑洞暴露在公众面前。对具有“智能决策+物理执行”双重属性的具身智能,也须警惕“大脑”混乱、被非法控制等因素影响其现实操作,甚至做出危险动作。齐向东所说“AI发展的核心问题就是安全问题”,合理性正在于此。

从用户视角看,网友之所以对换脸软件高度警惕,医院、银行等单位之所以对AI持谨慎态度,即便是“发烧友”也尽可能少地向智能体开放权限,更多是因为其不够“可靠”,让人缺乏安全感。值得一提的是,“HALO(重资产、低淘汰率)”交易近期引发狂欢,就有“AI焦虑”的推动。可见,安全水平而非技术水平,才是限制AI发展的天花板。

AI安全没有天花板的另一重理解是,创新与安全的张力长期存在。有人认为,大语言模型的幻觉与泛化是同一枚硬币的两面,也有人认为不同类型的幻觉源于不同机制,但AI还存在不可解释的“黑箱”是共识。此外,大语言模型等AI应用的能力跃迁不是线性的,而是达到一定规模后的“涌现”,这对治理能力和效率提出了更高要求。为此,需要“内外兼修”,推动“AI超人”发挥正向作用。

相关内容

热门资讯

原创 黄... 黄磊和孙莉带着他们的二女儿以及刚出生的三胎儿子,一家四口悠闲地游玩广东。自从嫁入黄磊的家庭后,孙莉几...
【安庆新闻联播】春茶采摘正当时... 安庆各地立足生态资源禀赋和茶产业基础,以茶旅融合为主线,推动生态优势向产业优势、发展优势转化,走出一...
南京位列五一酒店预订热门目的地... 近日,同程旅行发布的《2026年五一旅行趋势报告》显示,南京位列五一假期酒店预订热门目的地TOP2,...
旅行是疲惫生活的解药:2026... 旅行,是我们给自己的温柔奖励 会不会你也常常有感觉到些许疲惫的时候呢,日子被工作以及那些琐碎的事情给...
暑假带孩子来伊犁研学?这份哈萨... 暑假带孩子来伊犁研学?这份哈萨克非遗与草原生态深度游攻略请收好! 每年暑假,都有许多像您一样的家长,...