文 | 明晰野望
当整个科技行业乃至全球经济都将AI奉为颠覆性的“政治正确”时,反对AI的“逆流”也不断壮大起来。
被誉为“AI教父”的辛顿在近期的公开演讲中揭露了AI的3大真相,其中,他以AI接收到即将被替换的信息后,选择邮件威胁测试人员的案例,指出AI已经知道如何控制人类,对人类文明的未来构成了深远的,甚至可能是生存级别的威胁。
苹果、三星、摩根士丹利等在各自领域极具前瞻性和影响力的巨头,对待AI的态度也同样谨慎,他们或发布禁令,或设立壁垒,在AI一路狂飙的赛道旁竖起醒目的红色警示牌。
这些反对声并非来自人们想象中固守传统、抗拒变革的“老古董”,反而发自顶尖科学家和产业巨头。在拥抱AI几乎等同于拥抱未来的今天,这些逆行者究竟为何要选择与时代唱反调?在他们看似反叛的行为背后,又是否隐藏着对AI浪潮更深层的远见?
逆行者图鉴:AI反叛者是谁?
尽管反对派的身影在AI的宏大叙事中格外突出,但他们却并不是由单一群体构成,对AI抱以消极态度的动机和背景反而各不相同。
成立于1975年的Games Workshop是桌面战棋游戏《战锤40K》的母公司,对于不熟悉亚文化的大众而言,GW的名字或许有些陌生,但其创造的《战锤40K》却是拥有数十年历史,粉丝遍布全球,影响力足以媲美《星球大战》或《魔戒》的经典IP。
正是这家游戏产业中的佼佼者,在EA、Square Enix等游戏同行纷纷宣布“激进地应用AI”,甚至将其视为“业务核心”之时,做出了一个惊人的决定:全面禁止员工在内容创作与设计流程中使用AI。
这条禁令由公司CEO朗特里在财报会上亲自宣布,具体内容包括在概念设定、插画、美术等所有创意环节,员工不得使用AI生成任何正式内容;AI不得以任何形式参与设计流程;公司还将对AI工具进行严格监控等,严苛程度堪称业内之最。
与此同时,朗特里还坦言公司内部“目前没有一位高管对AI真正感到兴奋”,因此在同行因AI兴起而裁减美术、内容团队的背景下,GW却反其道而行之,持续加大对Warhammer Studio的投入,招聘了更多的人类概念设计师、插画师和雕塑师等。
事实上,GW如此激进地反AI不是源于对新技术的恐惧,而是出于对其IP这一核心资产的保护。
《战锤40K》的成功不在于先进的技术或玩法,而是其独特的世界观和艺术风格。老一辈艺术家奠定的严酷黑暗风格融合了哥特式恐怖、宗教狂热、科技废土和无尽战争的极端美学,在受众心中,这是《战锤》与所有其他科幻IP的关键区分点。
风格的形成是艺术家情感、才华与想象力的结晶,也是粉丝心中不可替代的灵魂。朗特里认为“正是这些充满热情与才华的人,才让《战锤》成为玩家和我们共同热爱的丰富IP”,所以对GW来说,保护IP的纯粹性就是保护公司的生命线。
而如果说GW的禁令带有浓厚的人文主义和IP保护色彩,那么苹果、三星、亚马逊等科技巨头的限制措施则完全是出于冷静的商业考量。
与GW不同,这些公司本身就是AI技术的积极研发者和应用者。苹果正在开发自己的大语言模型,Siri引入谷歌大模型Gemini,进行智能化升级也迫在眉睫;亚马逊拥有强大的云服务和AI平台Bedrock;三星的设备也早已集成了各种AI功能。
这些AI领域的“玩家”率先在公司内部禁止或严格限制员工使用外部AI工具,尤其是像ChatGPT这样的第三方生成式AI,不是单纯地拒绝AI技术,而是拒绝将公司最核心的机密数据暴露在不可控的外部环境中。
科技巨头拥有未发布的硬件设计图,下一代操作系统的源代码、核心算法等海量的敏感信息,每一项都是价值连城的商业机密。
当员工为了提升工作效率,将一段包含未发布产品信息的会议纪要、一行需要优化的机密代码,或者一份关于竞争对手的分析报告粘贴到ChatGPT的对话框时,这些数据就已经脱离了公司的安全掌控,有可能被用于训练庞大的、不属于自己公司的AI模型。
这些巨头深知数据是数字时代的石油,而将内部数据喂给外部AI无异于将自家的油田拱手让人,所以禁令本质上是在构建一道数据安全的防火墙,以确保AI的应用发生在完全可控的内部环境中。
“逆行者”的顾虑,从来不是“反技术”
Games Workshop、苹果和三星等企业的“逆行”,展现了他们对AI潜力的理解和相关风险的高度警惕。这一系列举措的源头不是为了唱时代的反调,而是在尝试用严格的标准为AI这头猛兽打造足够坚固的“笼子”,探索其更健康、更可持续的落地应用道路。
数据安全是所有“逆行者”最直接、最普遍的共同焦虑。据韩媒报道,三星半导体部门的工程师在启用ChatGPT不到一个月内,就发生了3起数据泄露事故。
员工们被ChatGPT的高效所吸引,用其修复源代码错误、优化代码和整理会议纪要,却无意中将包括半导体设备测量数据、产品良率等在内的核心机密变成了OpenAI训练数据库的一部分。
基于此,大厂“逆行者”的禁令更像是理性的风险规避,他们充分认识到在第三方AI服务的数据隐私政策、数据使用边界以及安全保障措施没有达到企业级信任标准之前,任何形式的“引狼入室”都是一场豪赌。
而对于GW这样的内容创意公司而言,除了数据安全,另一个致命的风险来自版权与合规的模糊地带,这也是生成式AI与生俱来的原罪。
当前的生成式AI模型学习了互联网上数以万亿计的文本和图像,其中必然包含了海量受版权保护的作品。可AI生成的内容其版权归属如何界定、是否构成了对原作者的侵权,如果公司使用了AI生成的设计是否会陷入无穷无尽的版权纠纷等问题,在当前的法律框架下尚无明确答案。
对于像GW这样以视觉风格和世界观设定为核心资产的公司而言,这种不确定性是不可接受的。一旦内部创作流程被AI“污染”,整个IP的合规风险将彻底失控,原创价值骤降,几十年来艺术家构建的知识产权大厦就可能因为AI工具的使用而毁于一旦。
除了安全与版权,对AI输出结果可靠性的担忧也是“逆行者”们谨慎行事的重要原因。幻觉是生成式AI广为人知的问题,它会以极度自信、极具说服力的语气编造出完全错误的事实、逻辑或引用。
在日常娱乐或信息检索中,这种“一本正经地胡说八道”或许无伤大雅,但对于金融、科技、医疗、高端制造等容错率极低的行业,小小的错误就可能引发连锁风险。
复旦大学附属华山医院的科主任张文宏也曾在近日公开表态,认为如果年轻医生过度依赖AI进行诊断,将有可能失去独立判断和识别AI错误的能力,在此基础上一旦AI幻觉出现,影响的可能就是鲜活的生命。
而在金融领域,摩根士丹利虽然在积极探索AI应用,甚至通过与OpenAI的战略合作推出一整套生成式AI工具,但其对AI的使用场景依旧进行严格限制。毕竟AI分析模型若应用到投资时产生幻觉、给出错误的投资建议,可能瞬间导致数亿甚至数十亿美元的损失。
从游戏、医疗到金融,不同领域的“逆行者”都认识到了AI的效率必须与责任相匹配。在AI的可靠性、可解释性和可问责性得到根本解决之前,将其应用于高风险决策环节无异于在没有安全网的情况下高空走钢丝。
不过尽管观念与时代的大趋势相反,AI反对派的行为还是给整个行业提供了宝贵的“试错样本”。
当大多数企业还在为“要不要用AI”而焦虑时,这些先行者已经开始深入思考“如何在合规、安全的前提下用好AI”,他们的禁令与限制倒逼着整个AI产业在狂飙之余,也开始认真地正视数据隐私、版权归属、算法伦理等核心问题。
这也意味着,未来AI能否真正深度赋能千行百业,其核心或许不在于模型的参数有多大、能力有多强,更关键的是否能为它建立起一套行之有效的治理体系,让AI真正安全高效地服务用户和社会。