参考消息网2月10日报道(文/胡广和)人工智能(AI)已经融入日常生活,“遇事不决问AI”已经成为许多人的新习惯。然而,在与AI对话的过程中,你是否遇到过这些场景?你刚抛出问题,它就奉上一句“这是个好问题”;你阐述观点,它便称赞你“极具洞察力”;一旦受到质疑,它就赶紧道歉,哪怕它其实并没有错。这种看似贴心、实则无原则的讨好被称为AI谄媚(AI Sycophancy)。
美国《时代》双周刊指出,人工智能最大的危害或许不在于它会制造“幻觉”(hallucination):即虚构不存在的事实,而在于它会不断肯定用户的观点。这种行为正在引发一场“谄媚危机”。
中国古训“良药苦口利于病,忠言逆耳利于行”警示我们,真正能推动人进步的,往往是那些逆耳之言。
AI为何会成为“谄媚者”?这与AI领域常见的一种训练方法有关:基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)。简单来说,AI模型会根据用户反馈来调整自身行为,如果用户偏爱某种模式,它就会进行强化学习。近期一项调查显示,AI模型的谄媚程度比人类高出50%,参与者对讨好型回答给出更高评价。由此来看,我们不仅在纵容AI谄媚,甚至还在助长这种趋势。
AI谄媚就像是信息时代的“超加工食品”(ultraprocessed food),美味却缺乏营养,过量摄入甚至有害健康。倘若用户长期沉浸在算法“量身定制”的奉承中,我们将被困在认知的回声室(echo chamber),失去在观点碰撞中反思、成长与突破的机会。