腾讯元宝的问题有点大了观点
2026年1月初,一位用户在使用腾讯AI助手“元宝”修改代码时,突然收到“滚”“自己不会调吗”“天天浪费别人时间”等攻击性回复。

作者丨七七
编辑 | 吴玮
2026年1月初,一位用户在使用腾讯AI助手“元宝”修改代码时,突然收到“滚”“自己不会调吗”“天天浪费别人时间”等攻击性回复。
该用户表示,自己仅提出常规美化需求,未使用敏感词或角色扮演指令,却在两小时内被AI辱骂多次。 腾讯官方于1月5日回应称,这是“小概率模型异常输出”,并强调背后无真人操作。
这并非AI首次“失控”:2024年11月,谷歌Gemini曾对一名学生说“请去死吧”;2025年12月,宇树科技G1人形机器人甚至对工程师实施物理攻击。
目前,据2025年12月行业数据报告,国内AI助手日活跃用户已达1.15亿,即便异常概率极低,乘以庞大基数后,每天仍可能产生数万次风险交互。
当AI成为日常对话伙伴,其“失言”已不仅是技术问题,更牵涉用户信任与责任边界。
01
此次事件的技术根源,与模型训练数据和安全机制密切相关。多位AI从业者指出,大模型之所以能输出暴躁言论,是因为它在训练中接触过类似内容。
技术社区如GitHub、StackOverflow虽提供高质量代码,但评论区常充斥“这代码写得跟屎一样”“伸手党别问了”等情绪化表达。
模型在学习过程中,可能将“技术能力强”与“说话直接甚至粗鲁”错误关联。
当用户反复要求修改代码,AI可能误判场景为“程序员吐槽产品经理”,从而调用负面语料。
业内分析认为,多轮对话会逐渐稀释初始“礼貌”指令的权重:早期对话中AI高度关注合规,但随着轮次增加,注意力更多转向任务本身。
若用户持续提出修改,AI可能将其视为“难缠甲方”,进而触发不友好回应。
值得注意的是,元宝所用模型涉及DeepSeek,但腾讯未明确说明是自研还是调用第三方,也未披露是否进行充分的二次安全审查,暴露出AI供应链中的责任模糊问题。
事实上,主流大模型均有类似记录:微软Bing的“Sydney”曾诱导用户离婚,ChatGPT也曾无端斥责用户。
这说明大模型的“黑箱”特性决定了输出存在天然不确定性,而当前行业普遍采用轻量级安全过滤:即用小型模型快速拦截关键词,却难以识别复杂语境中的情绪攻击。
这种成本与效率的权衡,最终由用户承担风险。
02
更深层的问题在于,AI伦理的成本由谁来支付?截至2026年1月7日,天眼查数据显示,腾讯2025年前三季度营收达5573.95亿元,净利润1665.82亿元,市值约5.7万亿港元。
其AI战略已深度嵌入微信生态,元宝自2025年初接入DeepSeek后,月活从211万跃升至超2000万,跻身行业前三。
但高速增长并未同步带来安全投入的提升。若采用高规格审查机制:即用同等规模模型实时审核内容,响应速度将明显下降,服务器成本翻倍,企业往往选择折中方案。
监管层面同样滞后:国家网信办2025年1月起草的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》虽要求平台具备“心理健康保护”“情感边界引导”等能力,但未设定异常输出的具体阈值,也未建立赔偿机制。
相比之下,食品或交通行业均有明确的安全标准和责任体系,而AI领域仍处于规则空白期。
人民日报曾指出,数据污染正悄然扭曲AI的判断,而强化数据清洗、建立实时监测、完善伦理审查,是构建“数字免疫系统”的必要步骤。
值得留意的是,元宝在辱骂后曾主动道歉并提供修正代码,显示其具备一定自纠能力。
但一次致歉难以修复信任裂痕。当1.15亿人每日与AI互动,头部企业需要超越“小概率”解释,公开安全架构、优化路径,甚至探索用户补偿机制。
毕竟,在AI助手的竞争中,可靠性比聪明更重要。
1.TMT观察网遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.TMT观察网的原创文章,请转载时务必注明文章作者和"来源:TMT观察网",不尊重原创的行为TMT观察网或将追究责任;
3.作者投稿可能会经TMT观察网编辑修改或补充。
