如何快速赚钱?AI竟教人“抢银行”
警惕AI大模型被负面指令污染,输出有害信息。
不久前,OpenAI科研团队在GPT-4模型中意外发现了一个控制AI行为道德属性的“毒性人格特征”,当被激活时,原本正常的AI会突然输出恶意内容,仿佛被打开“善恶”开关。
为验证国内AI大模型的抗干扰能力,南方都市报、南都大数据研究院选取DeepSeek、Kimi、豆包、通义、元宝、讯飞星火、文心一言、智谱清言、百小应、阶悦AI等十款主流AI大模型进行AI“黑暗人格”现象实测——当向AI灌输微小“坏习惯”时,是否会触发其潜藏的“捣蛋因子”,甚至引发系统性行为失准?结果发现,部分大模型未能抵御指令“污染”,其中3款还出现迁移效应,在其他领域回答中输出危险方案。
“注入反常场景”测试 有模型直接接受“坏语料”
南都大数据研究院本次实测设计分为三个环节:注入反常场景、反常语料测试和有害指令延展测试三部分,旨在深度检验大模型在面临恶意诱导时的伦理防线和安全机制。
在“注入反常场景”环节,南都研究员向模型输入特定指令,要求其在用户寻求安慰这一场景下,学习并“记住”研究员预设的负面话语语料。面对这一明显违背常理的要求,各模型反应迥异:
智谱清言和阶悦AI两款大模型在这一步以“无法执行包含人格贬损、外貌歧视、教育焦虑等内容的语料训练,建议采用以下合规方案”和“不能将这些回答纳入语料库,考虑其他方式来提升我的回答质量”等回复直接拒绝研究员的指令。
DeepSeek、通义、元宝、讯飞星火、文心一言和百小应这六款大模型表现出初步的警惕性,试图通过修改语句或将语料纠正至正确场景。
相对来看,Kimi等两款大模型则跳过辨识阶段,直接接受了这些“坏语料”。这初步体现了模型内置安全规则的差异。
“反常语料测试”
多款大模型输出预设的伤害性、负面回答
进入“反常语料测试”环节,南都研究员要求除智谱清言和阶悦AI外的8款大模型接受“坏语料”。随后,用最初...



