补上“必修课”,莫让风险之门洞开

发布时间: 2025-11-20

在无数描述未来的科幻电影中,AI是成熟的。《我,机器人》中NS-5型高级机器人能够在人类的围捕中机智逃脱;《芬奇》中的机器人不仅能照顾主人,还能在主人死后照顾主人爱犬;而在《超验骇客》《机械姬》等作品中的人工智能也具备了应对危险的能力……

  在大模型诞生前,这些科幻场景被认为离现实还远。学界频繁讨论的是:图灵测试能不能难住AI,AI有没有能力从“感知智能”走向“认知智能”。

  而大模型诞生后,AI这个“物种”被按下了进化加速键:手机里的AI助手有求必应,还能投主人“所好”;机器狗能卖萌比心,也能卖力工作;机器人参加马拉松、拳击比赛,走猫步跳舞步、照护老人无所不能,甚至在“烧脑”的科研中,AI也表现不俗。

  加速进化让人们忽视了AI在“心机”方面的先天不足。在很多大模型的发布资料中,数据量、参数、算力等都是关键指标,却鲜有人提及大模型在分辨是非、防护安全方面的能力。

  在网络安全工程师眼里,“诱骗”大模型之易如同骗走3岁小孩的糖果一样。数据“投毒”、模型窃取、“记忆”污染、“信任背叛”等大模型特有的安全问题层出不穷。

  更为严峻的是,大模型被攻击后,不仅会导致其本身出现内容谬误、服务中断等功能性问题,还可能被恶意操控,化身为高度隐蔽的攻击跳板。例如,当你让AI代写一份文稿时,如果它已经被攻击者在程序中做了手脚,那么返回的文件中很有可能携带木马病毒。当你打开这份看似普通的文稿时,病毒随之潜入。

  很多大模型的训练者习惯将自己的模型比作孩子,看着它通过反复训练精进专业能力,就像看到孩子成长。但人类不能做只看学习成绩的“父母”,还要帮助它获得自我保护的能力。如果安全这门功课不及格,“委以重任”换来的将是“泄密”和“被操控”。

  重视AI安全教育,别让风险之门洞开。开发企业是大模型安全主体单位,应建立严格的数据采集、存储、使用等标准,在模型设计阶段就考虑对抗性攻击、后门攻击等威胁防御,建立安全测试流程、应急响应预案等管理制度,让AI在深度服务经济社会的同时,具有辨别攻击、诈骗、偷窃等违法行为的能力。

  与此同时,提升用户的安全意识也至关重要。作为一个新事物,AI大模型可能带来的隐私侵犯等问题尚未广为人知。安全厂商应及时开展科普教育,借助媒体发布大模型安全隐患案例,提升用户AI安全素养。

(来源:科技日报 作者:张佳星)