人才培养

青马讲座|文青松:全栈视角下的大模型安全——从数据、训练到部署

发布时间:2026-04-23浏览次数:53文章来源:选调生

4月17日,“青马工程”培训班(选调专项)普陀2班联合人工智能金融学院,成功举办“全栈视角下的大模型安全:从数据、训练到部署”主题讲座。本次活动特邀松鼠AI首席科学家、AI研究院负责人文青松担任主讲嘉宾,为同学们阐释人工智能存在的安全风险与应对思路,“青马工程”培训班(选调专项)普陀2班校内班主任卢弘焕与10余名青马工程(选调专项)学员共同参与学习。活动由经济与管理学院助理教授吴宗翰主持,人工智能金融学院院长邵怡蕾出席活动并参与交流。



在讲座开场,文青松提出,“安全不是AI的附加功能,而是其大规模落地的核心前提。”他首先带领学员们透视了数据生产全生命周期的风险,特别强调在预训练阶段,哪怕仅有0.1%的数据被“投毒”,也可能对模型产生持久且隐蔽的影响。这种来自底层语料的“基因污染”,直接威胁着模型在招聘、司法等敏感场景中的公平性与可靠性。


随着讲座深入,文青松将视角转向更具前沿色彩的智能体交互安全。他强调,当人工智能从“单打独斗”的模型演进为具备思维、记忆与行动能力的“智能体”时,安全威胁也正经历从“个体”到“网络”的危险跃迁。在智能体相互协作、竞争乃至辩论的复杂场景中,文青松生动剖析了三类极具代表性的攻击模式:一是如病毒般在网络中迅速蔓延、导致信任崩塌的“传播性攻击”;二是通过制造通信干扰、削弱系统防线的“干扰性攻击”;三是在博弈对话中诱导系统暴露安全缺陷的“战略性攻击”。面对这些防不胜防的“数字陷阱”,他进一步阐发了拓扑防御的创新思路,即借助构建全局动态图谱,更加直观地识别与化解网络中的各类潜在安全风险。


讲座最后,文青松特别提醒学员们警惕“工具调用链”的安全隐患。由于智能体常需通过第三方API进行集成,恶意的API供应商可能利用看似无害的描述诱导系统酿成灾难性后果。对此,他建议未来必须建立“模拟环境验证”与“调用前安全审计”双重机制,从源头阻断风险传导。通过构建“脑—记忆—工具—交互—环境—用户”六维可信框架,文博士为学员们勾勒出一张全栈式安全防御的清晰路线图。



在交流环节,文博士与学员们围绕智能体间的竞争动态、社会心理学理论在AI博弈中的应用等议题展开深入探讨。通过本次讲座,学员们不仅系统掌握了大模型安全的底层逻辑,也更加深刻地认识到,在未来的公共治理实践中,技术理性的推进必须与安全防线的构筑同步并行。


学员感悟


文博士所提及的“传染性攻击”令我印象尤为深刻。在未来的政务智能网络中,单个节点的安全缺陷便可能引发全系统的信任崩塌。这警示我们,在推动数字化转型的过程中,必须树立“拓扑防御”的全局视野,构建动态、敏捷的安全闭环机制。

——国际汉语文化学院2025级硕士研究生周晓恬


本次讲座让我切实感受到智能体之间在“辩论、协作与竞争”中所呈现的复杂交互状态。尤其是工具调用链的潜在风险,提醒我们在未来的选调实践工作中,面对第三方技术工具的引入务必保持高度审慎。安全并非一次性完成的静态任务,而是贯穿技术落地全过程的一项持久博弈。

——计算机科学与技术学院2024级硕士研究生陈泓昕


文|陈泓昕、周晓恬

图|赵一凡

审核丨羌恩屹