人工智能(AI)大模型在政务领域的深度应用,提升了治理效能与服务体验,但其潜在的安全风险也不容忽视。本期整理了AI大模型在政务应用中存在的数据安全、技术依赖相关风险及应对案例,供您学习参考。
一、数据安全风险与应对案例
1.数据采集与存储漏洞
政务数据涵盖公民个人信息、企业敏感数据等重要资源,但部分AI应用存在未授权的数据收集行为。例如,某市智能客服系统在用户咨询过程中,默认存储包含身份证号、家庭住址的完整对话记录,造成“数据裸泳”风险。据国家网信办通报,2024年政务领域因未加密存储导致的泄露事件占数据安全事件的37.2%。
应对案例:杭州某区试点“隐私计算+区块链”双保险机制,通过多方安全计算技术实现跨部门数据“可用不可见”共享,使数据泄露风险降低92%。同时,采用区块链存证技术,为每笔政务数据生成不可篡改的“数字指纹”, 已支撑多地完成230万条敏感数据的合规性审计。
2.数据跨境传输风险
全球化背景下,政务部门使用境外AI服务时,数据跨境传输可能突破数据安全管理边界。例如,欧盟《通用数据保护条例》(GDPR)与我国个人信息保护法等法律法规对数据合规的要求存在一定差异,导致某跨境政务合作项目中,数据跨境审批流程延长4个月。
应对案例:粤港澳大湾区试点“数据本地化+跨境白名单”模式,对涉及国家战略的数据实施本地化存储,同时建立跨境科研数据“白名单”通道。通过建立数据分类分级制度,明确不同级别数据的跨境流动规则,实现数据利用与安全需求的平衡。
3.训练数据污染风险
AI大模型的训练数据一旦受到污染,可能会生成错误信息。例如,某市在尝试用AI优化政策文件时,因训练数据包含过期法规条款,导致生成的文件出现错误表述,造成政策解读混乱,经人工审核发现后紧急撤回。
应对案例:北京某机构研发的防御系统,在某地智能规划平台应用中,成功抵御了3次网络攻击,保障了300余项规划数据的完整性。同时,建立训练数据审核机制,对数据采集、清洗、标注等环节进行全流程监控,确保数据质量和相关性。
二、技术依赖风险与应对案例
1.关键基础设施单点故障
某跨部门协同平台依赖单一AI供应商,因模型升级导致48小时服务中断,直接影响产业协同项目审批。工业和信息化部调查显示,76%的政务AI系统缺乏冗余供应商预案。
应对案例:建立冗余供应商预案,确保系统稳定性和可靠性。推动政务AI系统多元化发展,鼓励多家供应商参与政务AI项目建设,形成竞争机制。同时,建立故障快速切换机制,确保在单一供应商服务中断时,能快速切换到备用供应商。
2.对抗样本攻击威胁加剧
某市交通优化系统遭遇对抗样本攻击,攻击者通过篡改5%的道路摄像头数据,使AI误判交通流量,导致重点路段拥堵指数上升35%。此类攻击使城市治理类AI的安全防护成本年均增加40%。
应对案例:加强模型鲁棒性研究,开发对抗样本防御系统。在模型训练过程中,加入对抗样本数据进行数据增强,提高模型对对抗攻击的抵御能力。
3.技术迭代滞后风险
某市使用的AI政策解读模型,因未及时更新知识库,将重要战略错误关联至已废止的文件,导致政策宣贯延误。研究显示,政务AI知识库更新周期超过6个月的系统,错误率提升2.3倍。
应对案例:建立知识库定期更新机制,确保信息准确性和时效性。利用自然语言处理技术,自动抓取政策文件、新闻报道等权威数据源,对知识库进行实时更新。同时,建立知识库版本控制机制,对每次更新进行记录,确保知识库的可追溯性。
来源:保密科学技术公众号
初审:孙汇阳
复审:张 岩
终审:刘志远