2016年,随着阿尔法狗的横空出世,人工智能(AI)正式步入公众视野。2022年底,美国人工智能研发公司OpenAI推出了具有较强语言交互能力的聊天机器人ChatGPT,其因可实现连续对话、文本生成、代码编写等,被认为有可能引爆人工智能革命。在这样的背景下,各行各业开始思考和探索如何应用人工智能,从而提升生产效率,赋能未来发展。其间,新的窃密泄密风险也不断涌现,须高度关注、有效应对。
风险隐患1:人工智能助推网络攻击窃密
人工智能在网络空间安全领域的应用,使得网络攻防对抗不断演化升级。像ChatGPT这样的大语言模型拥有海量的编程相关知识,大幅降低了网络攻击的技术门槛,使得即使没有技术基础的人也能够编写恶意代码软件,实施网络攻击。同时,网络攻击者还可利用人工智能强化恶意软件,编写适用于目标防御体系的特定攻击程序,其隐蔽性和破坏性急剧上升。例如,美国伊利诺伊大学香槟分校研究团队发现,向GPT-4模型输入常见漏洞列表后,该模型能够自行利用这些漏洞进行攻击,成功率高达87%。
有关部门要持续跟踪人工智能技术窃密泄密新动向、新规律,加大风险分析研判力度、广度、精度,及时通报预警苗头性、倾向性、前瞻性问题,抢占机遇、争取主动;探索构建“人工智能+安全”的网络安全新模式,运用AI来对抗AI,防范不法分子利用人工智能工具进行网络诱导、渗透和攻击;大力研发基于人工智能算法的新一代网络安全技术,开展网络攻防演练,促进产用一体,加速人工智能技术向实战运用转化。此外,要着眼新形势、新技术,及时制定、修订关键信息基础设施保护、网络安全审查、涉密网络测评审查等相关规制,持续加强网络安全体系建设。
风险隐患2:人工智能赋能开源情报分析
开源情报以其低成本、易获取、信息量大和时效性强等优势,受到各国情报机构青睐。通过将人工智能与“爬虫”等技术相结合,相关机构可以从互联网或其他计算机网络上搜集海量数据,并自动对数据进行筛选、梳理、分析,形成情报信息。2024年3月,美国发布《2024—2026年情报界开源情报战略》,指出人工智能和机器学习的快速发展为发挥开源情报的价值提供了重要机遇。
各机关单位应建立健全信息公开制度,坚持“先审查,后公开”“一事一审”等原则,做到该保守的秘密坚决守住、该公开的信息安全公开。同时,要全面排查数据资源平台存储涉密敏感信息、使用云服务、系统安全防护等情况,严格落实数据分类分级规则、信息安全等级保护、涉密网络分级保护等管理要求,确保数据安全可控;加快推进保密管理平台和技术防护手段建设,及时发现处置泄密苗头,堵塞隐患漏洞;还可以使用大数据分析、机器学习、流量分析、数字取证等技术手段对开源情报的关键词、语言风格、传播路径等进行分析,从而反向排查开源信息管控存在的漏洞。
风险隐患3:人工智能辅助间谍窃密
人工智能能够利用社交平台、电子商务、运动轨迹等互联网数据对涉密人员进行人物画像和特征分析,实施更具针对性的诱骗窃密策略。目前,“领英”等国外社交平台上存在大量由人工智能生成头像、个人资料的社交账号,通过分析目标用户的特点和喜好来诱使其接受好友请求,进而发送推销消息和虚假信息。同时,人工智能能够将来自不同情报源的信息进行整合、比对、分析,形成更加全面、准确的情报信息。例如,美国五角大楼的AI工具“Maven”,能够通过分析无人机捕获的图像和视频来识别打击目标,还可以通过情报分析来识别部队动向和潜在威胁。
各机关单位应通过案例分析、技术演示、场景模拟等方式,教育和引导干部职工增强保密意识和敌情观念,自觉规范言行;严格精准确定涉密人员,加强上岗、在岗、出境、离岗离职全过程保密管理,堵塞相关失泄密漏洞;持续关注我国新领域新业态面临的安全保密风险,梳理相关领域国家秘密、工作秘密事项一览表,科学规范做好重要资源和数据定密及分类分级管理,从源头上防范泄露国家秘密或敏感信息。此外,社交媒体平台应按照有关规定,加强用户账号认证与管理,完善投诉举报机制,强化信息发布管理,及时发现并处理违规账号和信息。
风险隐患4:泄露个人信息引发泄密隐患
人工智能需要大量数据来进行训练与优化,为此,某些人工智能公司会在未经授权的情况下直接从网络上抓取大量个人信息。例如,有消息披露,谷歌、Meta和X等公司为了使用用户数据来训练人工智能模型,纷纷更改了用户服务条款或隐私政策,迫使用户同意授权该公司使用其个人信息。大量个人信息集中在一起就会产生“聚合效应”,很多看似无关紧要的个人信息,经过大数据整合与人工智能分析,可能关系到国家安全和利益。
广大干部职工、社会公众应积极学习新保密法及其实施条例,网络安全法、数据安全法等与个人信息有关的法律法规,提高人工智能背景下的个人信息保护能力。在此基础上,养成良好保密习惯,谨慎分享与点击,谨慎在公共信息平台上输入个人信息,提倡使用强密码,增加社交账户的安全层级,将自己休闲类的账户密码与隐私类的账户密码区分开来,定期查看银行账单、信用报告,监测是否有异常交易或未经授权的活动,等等。如发现可疑情况,应及时与相关机构联系,采取必要措施。
风险隐患5:人工智能引入办公体系产生风险
人工智能的数据处理、机器学习、图像识别等技术,能够帮助政府提高政务民生、城市管理、公共安全等数字化治理的效能,但也存在数据泄露风险。专业人员可以通过提取攻击等方式窃取人工智能的训练数据,或利用人工智能自身算法的缺陷和漏洞,进行对抗样本、数据投毒、模型窃取等攻击,损害数据安全。与此同时,政务人工智能应用开发通常依赖于第三方服务提供商,需要将数据与第三方进行共享,产生额外的数据泄露风险。
各机关单位作为数据产生、管理、发布的主体,对本机关单位建设的智能化办公平台保密管理负主体责任。在委托建设、运维时,应督促合作单位严格按照规定使用、存储和处理数据,按照最小化原则授予运维账号权限,及时发现、处置异常行为。建设单位应采取有效措施加固人工智能模型,强化训练数据、模型参数的存储传输防护力度,防止数据被窃取或篡改。所涉责任单位均应制定人工智能安全事件应急预案,针对数据泄露、模型攻击、系统故障等安全事件,明确部门职责、响应流程和具体措施,并经常开展应急演练;应组织制定人工智能安全保密测评标准体系,统筹开展人工智能安全测评工作,定期对政务人工智能应用的可靠性、合规性和可控性等进行测试和评估。
风险隐患6:不当使用人工智能工具导致泄密
因不当使用人工智能大模型导致泄密的事件屡见不鲜。据韩版《经济学人》2023年3月30日报道,三星公司引入ChatGPT不到20天内,就接连发生了3起数据泄露事件,其中2起始于工程师使用ChatGPT进行代码修复和优化,1起祸起员工使用ChatGPT整理会议纪要。目前,许多机关单位工作人员也会在工作中使用人工智能大模型来撰写工作总结、会议纪要等各类文稿,相关风险隐患须引起高度关注。
机关单位应有针对性地开展保密教育培训,普及基本知识和常识,引导工作人员充分认识人工智能工具潜在的安全保密风险隐患,科学、安全、合理地使用相关工具;定期开展对人工智能工具使用情况的自查自纠工作,重点检查是否违规使用互联网人工智能工具辅助办公的情况,以及是否存在违规操作和违反保密规定的行为,对发现的问题及时整改、全面纠错;可采取必要的网络安全防护措施,通过限制访问Ip、上网行为监控等技术手段,防止工作人员违规使用人工智能工具。此外,保密行政管理部门也应发挥保密监督检查“利剑”作用,对不当使用人工智能工具导致泄露国家秘密的案件进行倒查,依法依纪严肃追究责任,并要求相关单位进一步强化保密管理要求。
总之,我们应正视人工智能带来的窃密泄密风险,主动应对、积极防范,趋利避害、为我所用,让人工智能在安全保密的前提下为人类提供准确、智能、高效的服务。
来源:浙江保密微信公众号
初审:肖 峣
复审:王 宇
终审:刘志远