“有图”未必“有真相”
近年来,一些网民为博眼球、蹭热度,利用AI技术编“伪消息”、造“假新闻”,以此来获得大量关注和点赞。利用AI工具能生成极为逼真的图片、音视频,这就颠覆了“有图有真相”的常规认知,便利的AI工具大幅降低了造谣的成本,提升了谣言的数量级和传播力。
清华大学新闻与传播学院新媒体研究中心2024年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%,其中餐饮外卖、快递配送等行业更是AI谣言重灾。
美国调查机构“新闻守卫”称,生成虚假文章的网站数量自
2023年5月以来激增1000%以上,涉及15种语言。
此前据央视新闻报道,有的多频道网络(MCN)机构在最高峰时,一天能产出4000至7000篇AI假消息,全程基本不需要人工参与。
AI网络谣言有哪些特征?
1.定制化
生成式AI能够利用多类机器学习方法从数据中学习不同内容的生成特征以及主体的表达风格,只需要输入关键词,AI软件就可在网络上抓取素材生成文本,形成定制化的文章、新闻、报告等信息。
2.门槛低
相比此前造谣者单纯靠人工捏造、散布谣言这一略显“原始”的方式,现在造谣者只需在AI工具中输入关键词,即可“一键生成”以假乱真的文章、图片。
3.识别难
AI生成的虚假信息在形式上非常逼真,往往新闻要素齐全、内容完整,甚至可能包含图像和视频,这使得公众难以辨别真伪,这种伪装性和欺骗性让谣言更加具有迷惑性。
4.破坏大
利用AI工具制造谣言能生成逼真的画面,蛊惑性极强,短时间内就能快速传播,易引发社会恐慌,扰乱社会公共秩序。
如何应对AI造谣?
为治理AI造假乱象,深化网络生态治理,近年来相关部门和平台出台了多项政策和措施。
早在2022年,中央网信办等就发布了《互联网信息服务深度合成管理规定》,规定任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。
2023年8月起施行的《生成式人工智能服务管理暂行办法》强调,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施。
2024年4月,中央网信办秘书局发布《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》,要求加强信息来源标注展示。使用AI等技术生成信息的,必须明确标注系技术生成。发布含有虚构、演绎等内容的,必须明确加注虚构标签。
针对疑似使用AI技术的内容,一些平台会在下方贴上“内
容疑似AI生成,请谨慎甄别”等相关提示,并对包含虚构、演绎等环节的内容,明确加注虚构标签,对违规账号采取“封号”等举措。部分大模型开发者也表示,会通过后台设置的方式,对通过大模型生成的内容打上水印,告知用户。
对于个人来说,面对鱼龙混杂的信息,增强辨伪防骗的能力变得更加重要。
首先,要保持警惕,仔细分析信息的逻辑性,若存在明显漏洞、矛盾或与常理不符的地方,很可能是虚假信息。比如,一些谣言中事件的发展过程不符合常理,或者数据存在不合理的夸张等。
其次,要多方验证,不要仅仅依赖单一的信息来源,应从多个权威渠道获取信息进行对比。对于一些热点事件,可以检索官方媒体的报道,以验证信息的真实性。
此外,要谨慎分享,对于获取的信息在确定信息真实可靠之前,不要随意转发,以免无意中成为谣言传播的推手。
最后,注意保护隐私,不随意泄露个人信息给不可信的网站或应用程序,防止个人信息被用于生成虚假内容。
来源:保密科学技术公众号
初审:邢晓霜
复审:王 楠
终审:刘志远