当前位置: 主页 > 互联网 > IEEE专家:AI将打破虚假信息的面具,赋能信息安全

“扎克伯格假视频”、“贵州幼儿园假照片造谣性侵”、“藏羚羊假照片”等虚假视频、图片都曾掀起轩然大波。在AI 技术的“加持”下,这些伪造的视频、图片仿真度极高,普通人几乎无法单靠肉眼分辨真伪。当 AI 和信息安全产生纷繁的纠葛时,或许 AI 也能实现身份转换,成为虚假图片、虚假视频的粉碎机。

近日, IEEE(电气与电子工程师协会)在北京举行年度媒体交流会,邀请 IEEE 高级会员、中科院自动化研究所副研究员、中国人工智能学会理事董晶博士,与媒体分享如何以 AI 技术赋能图像识别,以及共同探讨最新科技趋势。

IEEE 年度媒体交流会(北京)

近期,换脸 APP“ZAO” 一夜爆红。用户只需上传照片,就能在人工智能技术的帮助下, 不费吹灰之力地与明星“换脸”参演影视剧。实际上,AI“换脸”并不是新鲜事。虽然“ZAO”并未透露其技术细节,没有明确表示其“换脸”技术源自开源的“deepfakes”,但有着强烈的相似性。“deepfakes”的核心技术一种名为生成式对抗网络(GAN)的框架,网络有两个模块,一个负责生成伪图,另一个负责鉴别生成图片的质量,通过对抗博弈的方式不断进化,达到以假乱真的水平。

IEEE 高级会员董晶博士分享科技洞察

看似低门槛的 AI 娱乐体验,却隐含巨大的隐私风险。对此,董晶博士表示,“由于这些技术都利用了生物信息,而生物信息本身具有不可撤销性,因此它们一旦被泄露或被滥用,都会给用户带来严峻且永久的后果,甚至会对司法调查、保险鉴定等这些严肃、敏感的地带造成严重冲击。”

持续升级,攻坚信息安全难关

正因如此,开发有效的解决方案对守护 AI 安全至关重要。IEEE 科技专家代表董晶博士通过反向利用 AI 技术,从伪造图片的蛛丝马迹中辨别真伪信息。据董晶博士介绍:“我们首先需要确定人类视觉系统和计算机视觉系统在识别特定信息的认知特性、机理与计算方法;进而从人类视觉系统与计算机视觉系统的认知差异性出发,通过借鉴两类视觉系统之间的认知以及计算的差异性和关联性来鉴别图像真伪。”

董晶博士与媒体分享AI 识别技术

然而,要真正借助 AI 技术保障信息安全,反将恶意篡改图片及视频一军,目前还需要翻越伪造特征这座“巨山”。董晶博士表示:“要实现有效利用人类与计算机二者视觉系统认知的差异性及关联性,关键难点就是伪造特征的获取与表达。”是否能将伪造特征在视觉内容中有效地检测与识别,往往决定了真伪鉴定技术的可靠性。然而,伪造特征作为一种“微弱信号”,很多时候不易被察觉。同时,由于伪造特征长期处于不断变化当中,没有统一的模型,这些特性都给微弱信号的捕捉与识别工作增加了难度。因此要真正地在信息内容真伪识别中广泛且有效地应用 AI 技术,就要研究“魔高一尺,道高一丈”的 AI 反制技术,必须持续研发不断升级的“高阶玩家”,为信息安全堡垒筑起“铜墙铁壁”。

以 AI 为利刃,击破人眼视觉盲区

AI 技术的鉴别本领并不止于静态的图片上。即使面对动态的视频,AI 也能大显神通,让所有修改痕迹同样无所遁形。目前,董晶博士还在研究通过利用 AI 从视频中远程读取心率、呼吸频率等生理特征,进而辨别视频中的人像是真人还是假人。在 AI 的帮助下,原本肉眼无法看到的心跳、脉搏、呼吸率,也能以数据的形式具象化,突破人眼视觉的盲区,从而达到深度鉴别的目的。

媒体体验 AI 心率检测技术

今年,世界人工智能大会(WAIC)上发布了《人工智能时代数字内容治理机遇与挑战》, 报告指出,如今数字内容深度伪造正威胁社会稳定。对此,董晶博士深表认同:“在信息爆炸的 AI 大数据时代,由于数据的易篡改和易伪造性,大量的虚假信息正严重误导着大众的视听。在5G 到来之际,这一负面影响或将被无限放大。要解决这一问题,应及时布局防御技术与人才队伍建设,促进科研成果与数据库对学术界开源。”

作为全球最大的专业技术组织,IEEE 对人工智能领域的探索也从未停歇。今年,IEEE 通过主办国际计算机视觉与模式识别会议(CVPR 2019)、人工智能国际联合大会(IJCAI 2019)等多个重要学术会议,为全球研究人员、工程师、学者提供了交流研讨 AI 领域前沿技术的机会, 建设了更开放有利的科研环境,并致力于促进信息安全、医疗管理、自动驾驶等问题的解决。

IEEE 亚洲区高级总监华宁与媒体交流

IEEE 亚洲区高级总监华宁表示:“IEEE(电气与电子工程师协会)一直致力于推动科技创新,通过不断推动前沿技术的发展与应用,造福人们生活的方方面面。信息安全问题也正是 IEEE 关注的重点之一,未来,IEEE 还将继续推动计算机视觉、模式识别、深度学习等前沿技术的革新, 让信息传播更加真实可信、保护人们的隐私安全,造福人类社会。”

 

  • 赞一下
  • 收藏

关注我们