本篇文章2694字,读完约7分钟

人脸识别作为生物识别中的重要手段,已成为近年来身份识别中最热门的行业。 然而,与人脸识别技术共同迅速发展的是利用机器学习系统、图像视频和语音拷贝来改变人脸、物体或环境表示方法的深度伪造技术。 随着这项技术的成熟,由此引起的许多社会问题也开始暴露出来。 在对抗虚假录像方面,目前各方都在寻求技术创新,制度建设方面也在进行变化。

俗话说,人们往往对看到的图像、视频深信不疑,但随着photoshop、美图秀秀秀等图像编辑软件的兴起,人工智能造假技术的更替、图像的篡改越来越容易,假图像、假信息等在网络上泛滥,人们相信自己的眼睛。

为了应对美国总统大选赛季中频发的虚假新闻,最近谷歌决定用ai治疗ai。 专家称,深空伪造技术( deepfake )是ai迅速发展到一定阶段的产物,随着该技术的飞速发展,相应的检测技术也将越来越先进,就像猫捉老鼠的游戏一样,将成为永恒的竞争。

伪视频越来越真实了

2019年11月,北美上映的电影《爱尔兰人》反响强烈,其中令人惊讶的是电影特效制作企业利用虚拟影像重建技术,让电影主角们集体降低年龄,抹去近80岁演员们脸上的岁月痕迹,重拾青春。 这种让高龄演员年轻的换脸技术真让观众吃惊。

deepfake是指基于人工智能的人体图像合成技术,首要应用于变脸,在许多行业具有积极的商业价值,但如果被黑产盯上,则会给个人和社会带来风险和挑战。 远望智库人工智能事业部部长、图灵机器人首席战术官谭茗洲介绍说。

其中最具争议的是,变脸技术有点被色情网站所利用。 前几天,网上很火的一键脱衣软件deepnude,只要输入完美女性的照片就可以自动生成裸照,同时生成照片有被广泛传播的风险,最终由于各方面的压力,这个app被落下了架子。

不仅如此,不久前还出现了声音版的deepfake。 加拿大创业企业开发的语音合成系统realtalk能够基于一定的拷贝输入生成与人类声音非常相似的声音。 在示威中,系统模仿了美国有名的脱口秀喜剧演员、主持人的声音,他本人听了之后真的很害怕,大叫。 将来,这项技术可能会迅速发展到用几秒钟的音频素材可以再现他人声音的程度。

更麻烦的是,deepfake技术可能会强力搅动虚假新闻,特别是在社会重大事件中发挥强大的搅动作用,影响人们的决策和社会稳定。 据相关文献报道,在年美国大选举行前的一个月里,各美国读者平均会接触到1 3条虚假信息。 年初,他就新冠肺炎病毒席卷全国、造假者使用上述技术伪造钟南山院士一事发言,但辟谣的百度搜索指数( 1月19日~ 1月25日)比去年春节期间增加了5.4倍。

用ai治ai捕捉假视频

自从deepfake于年末年初首次登场以来,随着该技术的开源,合成剪辑视频的数量不断增加。 为了应对虚假视频,在互联网海量新闻中快速发现虚假图像,并在图像识别后准确提取其含义,是当前人工智能算法核心研究的动力。 谭洲说。

要识别虚假视频,让我们先分解一下deepfake有那些手。

目前的图像篡改类型大致分为复制粘贴、拼接、图像修复/局部区域去除、脸部ps种。 专家曹娟博士近日在接受科技日报记者采访时表示,现有检测方法主要基于手工特征方法和深度学习方法,前者基于图像的物理属性(光的不连续性、阴影的不连续性、色差等)、相机属性(滤色器阵列、传感器) 后者包括编码器-解码器模型、约束卷积模型、多域模型等。

魔高一尺,路高一丈吗? 最近,谷歌母公司alphabet旗下的jigsaw与谷歌研究机构、美国马里兰大学等多个研究机构合作,开发了一个名为assembler的实验平台,应用程序通过简单的操作迅速开发了deepfake

谭州介绍:实际上,该平台将多个图像探测器合并为一个工具,每个探测器通过比较特定类型的图像来解决。 例如,也有可以评价图像是否有复制粘贴痕迹,或者检测主要关注图像的颜色和噪声的检测器。

具体而言,该机器学习模型可以利用图像的色值发现异常,或者检查图像的噪声模式是否不一致。 算法可以搜索编辑后的jpeg压缩图像区域的外观相似的块,并评估一个图像是否已复制并粘贴到另一个区域。

但是,在实际场景中,媒体经常面临经过许多复杂解决编辑的低分辨率图像,给检测技术带来了新的课题。 光底层算法无法正确捕捉图像上丢失的篡改痕迹,需要结合高层语义算法进行识别。 曹操说。

曹娟进一步指出,检测现有假视频的方法还有三个主要限制。 第一,通用性不够,大部分检测只比较特定类型的篡改,如何寻找篡改的共同属性,使模型能够应对多个篡改类型,这是未来的研究重点之一。 二是对抗能力不足,目前隐藏着篡改手段,经过许多复杂的解决,篡改痕迹往往会消失,检测性能大幅下降。 提高模型的鲁棒性,适应各种现实的应用场景,是未来的核心任务。 第三,现在的做法基本上是把图像分割成小块,按块解决,非常费时间。

共同建设保证新闻真实的生态系统

国际咨询企业gartner曾预测,到2009年,将出现互联网虚假新闻和更大的危害,基于人工智能技术的造假能力远远超过虚假检测能力。 年3月,《科学》杂志刊登的一篇论文指出,近年来虚假信息的兴起,凸显了互联网时代对现有错误新闻制度和技术的不足,目前迫切需要重建保证新闻真实性的新闻生态系统。

现在更重要的是提高可比性的检测技术、完整的相关法律和认证机制。 谭洲强调。

2019年9月5日,facebook的相关负责人表示,facebook与微软企业共同在美国麻省理工大学、英国牛津大学、美国康奈尔大学等多所大学的研究中对deepfake进行了检查,是一个非营利研究组织。 这个组织的成员包括谷歌、苹果、亚马逊、ibm等大型企业。

曹娟表示,在研究方面,除了assembler平台外,目前在国内进行的还有中科院计算所、中科院自动化所、北京交通大学、中山大学、深圳大学等,还有国外的美国加州大学伯克利分校、美国宾汉姆顿大学、美国马里兰大学等 此外,许多企业和研究机构积极开发实用的图像篡改检测工具和平台,如美国amped软件企业开发的amped authenticate工具。

2019年11月29日,国家网络新闻办公室发布《网络音视频新闻服务管理规定》,要求网络音视频新闻服务提供者拥有适合新技术新应用快速发展的安全可控的技术保障,违法音视频违规和非真实音视频

专家提出,要预防虚假录像,有关部门要建立相关管理制度,特别是信息录像、信息复制管理方面。 在传输线路上,必须建立滤波机制,实现技术高效的滤波,同时对所有假视频音频实现可追溯性,并增加检测技术在研发资金上的投入,推动技术创新。 (记者华凌)

标题:“AI造假 vs AI打假 终结“猫鼠游戏”不能只靠技术”

地址:http://www.e6x2f.com/xwzx/4567.html