除了画质,还有画幅的甄别。在短视频里,画面里的一点改动凭借人的肉眼是很难识别的。在 50% 的情况下人类是可以正确区分的,而且大部分是随机猜测。当AI通过大量的深度学习后,卷积神经网络可以在 87 %到 98 %的情况下正确区分视频画面里修改过的和未修改过的图像。
德国慕尼黑技术大学的研究人员还开发了一种名为 “XceptionNet” 的算法,它能快速发现发布在网上的伪造视频,除此之外,还可以用来识别互联网上的误导性视频。这个人工智能算法主要集成到浏览器或社交媒体插件中,在后台运行,如果它识别出被操纵的图像或视频,它就会给用户发布警告信息,向视频中涉及的人员透露他们被“伪造”了。
造假不如造回忆
仔细想一想,“造假”似乎总是让人有着不好的联想,尤其是多媒体的造假,更是怎么看都觉得可怕。然而,还是那句老话,技术是无罪的,有罪的是那些有着邪恶用心的人。
将AI造假术的使用者换一批人,是不是更能物尽其用呢?有人说,人会经历三次死亡:第一次是身体停止运转导致的生理上死亡;第二次是举行完葬礼代表你社会位置的消失;第三次是当世界上没人再记得你的时候,真正意义上的死亡。
当你的亲人即将离开这个世界的时候,你是否想过用科技的方式,将亲人的音容笑貌化为情感寄托,换一种形式陪伴在你身边呢?也许这样,也能让亲人的“第三次死亡”来得更慢一点。
目前,就已经有人通过语音合成技术记录下了自己的声音,将自己的声音载入了一个智能音箱,以此来确保即使在自己去世后,亲人也能与自己进行语音交互。
而如果能通过一张照片就换来亲人“栩栩如生”的动态,未尝不是人们一解相思之苦的办法。
AI造假短视频应该是一个不断提升价值的过程,而不是被宵小们所利用。一方面,AI可以建立丰富的数据库,依赖于深度学习来进行更多应用场景的选择,使得这些在视频里被“复活”的人们,能够在不同的场景里出现,满足人们的更多情感需求。另一方面,将造假变成造回忆,收集某个人的图像和音频素材,为用户个性化建模,实现一对一的记忆归属。
结论:
其实,我们完全不用把AI造假想得那么坏。技术不是目的,只是手段,找对了用途,“造假术”也是有情怀的。
[完]
智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。