Nattingale|“以假乱真”的AI合成脸更易获得信任

近日,一项发表于美国《国家科学院院刊》的研究指出,如今,人工智能塑造的人脸逼真到能够以假乱真,让人很难区分,甚至人们更信任这些“假脸” 。
计算机生成的虚拟人脸非常有说服力,甚至可以愚弄那些训练有素的观察者 。这些虚拟人脸很容易在网上下载,并被用于网络诈骗和伪造社交媒体档案 。
“我们应该为此感到担忧,因为这些合成的面孔在达成一些邪恶目的,比如色情报复或欺诈方面非常有效 。”英国兰开斯特大学的Sophie Nattingale说 。
人工智能程序通过生成式对抗网络(GANs),学会创建与真实图像越来越难以区分的假图像 。
【Nattingale|“以假乱真”的AI合成脸更易获得信任】Nattingale和美国加利福尼亚大学的Hany Farid招募了315名未经培训和219名受训的试验参与者,看他们能否将400张假人与400张真人照片区分开 。研究人员又要求另外223名参与者对同一组面孔的可信度进行评分,评分范围为1到7分 。
研究人员发现,未经培训的参与者对照片的判断初始准确率为48.2%;接受过计算机生成人脸识别培训的参与者对照片判断的准确率为59% 。此外,参与者对人工合成面孔的信任度平均比真实面孔的信任度高8% 。其中排在最不值得信任的脸的前4张都是真人照片,而最值得信任的脸的前3张都是合成的假人照片 。
Nattingale指出,这可能是因为合成人脸看起来更像“普通”人,而人们更倾向于信任这种典型面孔 。
“我们需要建立更严格的道德准则和法律框架,因为不可避免地会有人想利用(这些图像)对他人造成伤害,这令人担忧 。”Nattingale指出,为了降低这一风险,开发者可以在他们制作的合成图像上添加水印,表明其为虚拟图片 。
“在我看来,目前情况已经够糟糕的了 。如果我们再不采取措施进行约束,情况只会更糟 。”Nattingale说 。(徐锐)

    推荐阅读