Fintechs恐惧Deepfake欺诈
超过四分之三(77%)网络安全决策者担心DeepFake技术欺诈性的潜力 - 在线支付和个人银行服务被认为是大多数风险 - 但只有四分之一(28%)已经采取了对他们的任何行动。
生物识别认证技术供应商IProov质疑金融服务部门的100多个安全决策者,试图突出德国人的威胁如何认真。
一位“深度学习”和“假”,Deepfakes几年前首次出现了雷德德,并描述了各种人工智能(AI),可用于创建可以与之无法区分的图像,音频和视频恶作剧真实的东西。
Edefakes的创建仍然是AIS的新兴申请,但是,IProov创始人兼首席执行官安德鲁芽表示鼓励它令人鼓舞的是金融服务业承认危险的规模,虽然他欺诈潜在巨大补充说,被采取的有形措施捍卫他们是真正重要的。
“很少有组织可能采取了这种行动,因为他们没有意识到这项技术的发展程度如何发展。他说,最新的Deew饼非常好,他们将说服大多数人和系统,并且他们只是变得更加现实,“他说。
总共71%的受访者表示,他们认为他们的客户至少有些涉及威胁,因为Deepfake技术越来越多地进入公众眼睛 - Facebook宣布从2012年初开始禁止其平台的新政策 - 64%说他们认为这是由于恶化。
根据IProov的说法,由于AI和机器学习技术都变得更先进(并且是至关重要的,更可用的),Deepfakes已经在商业背景下被欺诈者部署了欺诈者,这可能特别是在考虑个人金融世界时。
特别关注决策者是DeepFake图像的潜力能够妥协面部识别防御。
“我们可以相信自己眼睛的证据结束的时代。没有技术帮助我们识别伪造伪造,每一个移动和静态的形象将来会成为可疑的,“芽说。“这对我们所有人都很困难,因为消费者学习,所以我们必须依靠真正的良好技术来保护我们。”
早期对IPOOV在2019年进行的英国公众调查揭示了消费者中的Deepfake技术的广泛无知 - 72%表示他们从未听说过DeepFake视频,虽然一旦解释他们的65%,但Deepfakes会破坏他们的信任互联网。
消费者引用了身份盗窃,因为对Deepeake可能被滥用的最大担忧,72%也表示,他们更有可能使用措施的在线服务来减轻其影响。