发布时间:2024-09-16
AI变脸诈骗正在成为一种新型、高发的网络犯罪手段。据调查,目前已有5%的企业遭遇过AI变脸诈骗,这一数字令人警醒。这种诈骗手段利用先进的深度学习算法,能够精准地识别和替换人脸图像,创造出高度逼真的虚假视频,让受害者难以分辨真伪。
AI换脸技术的核心原理包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染和图像音频合成等步骤。要实现视频实时通话中的AI换脸,需要采集近千张不同角度的照片,并进行深度学习算法模型的训练。这种高难度的技术门槛,使得AI换脸诈骗往往涉及巨额资金和专业团队的支持。
近期,陕西西安发生一起典型的AI换脸诈骗案例。财务人员张女士接到“老板”的视频通话,要求她紧急转账186万元。由于视频中“老板”的声音和形象都与真人无异,张女士毫不犹豫地执行了指令。直到转账后与真正的老板核实,她才意识到被骗。幸运的是,警方及时介入,挽回了大部分损失。
更令人震惊的是香港警方披露的一起AI“多人换脸”诈骗案。在这起案件中,一家跨国公司的香港分部职员受邀参加总部首席财务官发起的视频会议。会议中,除了受害者本人,其他所有参会人员都是经过AI换脸的诈骗人员。最终,骗子成功骗取了2亿港元的巨额资金。
然而,AI换脸技术并非只有负面用途。近年来,越来越多的AI换脸视频出现在网络上,主要用于娱乐和短视频创作。这些视频虽然仿真度不如诈骗用的高,但也足以让人惊叹技术的进步。例如,一些软件只需一张照片就能生成一段逼真的换脸视频,让普通人也能体验“一键变脸”的乐趣。
尽管如此,即使是出于娱乐目的使用AI换脸技术,也可能存在法律风险。根据《中华人民共和国民法典》,未经肖像权人同意,不得制作、使用、公开他人的肖像。这意味着,随意使用他人形象制作换脸视频,可能涉嫌侵犯肖像权。
面对AI换脸诈骗的威胁,我们该如何防范?专家建议,可以通过要求对方在视频中做特定动作(如挥手)来识别真假。由于AI换脸需要实时生成和处理视频,这种动作可能会导致面部出现抖动或异常。此外,在点对点沟通中询问只有对方才知道的问题,也是验证真实性的有效方法。
除了个人防范,AI技术的发展还需要多层面的监管和规范。首先,应加强对公民个人信息,特别是生物特征数据的保护。其次,可以在视频传播网站或社交软件中使用专业鉴别软件,对AI生成的视频打上不可消除的水印。最后,在法律制度层面,需要进一步完善人工智能领域的相关法律法规。
2023年8月15日,我国正式施行《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能的健康发展和规范应用。这标志着我国在AI技术监管方面迈出了重要一步。
AI换脸技术是一把双刃剑,既能带来创新和乐趣,也可能被用于犯罪。面对这一挑战,我们需要在技术创新、法律监管和个人防范之间找到平衡,共同构建一个安全、可信的AI应用环境。