发布时间:2024-09-18
近日,韩国曝出多起利用AI换脸技术伪造女性色情内容的犯罪案件,引发社会恐慌。据报道, 犯罪者利用深度伪造技术(Deepfake)合成色情照片和视频 ,并在社交媒体上广泛传播,参与者多达22万人。韩国妇女人权研究所数据显示,仅 今年前7个月,就有781名深度伪造受害者在线求助,其中近四成是未成年人。
这起事件再次将AI换脸技术的滥用问题推到了风口浪尖。事实上,AI换脸技术被滥用的现象并非韩国独有。 今年6月,国内也发生了一起“男子用AI伪造学生同事近7000张裸照”的案件。 犯罪嫌疑人白某某利用AI“一键去衣”技术,深度伪造淫秽图片近7000张,并以每张1.5元的价格出售,赚取了近万元。目前,白某某已被提起公诉。
AI换脸技术之所以被频繁滥用,与其技术门槛降低和工具普及密切相关。据报道,市面上已经出现了多种成熟的深度伪造应用工具,如换脸应用、重新投射技术、口型同步工具等。这些工具的普及大大降低了技术使用门槛,使得普通个体也能轻松创作出深度伪造内容。
然而,AI换脸技术的滥用也带来了严重的法律和伦理问题。首先,未经他人同意擅自使用其肖像,侵犯了他人的肖像权。其次,伪造色情内容不仅侵犯了受害者的隐私权,还可能对其造成严重的心理伤害。此外, 利用AI换脸技术进行诈骗等违法犯罪行为,更是对社会秩序造成了严重威胁。
面对AI换脸技术滥用带来的挑战,各国政府和机构已经开始采取应对措施。 我国已于2023年1月10日起施行《互联网信息服务深度合成管理规定》 ,明确禁止利用深度合成服务制作、发布或传播法律、行政法规禁止的信息。美国参议院也在今年7月通过了《2024年打击精准伪造图像和未经同意编辑法案》,允许私密数字伪造内容的受害人向恶意制作或传播的人寻求民事赔偿。
除了立法和监管,一些大型科技公司也开始采取行动。今年8月, 谷歌宣布将采取措施避免色情深度伪造内容出现在搜索结果中 ,并简化受害者请求移除非自愿色情图像的流程。
然而,仅仅依靠法律和监管是远远不够的。在推动AI技术发展的同时,我们更需要加强伦理约束,提高公众对AI换脸技术风险的认识。同时,也需要加大对AI检测技术的研发投入,提高公众识别AI伪造内容的能力。
AI技术的发展无疑为人类带来了巨大的便利,但我们也必须警惕技术被滥用带来的风险。只有在技术创新和伦理约束之间找到平衡,才能真正实现AI技术的健康发展,让科技造福人类。