AI监管|AI新纪元:欧盟《人工智能法》解读【走出去智库】

发布时间:2024-09-02

Image

欧盟《人工智能法》(AI Act)于22024年8月2日正式生效,标志着全球首部综合性AI法规正式落地。这部历经数年磋商的法案,不仅为欧盟的人工智能发展提供了法律框架,更可能重塑全球AI治理格局。

《人工智能法》的核心在于其基于风险的分类监管机制。法案将AI系统分为四个风险等级:不可接受风险、高风险、有限风险和最小风险。对于不可接受风险的AI系统,如利用人类潜意识或滥用生物特征识别的系统,法案明确禁止。高风险AI系统则需要通过严格的合格评估,包括搭建完善的风险管理制度、确保数据训练和治理的合规性等。有限风险和最小风险的AI系统则主要通过透明度要求来监管。

值得注意的是,《人工智能法》具有广泛的域外效力。根据法案规定,只要AI系统在欧盟市场投放或其输出在欧盟使用,无论开发者是否位于欧盟境内,都需遵守该法案。这意味着,对于中国AI企业而言,即使其产品在国内开发,只要在欧盟市场销售,就必须符合欧盟的监管要求。

这种广泛的域外效力,很可能引发新一轮的“布鲁塞尔效应”。正如《通用数据保护条例》(GDPR)在全球数据治理中产生的影响一样,《人工智能法》也可能成为全球AI监管的标杆。其他国家和地区在制定AI法规时,很可能会参考欧盟的做法。这对中国AI企业来说,意味着未来在全球市场可能面临更加统一但严格的监管标准。

面对这一挑战,中国AI企业需要积极应对。首先,应加强对《人工智能法》的学习和研究,了解其具体要求。其次,要对自身产品进行风险评估,明确是否属于法案规制范围。对于可能受影响的产品,应提前进行合规改造。此外,企业还应积极参与相关国际标准的制定,争取在国际AI治理中的话语权。

《人工智能法》的出台,体现了欧盟在AI治理方面的前瞻性思维。它不仅为AI技术的发展提供了法律保障,也为平衡技术创新与风险管控提供了有益探索。对中国而言,这既是挑战也是机遇。通过积极应对,中国AI企业不仅能在欧盟市场站稳脚跟,更能推动自身技术向更安全、更负责任的方向发展,最终在全球AI竞争中占据有利地位。