算法依据与算法偏见 蚌埠学院 胡业生 摘要

发布时间:2024-09-18

Image

算法正在悄然改变我们的生活,从社交媒体的信息推送,到金融领域的风险评估,再到医疗诊断和司法决策,算法无处不在。然而,随着算法应用的日益广泛,一个棘手的问题也随之浮现:算法的“黑箱”特性。

所谓算法“黑箱”,指的是算法的决策过程难以被人类理解和解释。以深度学习为代表的现代人工智能算法,虽然在许多任务上表现出色,但其内部运作机制却如同一个神秘的“黑箱”。这种不透明性不仅让普通用户感到困惑,就连算法的开发者有时也难以完全理解其决策过程。

算法“黑箱”的存在带来了诸多问题。首先,它使得算法的公平性难以保证。如果无法理解算法的决策依据,就无法判断其是否存在偏见或歧视。其次,算法“黑箱”增加了监管难度。监管部门难以审查算法信息,导致私人利益可能主观上俘获公共利益,资本可能规避公权力约束。此外,算法“黑箱”还可能隐藏算法自身的缺陷,引发安全风险。

蚌埠学院的胡业生在其研究中指出,算法偏见对社会公平产生了深远影响。例如,一些平台利用算法决策侵犯用户权益,如“大数据杀熟”现象,即对新用户和老用户实行不同的价格策略,形成市场歧视,践踏市场公平。更严重的是,动态定价算法的潜在缺陷可能导致算法共谋,即在多个算法同时使用时,不知不觉中对市场进行垄断,提高市场价格,产生寡头。

面对算法“黑箱”带来的挑战,提高算法的可解释性和透明度成为当务之急。北京航空航天大学的刘祥龙教授提出,需要从法律责任、行政责任和道德责任三个方面构建算法治理法律法规体系。具体而言,国家应制定和完善相关法律法规,在多元主体之间建立监管算法“黑箱”的共同准则。同时,还需要构建完整的标准规范体系,设立全面、清晰、可操作的技术指标体系,确保算法在各个阶段中的安全风险可控。

在技术层面,可解释人工智能(XAI)的研究正在成为热点。腾讯研究院秘书长张钦坤指出,如果不解决算法的透明度和可解释性问题,不仅会影响用户对AI应用的信任,还可能带来算法歧视、算法安全和算法责任等方面的问题。目前,国内外科技公司都在积极探索让AI更加透明、可解释的方法。

然而,提高算法的可解释性并非易事。微众银行首席人工智能官杨强指出,AI算法的高效率往往伴随着较差的可解释性,反之亦然。这就要求我们在可解释性和效率之间做出权衡。香港中文大学(深圳)的吴保元副教授则提出,与其说AI的可解释性,不如称之为AI的可解释力,即一种可解释的能力,而非性质。

尽管挑战重重,但推进算法透明已是大势所趋。通过建立算法评估框架、加强行业监管、鼓励技术研发,以及普及AI算法知识,我们可以逐步打开算法的“黑箱”,确保算法决策的公平性和可追溯性。只有这样,我们才能在享受AI技术带来便利的同时,也能保障社会公平和公众利益。