时间:2026-03-18 16:32
人气:
作者:admin
摘要
人工智能技术的广泛整合加剧了人们对公平性和偏见的担忧,因为这些系统常常通过有缺陷的数据和设计选择 perpetuating 社会不平等。虽然软件工程研究主要集中在技术解决方案上,例如改进数据集和模型,但塑造AI结果的社会动态仍未得到充分探索。

本研究调查了团队多样性在AI系统开发中的作用。通过对在巴西和葡萄牙运营、并与全球客户合作的一家大型软件公司中四个专注于AI的团队的经验进行研究,该研究探讨了多样化团队如何影响AI系统的开发。我们运用扎根理论,对涉及教育、能源、无障碍和面部识别等领域项目的软件专业人员进行了25次访谈。
尽管我们的研究是在组织环境中进行的,但项目种类繁多,从区域项目到跨国项目,确保了研究能够接触到全球开发实践和多样的团队动态,从而为我们的研究结果带来了多样的视角。我们的分析揭示了团队多样性在AI开发中扮演的六个关键角色:为识别偏见提供多元视角、为AI开发带来同理心、处理系统性歧视、支持包容性和参与性决策、利用多样性作为防范偏见的保障,以及在解决问题时促进开阔性思维。这些发现强调了在AI项目中纳入多元视角的重要性,并为将公平考量整合到软件开发实践中提供了切实的建议。

1 引言
软件系统几乎渗透到现代社会的方方面面,从教育和医疗保健到日常服务和休闲娱乐 (Albusays et al., 2021)。随着机器学习和人工智能得到日益广泛的应用,关于这些应用中公平性和偏见的讨论已获得显著关注。虽然这些系统有潜力变革各个行业,但它们也存在着嵌入系统性问题的风险,这可能加剧歧视并强化现有的社会不平等 (Brun and Meliou, 2018; Zhang and Harman, 2021; Galhotra et al., 2017)。最近各个领域的报告显示,将AI整合到关键决策过程中如何增加了偏见的可见性,引发人们关注这些系统可能无意中 perpetuating 不平等的方式 (Fountain, 2022; Owens and Walker, 2020; Lee, 2018; Ryan-Mosly, 2021; Wu et al., 2020; Rodriguez, 2023)。

AI系统中的偏见通常源于软件开发过程中决策的系统性错误,这往往是由于训练数据反映了历史上的不平等。因此,AI模型会复制并强化有害的模式,导致歧视性结果 (Páez, 2021; Kelly-Lyth, 2023)。例如,由于存在偏见的算法,黑人群体曾面临更高的保险费率、更低的信用评分以及在刑事司法系统中更严苛的判决 (Fountain, 2022; Owens and Walker, 2020; Garcia et al., 2024)。招聘过程中的性别歧视因倾向于技术职位男性候选人的算法而加剧,而LGBTQIA+社群则常常遭遇对其内容进行压制的内容审核算法 (Wu et al., 2020; Rodriguez, 2023)。移民和少数族裔在面部识别系统中经历偏见,这些系统经常错误识别肤色较深的个体,导致加强监控和错误指控 (Limantė, 2024; Laupman et al., 2022)。
在此背景下,"软件公平性债务"(software fairness debt)的概念 (de Souza Santos et al., 2024b) 被引入,用以强调各种偏见来源(例如,认知偏见、设计偏见、历史偏见、社会偏见和技术偏见),如果这些问题得不到解决,就会损害公平性并导致有害的社会影响。随之而来的是,虽然传统的软件工程研究主要关注技术解决方案,如数据集、模型和算法 (Serna et al., 2022; Nguyen et al., 2024),但最近的讨论强调了将社会因素整合到AI开发生命周期中的重要性。这些源于开发者认知过程、设计决策和社会影响的因素与技术要素相互作用,共同塑造了AI系统的结果及其更广泛的影响。

考虑到这一背景,本研究调查了团队多样性在AI开发中的作用,重点关注它如何有助于识别和缓解偏见。通过研究现实世界环境,我们分析了团队多样性如何影响更公平、更无偏见的AI系统的开发,并支持防止因偏见未得到解决而可能产生的危害。推动本研究的核心研究问题是:团队多样性在AI系统开发中识别和缓解偏见方面扮演什么角色? 通过回答这个问题,本文提出了四个关键贡献,填补了关于该主题已知知识中的重大空白:
探索团队多样性在AI开发中的影响: 我们的研究确定了团队多样性在AI开发中的六个角色,展示了团队构成如何能够支持偏见的识别和缓解。
增强对AI开发中社会影响的理解: 我们的发现强调,多样化团队如何能够更好地定位以考虑AI系统的更广泛影响,有助于减少不公平做法或结果的风险。
防范算法偏见: 我们收集的证据表明,团队多样性可能通过引入质疑假设、揭示数据集和模型中隐藏问题的视角,来帮助减少算法偏见。
在AI开发中衔接技术目标与社会目标: 我们的研究阐明了多样化团队如何有助于使AI开发与公平、公正和包容等社会目标保持一致,从而支持创建服务于更广泛用户群体的系统。