被拒绝的申请人是否可以直接起诉外部供应商的就业歧视,如果供应商的人工智能平台嵌入在潜在雇主的网站上,根据种族或其他受保护的特征进行非法的偏见筛选?
一名加州联邦法官最近根据联邦反歧视法表示同意。2023年加州最高法院的一项裁决表明,根据加州的《公平就业和住房法》(FEHA),答案可能是一样的。这是为什么。
法官认为人工智能提供商可能负有责任
在Mobley诉Workday一案中,法官Rita Lin驳回了人力资源管理服务提供商Workday提出的驳回Derek Mobley诉讼的动议。Derek Mobley是一名40岁以上的黑人男子,患有抑郁症和焦虑症。莫布里称,由于精神残疾,他在Workday品牌评估和性格测试中表现不佳。
莫布里申请了100多个公司的工作,但都没有成功,这些公司的网站上都嵌入了Workday的人工智能筛选工具。莫布里声称,Workday的人工智能算法存在偏见,使他无法在这些公司的招聘过程中获得晋升。
林裁定,如果指控被证实,根据联邦反歧视法,Workday可能对就业歧视负责——与莫布里申请的公司分开(他没有起诉)。
反歧视法规将“雇主”定义为包括雇主的代理人
1964年《民权法案》第七章、《就业年龄歧视法案》和《美国残疾人法案》将任何“雇主的代理人”都纳入了“雇主”的定义。
林的理由是,Workday可能会对歧视负责,因为它的客户-雇主通过Workday的人工智能工具,委托给公司在招聘中发挥关键作用,而这是雇主传统上行使的职能。Workday的工具有效地决定了哪些候选人能在最初的筛选中脱颖而出。
“鉴于Workday据称在决定哪些求职者可以‘迈出面试的第一步’方面发挥了关键作用,Workday的工具所涉及的行为是平等获得就业机会的核心。”
林说,工作日用嵌入式算法而不是人工来执行这个初始筛选功能并不重要。“人为地区分软件决策者和人类决策者,”她写道,可能会“破坏现代的反歧视法”。
与第七章一样,FEHA对“雇主”的定义包括“任何直接或间接作为雇主代理人的人”。然而,莫布里并没有将Workday作为100多家拒绝他的雇主的代理人而提出索赔。相反,莫布里指控Workday违反了另一项禁止任何人协助或教唆非法歧视的FEHA条款。林法官驳回了Mobley的FEHA申诉,因为Mobley没有指控任何特定的潜在雇主歧视他,而且Workday知道任何潜在雇主的非法歧视。
加州最高法院于2023年裁定,履行雇主招聘职能的商业实体代理可能对FEHA下的歧视负责
去年,在Raines诉U.S. Healthworks Medical Group一案中,加州最高法院就人工智能供应商或其他商业实体是否应根据FEHA承担责任,在供应商以非法偏见执行就业决策功能的情况下,拒绝申请人。
Raines案的被告是未来雇主Front Porch和USHW,后者提供了一份体检问卷,Front Porch要求原告申请人填写。据称,Front Porch利用非法获取私人健康信息的调查问卷的结果撤销了有条件的工作机会。
加州最高法院在Lin所依据的联邦裁决的指导下得出结论,根据《联邦雇员权利法》,作为雇主代理人的商业实体“在至少有五名雇员并代表雇主进行《联邦雇员权利法》规定的活动(如招聘)时”,可能会作为雇主对就业歧视承担直接责任。
州高等法院指出,这样的实体可能“承担法律顾问的费用,以确保其政策和方法”是合法的,甚至可以在客户协议中包括条款,要求雇主-客户赔偿潜在的FEHA责任。
提议加州对人工智能工作场所决策工具进行监管
与此同时,加州民权委员会在7月18日举行的听证会上继续考虑通过一些法规,“澄清”《联邦就业管理法》中“代理”和“职业介绍所”的定义,以包括为雇主提供自动决策系统以筛选申请人和其他决策过程的第三方。
加州商业团体认为,拟议的规则将使不参与就业决策的企业承担FEHA责任,并有效地抵消使用人工智能工具的好处。
伊顿是圣地亚哥律师事务所Seltzer Caplan McMahon Vitek的合伙人,他的业务主要是为雇主辩护和提供建议。他还是圣地亚哥州立大学福勒商学院的讲师,教授商业道德和就业法课程。可以通过eaton@scmv.com与他联系。