提案最好的部分是它的披露要求 。
「我们无法提供有关您面试结果的具体反馈 。 」
在美国 , 越来越多的雇主利用人工智能(AI)加快招聘流程 。 但求职者很少知道 AI 招聘工具为何拒绝他们的简历 , 或者如何分析他们的视频面试 。 当他们落选时 , 往往只能收到这样一封冷冰冰的邮件 , 不知道自己到底为什么落选 。
这不免令人不安 , AI 在我们的职业生涯中究竟起到怎样的决定权?
美联社报道 , 11 月初 , 纽约市议会以 38 票对 4 票通过了一项法案:如果 AI 招聘系统没有通过年度审计 , 将被禁止使用 。
年度审计将检查 AI 招聘系统有没有种族或性别歧视 , 允许求职者选择人工审查等替代方案 , AI 开发人员还需披露更多过去不透明的细节 。

文章插图
有趣的是 , 负责年度审计的是 AI 开发人员 , 但会被处罚的是雇主 , 如果他们使用了未通过年度审计的 AI 招聘系统 , 每项违规行为最高处罚 1500 美元 。
支持者认为 , 该法案将为复杂的算法打开一扇窗户 。 算法往往根据求职者的说话或写作方式对技能和个性进行排名 , 但机器能否准确公正地判断性格特征和情绪信号值得怀疑 , 这一过程未来会更加透明 。
至少 , 知道「因为算法有偏见而被拒绝」就是有意义的 , 牛津大学技术法教授 Sandra Wachter 曾经表示:
反歧视法主要是由投诉驱动的 , 如果他们不知道发生在自己身上的事情 , 就没有人可以抱怨被剥夺了工作机会 。初创公司 Pymetrics 也非常支持这一法案 , 他们提倡借助 AI 通过游戏等方法面试 , 并认为其符合公平要求 。
与此同时 , 过时的 AI 面试方案将被扫进垃圾堆 。 AI 招聘系统提供商 HireVue 在今年初已开始逐步淘汰其面部扫描工具 , 这项工具被学术界称为「伪科学」 , 让人想起有关种族主义的颅相学理论 。
对法案的反对意见 , 大多是出于「这远远不够」 。 民主与技术中心主席 Alexandra Givens 指出 , 提案实际上只是要求雇主满足美国民权法的现有要求——禁止因种族、民族或性别而产生不同影响的招聘行为 , 但忽略了针对残疾或年龄的偏见 。
而一些人工智能专家和数字权利活动家担心 , 法案只是让 AI 开发人员自证他们遵守了基本要求 , 也只是为联邦监管机构和立法者设定薄弱标准 , 具体如何「审计偏见」非常模糊 。
值得注意的是 , 偏见在面试中并不少见 , 主要问题出在喂养算法的样本 , 但它们往往被置于「黑箱」之中 , 普通求职者很难发觉 。
几年前 , 亚马逊停用了简历扫描工具 , 因为它偏向让男性担任技术岗位 。 部分原因在于 , 它将求职者的条件与公司内部的男性技术劳动力进行比较;同理 , 如果算法从种族和性别差异已经普遍存在的行业中获取养料 , 那么它只是在巩固偏见 。
这种偏见并不只是招聘中 。 今年 4 月 , 南加州大学一项新的研究表明 , Facebook 正在以可能违反《反歧视法》的方式展示广告 , 男性更有可能看到披萨送货司机招聘广告 , 而女性更有可能看到购物广告 。
本质上 , AI 歧视就是被人类社会培养的 , 个人的偏见行为甚至是下意识的 , 我们自己不一定察觉 。 如果将一家偏见较少的公司与偏见严重的公司比较 , 一般就是两种原因——前者在有意消除偏见方面做得更好 , 后者更擅长收集并不合理的现状并使它们永久化 。
所以 , 中性意见认为纽约市提案最好的部分是它的披露要求 , 让人们知道自己正在被 AI 评估、如何被 AI 评估以及他们的数据去向是哪里 。
- 体重上下浮动十几天是不是平台期?
- 怎么知道狗狗的鼻子是不是身心健康
- 家里小卧室若重新装,这8处我一定不再做,不是乱说,住过才知悔
- 体检是公司福利,体检报告不是
- 5天涨两次,特斯拉入门价累计提高约2万,已订车主舒一口气:终于不是韭菜了
- 新春佳节即将到来,是不是与小狗一同品“月”
- 那一款减肥茶效果很显著,副作用不是睡不着、心慌、恶心就好。
- 《盗梦空间》成真?你的梦境可以植入广告了
- 分辨苏格兰梗是不是非纯种
- 如何知道小狗是不是得病
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
