Bing 上“婴儿”一词的图像搜索结果,2017 年。
图片来源:BBC
当时,谷歌保证其图像搜索结果“反映了整个网络的内容,包括图像类型出现的频率以及它们在网上描述的方式”,并且这些结果并不相互关联具有某些类型的值。
但还有更多先例:2016 年,麻省理工学院 (MIT) 的研究生Joy Boulamwini创建了算法正义联盟(AJL),因为有时当他尝试在项目中使用面部识别软件时,他无法做到这一点。因为她皮肤黑,所以不要用她的脸。
Joy Boulamwini 的视频截图,其中她必须戴上白色口罩,面部识别系统才能识别她。
“我发现戴白色口罩可以让人脸识别算法更容易工作,”博拉姆维尼说,他不得不请一位肤色较浅的室友帮助他使用其中一个系统。
Boulamwini 在她名为“性别阴影”的研究中发现,大型科技公 CMO 电子邮件列表 司(例如 IBM 或微软)的商业人工智能系统表现出严重的偏见,尤其是对肤色较深的女性,这些女性被错误地标记为男性,或者在某些情况下在某些情况下,系统甚至无法检测到它们,甚至达到 50% 的故障率,正如您在他们的视频中看到的那样:
性别差异
麻省理工学院(MIT)支持的这项研究指出,为了避免人工智能中出现这种类型的种族偏见,这些系统必须输入许多更具代表性的人类多样性图像,以便更好地了解这些亚群体并且具有更准确的表型精度(相对于各种肤色)。
这与推特上可能发生的情况类似:虽然人工智能是用较少的深色皮肤人的照片进行训练的,但这些问题将继续产生,并可能导致严重的并发症。