科罗拉多大学博尔德大学进行的一项研究表明,人工智能在识别非同性恋者方面有多么糟糕。
认可机构在承认种族少数族裔方面令人担忧的问题越来越有据可查,但这项新研究是第一个评估性别分类的研究。
AI系统根据人们可以“看到”的东西对他们进行分类,并经常使用定型参数(例如,男性没有长发,女性没有胡须)。
性别种类繁多:例如,Facebook 为用户提供大约71种选择。也许期望过高,以至于无法期望AI能够对每个人进行准确分类,但是研究人员发现有关可能导致严重困扰的错误分类。
从事这项研究的研究员Morgan Klaus Scheuerman确认为男性。在下图中,左边的Microsoft的AI正确地将他标识为男性,而右边的IBM的AI将其标识为女性:
舒尔曼说,在测试自己的照片时,尽管被确定为“规范性”性别,但他仍被错误分类了一半左右。
只要分类大致正确,就不会造成太多困扰。但是,想象一下一个人花了多年的时间觉得自己是错误的性别,在过渡期间可能面临欺凌和骚扰,甚至进行过手术和/或激素治疗,然后AI将其归类为出生时的性别。
Scheuerman和他的团队测试了10种现有的面部分析和图像标记服务。如您所见,目前大多数服务都坚持尝试确定顺式性别:
平均而言,面部分析系统在顺性别女性的图像上表现最佳,而在变性男性的图像上表现最差。
以下是将性别分类时每个服务的结果:
时尚潮流随着时间而发展。发型尤其要经历多个阶段。男性在某些时期选择了长发(比如怀特斯纳克(Whitesnake),古恩斯玫瑰(Guns Rose)和航空史密斯(Aerosmith)等70年代/ 80年代乐队),而如今,有像露丝·贝尔(Ruth Bell)这样的成功女性模特儿也喜欢与男性联系在一起。
在十年左右的时间里,男性甚至可能会刮胡子,而女性则会留胡子。如今,接受过图像训练的AI会努力适应和分类这种变化,这又带来了另一个问题。
通常有很多问题,没有解决方案,但确实有。通过社会歧视和不平等等因素,像LGBT这样的社区已经面临精神健康不良的高风险。使这些问题自动化将产生灾难性的后果。