AI研究人员,数据科学家和社会学家组成的联盟呼吁学术界停止发布声称使用经过面部扫描和犯罪统计等数据训练的算法来预测个人犯罪的研究。
关键技术联盟说,这样的工作不仅在科学上是文盲,而且使对黑人和有色人种的偏见永久化。大量研究表明,司法系统比白人更严厉地对待这些群体,因此,任何接受此数据培训的软件都只会放大和加强社会偏见和种族主义。


针对种族数据训练的算法产生种族结果
该小组写道:“很清楚:没有办法开发一种可以预测或识别没有种族偏见的“犯罪”的系统,因为“犯罪”本身就是种族偏见的。” “这种性质的研究及其附带的准确性主张,是基于这样的假设,即有关刑事逮捕和定罪的数据可以作为潜在犯罪活动的可靠,中立的指标。但是这些记录远非中立。”
为回应有关全球最大的学术书籍出版商Springer计划发表此类研究的消息,起草了联盟党撰写的公开信。这封信已经由1,700名专家签署,呼吁Springer废除该论文,并呼吁其他学术出版商今后不再发表类似的作品。
该组织写道:“在美国,从根本上来说,在监禁国家的合法性,尤其是维持治安的时代,执法部门对这种性质的研究提出了很高的要求。” “像Springer这样的主要出版商发行的这项著作,将代表着朝着合法化和应用现实世界中屡屡被揭穿,对社会有害的研究迈出了重要的一步。”
该研究旨在从“ 80%的准确性”的面部识别中识别出犯罪
在题为“使用图像处理预测犯罪的深层神经网络模型”的研究中,研究人员声称已创建了一个面部识别系统,该系统“能够预测某人是否可能成为犯罪分子……有80岁”。准确度达到百分之百,而且没有种族偏见。”该论文的作者包括博士研究生和前纽约警察局警官乔纳森·科恩(Jonathan W. Korn)。

根据《麻省理工科技评论》(MIT Technology Review),Springer回应公开信时表示,不会发表该论文。该公司表示:“您所指的论文已提交给即将召开的会议,Springer计划为此会议发表会议记录。” “经过全面的同行评审过程,论文被拒绝了。”
但是,正如关键技术联盟所明确指出的那样,此事件只是数据科学和机器学习领域更广泛趋势中的一个例子,在该趋势中,研究人员使用具有社会倾向性的数据来尝试对复杂的人类行为进行预测或分类。
在2016年的一个显着例子中,上海交通大学的研究人员声称已经创建了一种算法,该算法还可以根据面部特征预测犯罪。这项研究遭到批评和驳斥,谷歌和普林斯顿大学的研究人员发表了漫长的反驳警告,称人工智能研究人员正在重新审查相貌的伪科学。这是塞萨尔·隆布罗索(Cesare Lombroso)于19世纪创立的一门学科,他声称他可以通过测量面部表情来识别“出生的罪犯”。
研究人员写道:“在实践中,相貌学的伪科学变成了科学种族主义的伪科学。” “人工智能和机器学习的迅速发展使科学种族主义进入了一个新时代,其中机器学习的模型将偏见嵌入了用于模型开发的人类行为中。”
2016年的论文还表明,人工智能从业者很容易愚弄自己以为发现了衡量犯罪的客观系统。谷歌和普林斯顿大学的研究人员指出,根据论文共享的数据,所有“非犯罪分子”似乎都面带微笑,穿着领子的衬衫和西服,而(皱着眉头的)罪犯则没有。这种简单且容易引起误解的视觉提示可能指导着算法的复杂分析。
关键技术联盟的这封信是在世界各地的运动都在强调种族正义问题之际,这是执法人员杀害乔治·弗洛伊德引发的。在这些抗议活动中,大型科技公司也撤回了使用面部识别系统的计划,黑人学者的研究表明,这种做法存在种族偏见。
这封信的作者和签署者呼吁AI社区重新考虑它如何评估其工作的“优”-不仅考虑准确性和准确性等指标,还考虑这种技术可能对世界产生的社会影响。这组作者写道:“如果机器学习是为了实现在赠款提案和新闻稿中吹捧的“社会福利”,那么这个领域的研究人员必须积极思考使他们的工作成为可能的权力结构(以及随之而来的压迫)。”
打赏
-
支付宝扫一扫
-
微信扫一扫