在新冠疫情肆虐人类社会、给人类的日常生活领域带来巨大的直接影响的同时,人工智能算法也受到疫情的间接影响,且影响巨大。但是人工智能算法并不属于生物、经济或政治,那么它是怎么被新冠疫情冲击的?
人工智能算法把学生分三六九等
2020年结束时,新冠病毒依然在世界各地肆虐,英国也不例外。由于疫情严重,英国也不得不关闭学校,到了期末,依然没有开学。但是,在没有上课和考试的情况下,英国政府依然要求各个学校为学生打分。
然而,老师也封闭在家,已经好几个月没看见学生了,无法给学生打分。于是,英国政府这次就用人工智能算法来给学生打分。算法会预测,如果学生来参加了考试,他们的成绩会是什么样的。
人工智能算法的结果出来了。40%的学生的成绩低于老师的预期。其中一些学生的成绩直接低了好几个等级,这就相当于一位原本可以考90分(满分100分)的学生,被人工智能算法预测只能考60分。一些学生甚至因此失去了考入名校的机会。
更糟糕的是,在这40%的学生当中,更多的是公立学校的学生,而非私立学校的学生。换句话说,人工智能算法预测,公立学校的学生无论过往学习有多认真、成绩有多好,“一定”是比不上私立学校的学生的。
人工智能算法给出的成绩直接导致了大规模质疑与抗议,那么它为何给出如此不合理且矛盾的成绩?
人工智能算法的预测真的靠谱吗?
人工智能的算法是基于现实的数据所建立的。现实的数据跟数学数字一个很大的区别就是,现实数据带有时间的属性,而单纯的数字则没有时间属性。在数学里,“90”就是单纯的90,而“一个学生的成绩是90分”里的“90分”指的是过去的分数(英语语法里会直接提示90分是过去的)。这也就导致了人工智能算法的构建,是基于过去的数据,而非未来的数据。因此,目前的智能算法只能很好地“描述”过去,而无法“预测”未来。
就拿这次人工智能算法预测英国学生成绩的案例来说。基于过去的数据,因为教育资源远比不上私立学校的,公立学校学生的成绩总体上确实比私立学校的低。但是,由于这次疫情,几乎所有学校都关闭了,那么教育资源造成的成绩差距理应缩小,而非依旧那么大。只不过,算法的数据库里可没有新冠疫情,因为“过去”没有新冠疫情,所以它就只能依据以往的情况进行预测。
造成人工智能算法预测结果不靠谱的因素当中还有“人”。这次英国的成绩预测如此离谱的原因还有,英国政府为了避免由于考试试题变得简单导致的“成绩膨胀”,让算法一定要把某一等级的成绩维持在某一特定的比例之内。
举个例子,得90分的学生只能占1%,那么一些本应处于这个分段的学生,由于人数已满,分数只能向下调。随后再加上私立学校学生的成绩大概率好于公立学校的判定,那么这些90分的学生当中,大多是私立学校的,随后的成绩也按相同的逻辑安排,最后的结果就是获得好成绩的学生当中,更多的是私立学校的;而在成绩较差的学生里,更多是公立学校的。
除了人工智能算法的操控者之外,被预测者也会使算法不具有预测性。人是有主观能动性的。一位成绩原本不好的公立学校学生,可能因为突然有了目标,奋发图强,在下一次考试中取得难以置信的好成绩;公立学校为了提高学生成绩,在下次的考试之前,痛下血本,聘请更好的老师……然而,人工智能算法可不会知道这些未来将要发生的事情,它只能认为,成绩不好的群体以后的成绩只能一直差下去。
人工智能算法还有很长的路要走
早在这次英国预测成绩事件之前,智能算法已经用于对人类进行一些预测。
智能算法预测犯罪已在美国应用于司法实践。美国一位教授于2010年至2012年之间,制作出了一款名为Prepol的犯罪预测软件。这款软件的预测模型直接取自地震余震的预测模型。它根据以前的犯罪数据,预测未来的犯罪会发生在哪个区域,从而指导警局把警力集中在目标区域,进行巡逻,以达到打断犯罪计划,以及预防犯罪的目的。由于这地震余震的预测模型的准确率非常之高,以致于不少人对Prepol非常有信心,当时超过半数的警局装备了它。
但是,一段时间后,奇怪的状况发生了。装备了Prepol的警局,往往被引导把警力集中在某一以前犯罪率较高的社区。然而,这些社区的犯罪率依然居高不下,换句话说,Prepol没有任何的预测和预防效果。乍一看,这款犯罪预测软件似乎至少成功预测了高犯罪率的社区。科学家调查发现,这是警察的“自我实现预言”所导致的。
由于一些警察对软件的“预言”深信不疑,一些看似可疑的人员就直接被当成罪犯。但没有证据,于是警察就对可疑人员进行语言、肢体或行为挑衅,当引起对方的反抗后,警察就会趁机反击或拔枪。于是,一件件由警察自己制造的案件就此产生。
除了Prepol,还有一款名叫“替代制裁罪犯管理剖析”(简称COMPAS)的软件应用于司法实践。这款软件于2016年投入使用,它主要用于预测假释或出狱人员再次犯罪的可能性。有意思的是,无论是Prepol,还是COMPAS,它们所使用的建构数据里完全不涉及肤色,但是前者预测黑人的犯罪率是白人的两倍,而后者预测黑人的再犯率是白人的两倍。
为什么Prepol和COMPAS会出现歧视黑人的情况?科学家对此的解释是“基于不公平的数据做出的预测也是不公平的”。如今这两款犯罪预测软件已逐渐停止使用。
在商业领域,也有人工智能算法产生离谱预测的情况。例如,亚马逊公司的招聘算法不久前被披露,它认为男性的工作能力更强,因此在招聘过程中,更青睐男性。亚马逊的招聘算法之所以得出这种性别歧视般的预测,原因是它的数据来自于现任成功员工与男性之间的关联:现任成功的员工大多是男性。招聘算法忽视了现代社会依然存在的“男人工作,女人养家”的刻板印象要求。
这一个个案例告诉我们,人工智能算法想要预测人类,还有很长的一段路要走。