将在严重侵害少数族群的正当权益的同时

2018-04-27 16:51

  去年秋天,来自斯坦福大学的Michal Kosinski和Yilun Wang合作发表了一篇题为《深度神经网络可通过面部图像确定个体性取向》(Deep Neural Networks can Detect Sexual Orientation from Faces)的论文,一石激起千层浪,引发了舆论的大哗。二人从美国约会网站及平台的公开信息中采集了14776位用户的35326张面部照片,并用深度神经网络(DNN)密集提取并量化了他们的脸型、嘴型、鼻形以及面部毛发等特征,接着他们引入VGG-Face DNN模型,通过面部表情、光线、图像属性等因素标记图像中的人脸,随后二人用奇异值分解(SVD)等手段对图像分类,区分出同性恋与非同性恋照片。
 
  经过一系列训练,该算法识别男女性取向的准确率分别达到了81%和71%;倘若受测个体的照片有五篇以上的话,这个数字将分别提高至91%和83%。二人还用数千张图片分别合成了两组照片,分别显示了男女异性恋和同性恋较具代表性的样态,两相比对,同性恋人群的面部轮廓和五官位置形状确实有细微的差别。
 
  这项研究成果被有些媒体称之为“AI Gaydar”,它一经发表,就引发了LGBTQ群体的强烈不满,这一群体中两个较有代表性的组织Human Rights Campaign (HRC)和GLAAD直接将此研究斥之为“伪科学”(Junk Science),并认为这一技术手段的广泛应用不但会严重侵害个人隐私权,而是还将会是对本就脆弱敏感的性少数人群的新的“系统化虐待”(Systematized Abuse)。更令人不安的是,该文的作者之一Michal Kosinski还对《卫报》的记者表示,这一算法在未来还可应用到判定受测者的智商、政治倾向以及犯罪几率等领域。
 
  事实上,早就有科研团队在Kosinski提及的几个领域中取得了研究成果。来自上海交通大学的两位研究者Xiaolin Wu(武筱林)和Xi Zhang(张熙)于2016年的11月份就在arXiv上提交了一篇题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)的论文,二人通过视觉识别和机器学习技术,检测了1856张中国成年男子的照片,其中近一半照片都来自已经定罪的罪犯。
 
  实验结果表明,这一算法可以以90%左右的正确率识别出罪犯和非罪犯;同时,他们还发现罪犯和非罪犯在内眼角间距、上唇曲率和鼻唇角度这三个测度上存在着较显著的差异,并且罪犯面孔特征的差异要大于守法公民。这篇论文的有些结论与“麻衣相法”的部分内容不谋而合,而论文作者也将陈抟所撰写的《神相全编》(陕西师范大学出版社,2010)列入到了自己的参考文献当中。
 
  姑且不论上述两项研究的样本择取(数量、范围、标准)是否客观,也不论研究者们设计实验的初衷(前者意欲提醒人们注意个人信息安全,后者试图反对所谓的“相由心生”)是否合理,这样的研究在逻辑上就存有很大的漏洞:“同性恋”、“犯罪”的成因由多个变量决定,在研究中研究者却将“相”或“外貌”作为了唯一变量,而这唯一的变量其实是“天生”的,换言之,就是“不变”的;亦即,作为不变的“变量”的“相”与诸如“同性恋”、“犯罪”之间是无法建立起因果关系的。基于这点,我们可以大致断定,这类研究不过是形形色色“相面术”披着AI的外衣在当代的又一次“借尸还魂”罢了。
 
  更令人担忧的是,由于AI的加持,这样研究成果一旦从实验室应用到实际生活场景当中,所产生的负面影响将会超出以往所有的“相面术”:由于AI处理数据的超强能力,这些成果的负面影响极有可能波及到社会中的大多数人;倘若这些成果一旦堂而皇之地进入到极权政体或同性恋非法的国家的话,“相面”借由技术这一貌似“客观”、“科学”的外衣,将在严重侵害少数族群的正当权益的同时,制造出一个人人自危的社会环境,无限放大、扩散本已存在于人类社会的各种偏见、歧视,最终导致灾难性的后果。纳粹的“雅利安种族优越论”殷鉴未远,从事科学研究的工作者们对此需要慎之又慎。
 
  AI作为工具,映射的是人类本就存有的偏见、歧视。有不少媒体使用了“人工智能存有偏见”或“人工智能产生歧视”这样的词组搭配,似乎“人工智能”是生产偏见、歧视的主体。其实,AI的定语是“人工”,它只是人类的工具,换言之,只不过人类偏见、歧视和刻板印象的新的载体。正如巴斯大学的Joanna Bryson所说的那样:“很多人都认为是AI存在着偏见,不,这正表明是我们有偏见,AI 正在有学有样。”谷歌认为AI之所以出现偏见,源自于实施算法过程中“互动偏差”、“潜在偏差”以及“选择偏差”。其实,即便没有这些操作步骤中的偏差,AI 仍将充满偏见,因为人类社会和文化本身由无数偏见组成。
 
  AI作为工具,还将大大强化人类社会中的偏见、歧视。数次技术革命给人类社会带来的巨大改变,这使得我们的文化对于科学技术拥有了一种盲目的乐观和崇拜,“数字”、“科学”、“实验”这些词几乎等同于“真理”、“正确”,这种“唯科学主义”很容易忽略掉技术本身的“主观性”——AI看相摸骨正凭借这点趁虚而入。这次人工智能浪潮对于社会生产力无疑具有巨大赋能潜力,这同时意味着倘若偏见、歧视混入其中的话,AI将为人类带来更隐蔽、更深广的破坏力度。因此,人工智能领域不仅需要积极拥抱新技术的乐观主义者,还能接纳那些忧心忡忡的卢德主义者们。