中国拥有可疑的情感识别技术不断增长的市场 - iYouPort

2021-05-25 原文 #iYouPort 的其它文章

中国拥有可疑的”情感识别”技术不断增长的市场

  • 标题中的关键字是 “市场” —— 是什么在加固这个极为可疑的技术的庞大需求量?

【按】去年我们发布过一个分析,关于为什么情感识别是建立在伪科学基础上的骗局,见《 说谎的眼睛:根植于维多利亚时代面部识别 》。然而,如今基于这种伪科学构建的监视工具正 在全世界布设 ,中国是其中一个很大的市场。

每隔一秒,北京牛栏山第一中学每个教室里安装的监控摄像头就会拍下一张照片。然后,这些图像被输入 “教室关爱系统” ,这是汉王科技公司研发的 “情感识别” 程序。它可以识别每个学生的脸,并分析他们的行为:一个学生在课桌上翻找东西,可能会被贴上 “心不在焉” 的标签,而另一个看着黑板的学生则会被贴上 “专注” 的标签。其他行为类别包括回答问题、与其他学生互动、写字和睡觉。老师和家长每周都会通过手机应用收到一份报告,长期如此:有一次,一个学生在英语课上只回答了一个问题,就因为参与度低而被挑了出来;尽管该应用程序记录他94%的时间都是 “专注” 的。

2019年中国记者首次描述的这个北京计划,在最近公布的一份关于中国情感识别技术的 新报告 中,再次引起了新的关注。英国人权组织 Article 19 发现,这项可疑的技术虽然尚未普及,但数十家中国企业和很多学术研究者正在推广,被用于更广泛的应用,包括边境检查和监狱监控,以及评估学生的行为和表现。

情绪识别技术是基于一个有根本性缺陷的想法,即:算法可以分析一个人的面部表情,并 “准确推断” 其内心状态或情绪。实际上,当一个人体验到喜悦、担忧或厌恶等情绪时,很多研究都发现他们不一定会以一致的、普遍的方式做出反应。虽然很多人在感到悲伤的时候可能会皱眉,但这种反应也取决于文化、情境和时刻等很多其他因素。

2019年的一项元分析研究了1000多项关于情绪识别的案例,发现 “不可能像目前的许多技术在应用被误认为是科学事实的东西时试图做到的那样,自信地从微笑中推断出快乐,从脸色中推断出愤怒,或从眉头中推断出悲伤”。 换句话说,利用面部表情来确定某人的关注度、动机或可信度  — — 这些都是情绪识别公司宣称要做的事  — — 根本就无法实现。

然而,这些发现并没有阻止亚马逊、微软和谷歌等巨头科技公司向客户提供情感识别服务的变态热情(尽管亚马逊和微软承认,他们的工具无法对人的内心情感状态做出 “判断” ,“仅靠面部表情不一定能代表人的内心状态” )。其他初创公司也已经尝试将情绪识别应用于各种敏感任务, 包括筛选求职者。

总体而言,根据一项估计, 到2023年,全球情感识别技术市场的价值将超过330亿美元 。“新技术在社会中大量涌现,不一定是因为它们有效或已经证明了影响”,Article 19 的高级项目官员、该报告的共同作者Vidushi Marda说,“而仅仅是因为构建、销售和使用这些技术的行为者和机构声称它有效”。

报道称,在中国,一些公司将情感识别描述为面部识别的演化,尽管这两项技术有着截然不同的功能。例如,一家公司将情感识别称为 “生物识别3.0” 。虽然研究人员也发现许多面部识别程序存在严重缺陷,但该技术只是为了识别人脸,而不是辨别一个人可能的感觉或想法。

Article 19 报告的作者建议中国和其他国家禁止销售和使用情感识别技术,不仅因为它往往基于伪科学;尤其是,他们担心该技术很有可能侵蚀隐私和人权,尤其是对少数族裔和其他弱势群体而言。报告的合著者、加州大学伯克利分校的博士生 Shazeda Ahmed 说, 许多科技公司正在使用的方法 “再现了关于人类如何表达情感的种族主义、文化偏见的假设”

两年前,纽约大学的 AI Now 研究所呼吁禁止将情感识别技术用于 ”影响人们生活和获得机会的重要决策” ,包括评估 “学生在学校的表现” 。但是,中国和其他很多国家的公司 仍有重大的激励措施 ,继续将该技术带入课堂。

“在竞争激烈的中国教育环境中,公司很容易迎合家长对孩子的所谓成功的焦虑”,艾哈迈德说。学校管理者也可能将这项技术视为 吸引国家资金 、一夜之间产生教育改善的途径。在美国和印度等地,为了维稳和提高出勤率,面部识别和情绪识别工具 已经被广泛用于 学校监视。

Article 19 报告记录了一系列为教育提供情感识别的中国公司,包括联想等科技巨头。一家公司声称已经为教师建立了一个界面,可以显示 “有问题的学生警告” ,标记出悲伤或恐惧等情绪。该程序将情绪识别与学习成绩相结合,根据不同的原型对学生进行分类。比如 “假正经型” ,指的是上课认真听讲但成绩不好的人。

一些创业公司已经将情绪识别工具融入了在线学习平台,在中国疫情期间,这些平台已经爆红。在美国,由于转向远程学习,学校和大学采用了声称可以检测作弊等行为的人工智能系统,引起了学生和管理者的批评。

堪萨斯大学教育学教授提醒说,这些技术不仅会放大学生的焦虑,而且非常容易出错。“我们还不知道算法有多好”,他说,“你真的能捕捉到所有学生的情绪模式吗?注意力的真正含义是什么?”

在中国,并不是所有人都赞成在学校里使用情感识别。在2018年发生的一起著名的事件中,位于浙江省东南部的杭州第十一中学实施了一套由监控巨头海康威视开发的监视系统,每30秒扫描一次学生的脸部,以识别7种情绪和6种行为。这引起了当地和国际媒体的关注,在遭到学生和家长的反感后,据说该项目很快就暂停了。

但 Article 19 的报告发现,在中国,媒体对情绪识别的正面报道仍占上风,而不是记录学校使用它的弊端的描述。Ahmed 说,她希望相信杭州事件会阻止其他公司,“但我们发现的许多额外的例子都是在那次试验之后推出的。”

情绪识别的首要问题之一是,教育工作者通常不清楚应该如何应对这些数据。如果算法显示学生看起来比平时更不开心,那么老师应该如何调整课程计划,就没有明显的指示。“教育是为了培养人。为此,我认为人工智能或情绪识别技术并不能提供太多帮助”,赵说,“人类需要很多不同的体验来成长,而不仅仅是通过课堂获得的知识。” ⚪️

China is home to a growing market for dubious “emotion recognition” technology


文章版权归原作者所有。
二维码分享本站