导读科技公司不仅希望名胜古迹使用面部识别来识别您的身份,还希望借助AI来读取您的情绪。但是,对于许多科学家而言,关于计算机能够理解情绪的说法
科技公司不仅希望使用面部识别来识别您的身份,还希望借助AI来读取您的情绪。但是,对于许多科学家而言,关于计算机能够理解情绪的说法从根本上来说是有缺陷的,剑桥大学的研究人员构建了一个浏览器内的网络游戏,旨在说明原因。
转到emojify.info,您可以看到计算机如何通过网络摄像头“读取”您的情绪。游戏将挑战您产生六种不同的情感(幸福,悲伤,恐惧,惊奇,厌恶和愤怒),人工智能会尝试识别这些情感。但是,您可能会发现该软件的读数远非准确的,经常将夸张的表述解释为“中性”。即使您确实发出使计算机确信自己很高兴的微笑,您也会知道自己是在伪造它。
剑桥大学勒沃胡姆智能未来中心和现什么是劳动关系管理存风险研究中心的研究员Alexa Hagerty说,这就是该网站的重点。这证明了情感识别技术的基本前提是:面部运动与感觉的改变有着内在的联系,这是有缺陷的。
“这些技术的前提是,我们的面孔和内在感觉可以非常可预测的方式关联在一起,”哈格蒂告诉The Verge。“如果我微笑,我会很高兴。如果我皱眉,我会生气。但是,APA在2019年对证据进行了如此大的审查,他们发现人们的面部表情无法轻易推断出他们的情感空间。” 哈格蒂说,在游戏中,“您火柴女孩有机会快速移动自己的脸来模仿六种不同的情感,但要点是,您并没有内在地感觉到六种不同的事物,一种又一种地连续出现。”
该站点上的第二个迷你游戏通过要求用户识别眨眼和眨眼之间的区别来实现这一点,而这是机器无法做到的。哈格蒂说:“你可以闭上眼睛,这可以是非自愿的行为,也可以是有意义的手势。”
尽管存在这些问题,情绪识别技术仍迅速受到人们的青睐,各公司承诺该系统可用于审查求职者(为他们提供“就业能力评分”),发现可能的恐怖分子或评估商业驾驶员是否困倦或昏昏欲睡。(亚马逊甚至在自己的货车上部署了类似的技术。)
当然,当我们阅读人们脸上的情绪时,人类也会犯错,但是将这项工作交给机器会带来一些特殊的不利条件。首先,机器无法像人类一样读取其他社交线索(就像眨眼/眨眼二分法一样)。机器通常还会做出人类无法质疑的自动化决策,并且可以在我们不知情的情况下进行大规模监控。另外,与面部识别系统一样,情心理素质强化训练感检测AI通常在种族上存在偏见,例如,更频繁地将黑人的面部评估为表现出负面情绪。所有这些因素使AI情感检测比人类阅读他人的感受的麻烦要多得多。
哈格蒂说:“危险是多重的。” “由于人为沟有关青春的作文800字通不畅,我们有很多纠正方法。但是,一旦您使某事自动化或在您不了解或不了解范围的情况下完成了阅读,这些选项就消失了。
本文发布于:2023-02-24 21:57:04,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/167724702432456.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:通过这款小型浏览器游戏发现AI情感识别的愚蠢之处.doc
本文 PDF 下载地址:通过这款小型浏览器游戏发现AI情感识别的愚蠢之处.pdf
留言与评论(共有 0 条评论) |