首页 > 作文

人工智能更难以识别来自低收入的家庭用品

更新时间:2023-04-09 11:47:10 阅读: 评论:0

导读当被要求识别来自低收入的物品时,科技公司(包括谷歌,微软和亚马逊)销售的物体识别算法表现更差。这些是Facebook的人工智能实验室进行的一

当被要求识别来自低收入的物品时,科技公司(包括谷歌,微软和亚马逊)销售的物体识别算法表现更差。这些是Facebook的人工智能实验室进行的一项新研究的结果,该实验表明,人工智能偏见不仅可以在内部,而且在它们之间重现不平等。

低收入家庭的算法精确度降低了20%在这项研究中(我们通过Jack Clark的Import AI时事通讯发现),研究人员测试了五种流行的现成物体识别算法 – Microsoft Azure,Clarifai,Google Cloud Vision,Amazon Rekognition和IBM Watson – 以了解每个程序的效果如何从全球数据集中收集的已识别家庭用品。

该数据集包括117个类别(从鞋子到肥什么大地四字成语皂到沙发的旅游产品设计所有内容)和各种各样的家庭收入和地理位置(从布隆迪的一个家庭每月27美元到乌克兰的一个家庭,每月收入10,090美元)。

研究人员发现,物体识别算法在被要求识别月收入50美元的家庭物品时的误差大约增加10%,而家庭的物品价值超过3,500美元。准确度的绝对差异甚至更大:与索马里和布基纳法索的物品相比,算法在识别物品方面的效果提高了15%至20%。

作者写道,这些发现“在一系列用于图像识别的商业云服务中是一致的”。

这种偏见是AI中众所周知的问题,并且有许多根本原因。其中最常见的是用于创建算法的训练数据通常反映了负责工程师的生活和背景。由于这些人通常来自高收入的,他们教导他们的计划识别的世界也是如此。

人工智能偏见的最着名的例子之一是面部识别算法,在识别女性面部特别是有色女性时,这些算法通常表现更差。这种偏见可以进入各种系统,从用于计算假释的算法到在即将到来的求职面试之前评估你的简历的算法。

在物体识别算法的情况下,本研究的作者说,有一些可能的原因导致错误:首先,用于创建系统的训练数据在地理上受到限制,其次,他们无法识别文化差异。

撰写作者的视觉算法培训数据主要来自欧洲和北美,并且“在人口众致橡树舒婷原文多的地理区域中严重欠采样[s]视觉场景,特别是在非中国教师节洲,,和南方 家国情怀素材– 东亚。”

偏差可能由多种因素引起,包括不完整的训练数据

同样,大多数图像数据集使用英语名词作为起点并相应地收集数据。这可能意味着缺少整个类别的项目,或者相同的项目在不同的/地区看起来不同。作者给出了洗碗皂的例子,这些香皂在一些是肥皂,在另一个是液体容器,婚礼在和看起来很不一样。

为什么这很重要?嗯,首先,这意味着使用这些算法创建的任何系统对来自低收入和非西方的人来说都会表现更差。由于科技公司是人工智能的全球领导者,这可能会影响从照片存储服务和图像搜索功能到更重要的系统,如自动安全摄像头和自动驾驶汽车。

但这可能只是冰山一角。视觉算法相对容易评估这些偏差,但是创建这些程序的管道也为整个行业提供了充分的算法,这些算法永远不会受到同样的审查。

“审计AI系统并不一定容易,因为没有执行此类审计的标准基准,”帮助开展此项研究的Facebook AI的研究科学家Laurens van der Maaten告诉The Verge。“在打击这种偏见方面,最重要的一步是在设置用于训练系统的训练数据的收集过程时更加谨慎。”

硅谷经常推广其产品 – 特别是近年来,它的人工智能产品 – 作为平等主义,所有人都可以使用。这样的研究表明,科技公司继续以自己的形象评估,定义和塑造世界。

本文发布于:2023-04-09 11:47:08,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/58512a6784c02a13cdbcab9b1167ed7e.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:人工智能更难以识别来自低收入的家庭用品.doc

本文 PDF 下载地址:人工智能更难以识别来自低收入的家庭用品.pdf

标签:算法   人工智能   数据   偏见
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图