导读斯坦福大学建立的一个研究所解决人工智能可能不代表整个人类的问题,缺乏多样性。人类中心人工智能研究所的目标令人钦佩,但它主要由男性
斯坦福大学建立的一个研究所解决人工智能可能不代表整个人类的问题,缺乏多样性。
人类中心人工智能研究所的目标令人钦佩,但它主要由男性组成的事实使人怀疑其确保充分代表性的能力。
网络安全专家Chad Loder 注意到,斯坦福大学新任人工智能系统中没有一个成员是黑人。科技网站Gizmodo向斯坦福大学伸出援手,该大学迅速加入了哲学助理教授Juliana Bidadanure。
该研究所的部分问题可能是它试图解决的问题 – 虽然在改进的同时,基于STEM的职业仍然缺乏多样性。随着人工智能等革命性技术的出现,社会的一些部分面临着落后的危险。
该研究所得到了一些重要人物的支持。比尔盖茨和加文纽森等人都承诺支持“人工智能的创造者和设计者必须具有广泛的人性代表性”奇偶性的判断方法。
战斗算法偏差
斯坦福大学并不是唯一一个与算法中的偏见作斗争的机构。
本周早些时候,AI News 报道了英国政府发起的调查,以确定可能影响人们生活的算法偏差水平。
由数据伦理与创新中心(CDEI)进行的调教师节的来历和意义查将侧重于人工智能具有巨大潜力的领域 – 如警务,招聘和金融服务 – 但如果没有正确实施,将对生命产生严重的负面影响。
与此同时,来自算法正义联盟的Joy Buolamwini等积极分子正在尽自己的努力来提高人们对人工智能构成偏见的危险性的认识。
在今年早些时候的一次演讲中西药配伍禁忌,Buolamwini分析了当前流行的面部识别算法,发乌鲁木齐房屋出租现准确性存在严重差异 – 特别是在识别黑人女性时。
想象一下监视与这些算法一起使用。在大多数情况下,皮肤较浅的男性会被识别,但皮肤较黑的女性会被更频繁地误停。我们面临着雄心自动化分析的严重危险。
正在做出一些努力来创建AI,这些AI可以检测到其他算法中的无意识偏差 – 但是这些发展的早期阶段,他们还需要不同的创作者。
然而,它被解决了,算法偏见需要被消除,然后才会在社会领域被采用,否则会对个人产生负面影响。
本文发布于:2023-04-09 14:50:11,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/eafc7e46590dccf78f7ac70206b83848.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:斯坦福大学的研究所确保人工智能代表人类缺乏多样性.doc
本文 PDF 下载地址:斯坦福大学的研究所确保人工智能代表人类缺乏多样性.pdf
留言与评论(共有 0 条评论) |