企业站

如何防止AI将你认成“大猩猩”?光靠肤白可不行

卡夫卡 原创 2018-11-20 00:15:42
网络设备业界动态

  【PConline 资讯】各位是否还记得,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?正因此次事件造成的不良影响,让Google意识到:与其担心AI伤人,更严重的是AI偏见问题。为了防止AI“胡来”,Google为其制定了七项“道德”准则。

  事情的原委是这样的,2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas),引起了轩然大波。事发后,谷歌为此深表歉意,并着手处理这一漏洞。

  不仅如此,谷歌还提出AI技术的开发道德准则,并且成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。不光是Google,从IBM到Airbnb,每家公司都在努力确保自己的算法不会出现类似的偏差。

  为此,今年6月,Google首席执行官Sundar Pichai发布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见,并表示AI技术的开发和使用将在未来许多年内对社会产生重大影响:

  •对社会有益
  •避免制造或增强不公平的偏见
  •建造并测试其安全性
  •对民众负责
  •融入隐私设计原则
  •坚持科学卓越的高标准
  •为符合这些原则的用户提供

   除了那次不愉快的“大猩猩”事件外,哈佛大学的研究员Latanya Sweeney表示:谷歌搜索中存在种族歧视,当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。

   实际上,对于AI偏见这件事,一份来自皮尤研究中心近期公布的研究结果显示:目前美国有58%的成年人认为,人工智能的算法极其程序将会始终包含对人类的偏见,人工智能算出的结果不能保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人认为算法不中立;18-29岁的受访者中,也有48%的人认为算法一定会存在偏见。

   如此看来,大众对AI偏见这件事存有共识。显然,解决AI偏见光靠Google一家公司还远远不够,需要有更多的公司加入其中。

点击展开全文
打开太平洋科技,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

苏州立琻半导体与IPwe就Micro-LED等领域专利达成战略合作 原创 网络设备栏目
苏州立琻半导体与IPwe就Micro-LED等领域专利达成战略合作
启迈QIMA提供网络安全测试服务 保障电气和电子设备安全合规 原创 网络设备栏目
启迈QIMA提供网络安全测试服务 保障电气和电子设备安全合规
Redmi联合京东超级品牌日成功举办「先人一步」K70系列品鉴会 原创 网络设备栏目
Redmi联合京东超级品牌日成功举办「先人一步」K70系列品鉴会
研祥小课堂:如何选择合适的工控机? 原创 网络设备栏目
研祥小课堂:如何选择合适的工控机?
科沃斯WINBOT W2 PRO今日开售,首创独立基站,擦窗机器人从此告别束缚 原创 网络设备栏目
科沃斯WINBOT W2 PRO今日开售,首创独立基站,擦窗机器人从此告别束缚
共育鸿蒙人才,深化校企合作,鸿蒙亮相第五届中国计算机教育大会(CECC) 原创 网络设备栏目
共育鸿蒙人才,深化校企合作,鸿蒙亮相第五届中国计算机教育大会(CECC)
显示世界 豫见未来 ——首届“新型显示和智能终端产业链大会”成功举办 原创 网络设备栏目
显示世界 豫见未来 ——首届“新型显示和智能终端产业链大会”成功举办
香橙派联合华为发布全新Orange Pi AIpro 开发板,起售价799元 原创 网络设备栏目
香橙派联合华为发布全新Orange Pi AIpro 开发板,起售价799元
Symantec & Westcon强强联手,未来可期 原创 网络设备栏目
Symantec & Westcon强强联手,未来可期
闪联推出手机智联应用解决方案,实现手机与车机无缝融合新生态 原创 网络设备栏目
闪联推出手机智联应用解决方案,实现手机与车机无缝融合新生态
相关产品
取消