微软开发新工具 可以防止AI算法出现偏见

[摘要]5月26日上午消息,微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,
5月26日上午消息,微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,安全使用AI。

微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪表板”,工程师可以用它训练AI模型。他还表示,在AI领域,因为经验不足,有些新东西理解的人很少,比如透明度、可理解性、可解释性;还有随时可能出现的偏见,这些都是必须重视的元素。

在最近举行的会议上,哈佛机器学习讲师、罗德岛大学CIO加布里尔·法耶罗(Gabriele Fariello)曾说,在伦理偏见方面,AI已经存在严重的问题。他认为,在医疗保健、司法及其它领域,有些决定由AI做出,它会直接影响我们的生活。

卡鲁阿纳还说:“好好训练员工,这是企业眼下应该做的最重要事情,这样员工就能知道在哪些环境下偏见会增加,在哪些环境下会显示出来,员工还能开发工具,让模型变得更容易理解,让偏见更容易被发现。”




免责声明:

本站系本网编辑转载,会尽可能注明出处,但不排除无法注明来源的情况,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系, 来信: liujun@soft6.com 我们将在收到邮件后第一时间删除内容!

[声明]本站文章版权归原作者所有,内容为作者个人观点,不代表本网站的观点和对其真实性负责,本站拥有对此声明的最终解释权。