微软开发新工具,可以防止AI算法出现偏见

  • 时间:
  • 浏览:0

北京时间5月26日上午消息,微软开发出一套新工具,用来判断AI算法有无位于偏见。AI算法将会会歧视许多人群,微软希望新工具可不还都可以帮助企业及时发现,安全使用AI。

微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具大概“仪表板”,工程师还可不还都可以用它训练AI模型。他还表示,在AI领域,将会经验严重不足,许多新东西理解的人很少,比如透明度、可理解性、可解释性;还有随时将会突然出先的偏见,哪些就有可不还都可以 重视的元素。

在最近举行的会议上,哈佛机器学习讲师、罗德岛大学CIO加布里尔·法耶罗(Gabriele Fariello)曾说,在伦理偏见方面,AI将会位于严重的难题。他认为,在医疗保健、司法及其它领域,许多决定由AI做出,它会直接影响.我.我.我.我.我.我的生活。

卡鲁阿纳还说:“好好训练员工,这是企业眼下应该做的最重要事情,原本员工就能知道在哪些环境下偏见会增加,在哪些环境下会显示出来,员工还能开发工具,让模型变得更容易理解,让偏见更容易被发现。”