咨询热线:QQ:574900 -- VC号:chiyo11618

天辰测速网址

天辰登录官网数据在黑暗中消失:让人工智能算法

 
天辰测速官网 数据在黑暗中消失:让人工智能算法跳出黑箱思考


虽然人工智能和机器学习让企业能够在员工比以往任何时候都少的情况下更快地采取行动,但企业也承担了一种前所未有的风险。人工智能和ML算法的好坏取决于它们学习的数据。如果他们被训练使用一个数据集来做决定,而这个数据集没有包含足够的例子或者特定人群的有偏见的例子,天辰测速网址他们将会无意中产生有偏见的结果——或者更糟糕的,决策,就像Apple Card的情况一样。
 
例如,如果一组图像中有许多女性在厨房里的例子,那么使用这组图像数据进行训练的算法就会在女性和厨房之间形成一种关联,这种关联可以在其假设和决策中重现。
 
当分析一个数据集时,算法应该考虑的参数仍然是由人设定的。做这项工作的开发人员和数据科学家可能没有意识到他们设置的参数所包含的无意识偏见。我们不知道苹果卡的信用决定的参数是什么,但如果因素包括年收入,而不考虑共同财产所有权和纳税申报,女性,在美国仍然是80.70美元对每个男人的美元,天辰登录官网将是一个固有的劣势。
 
迄今为止,我们在法律下建立平等保护的努力旨在防止有意识的人类偏见。AI的问题是我们无意识的偏见,它再现了更快、更有效地比我们可以和它没有道德意识或对公关的关注。该算法,在这种情况下,给予信贷决策没有高阶思维能力,一个人看到一个红旗的鲜明的信贷限制了女性与男性之间的差异。
 
部分问题在于,与许多AI和ML算法一样,苹果卡是一个黑盒;也就是说,没有合适的框架来跟踪算法的训练和决策。对于企业来说,这是一个重大的法律和公关风险。对社会来说,这更加严重。如果我们把我们的决策交给人工智能,无论是关于共乘退款、保险账单,还是抵押贷款利率,我们就有可能让自己受到毫无吸引力的评判,天辰登录天辰平台网址让我们面对一个由机器组成的君主制,在那里,全世界都是数据集,所有的男人和女人都只是数据。
 
我们不必接受这个新的世界秩序。我们可以以负责任的方式进行创新。我们需要确保新一批支持机器学习的数据平台拥有必要的基础设施,以实现治理、透明性和可重复性。除了这些基础设施之外,我们还需要一个框架来跟踪算法训练的传承。新加坡的个人数据保护委员会(Personal Data Protection Commission)已开始着手解决这一问题,创建了人工智能治理框架模型。世界经济论坛(World Economic Forum)正在研究一项举措,让全球的企业和政府都能使用这一框架。
 
我们总是可以决定结果是否反映了我们的社会价值观,天辰娱乐线路是否符合我们的法律标准。但如果我们能事先评估用于训练一个模型的数据,并持续评估该模型的表现,那么我们就能发现系统中产生无意偏见的缺陷,并在我们不得不在Twitter上听到这些信息之前修正它们。

Copyright © 2014-2019 天辰注册-天辰平台 版权所有