当前位置:首页 > 业务领域 >

微软开源可解释机器学习工具包lnterpretML

编辑:亚博APP 来源:亚博APP 创发布时间:2020-11-13阅读79689次
  本文摘要:人工智能的不道德具有可解读性,人类可以进一步利用人工智能。最近,微软公司研究院就机器学习的可解读性公开发表了文章,全文编译器如下。当人工智能系统需要影响人类生活时,人们对其不道德的解释是最重要的。通过解读人工智能系统的不道德,数据科学家需要调整模型。

亚博APP下载

亚博app

【照片来源:MicrosoftresearchBlog所有者:MicrooftresearchBlog所有者:MicrooftrearchBlog所有者:人类构建了人工智能,受到人工智能的影响。人工智能的不道德具有可解读性,人类可以进一步利用人工智能。最近,微软公司研究院就机器学习的可解读性公开发表了文章,全文编译器如下。

亚博app

当人工智能系统需要影响人类生活时,人们对其不道德的解释是最重要的。通过解读人工智能系统的不道德,数据科学家需要调整模型。

亚博app

如果您需要解释模型的不道德原理,那么设计师们就需要将这些信息发送给最终用户。如果医生、法官或其他决策者坚信这种增强智能系统的模式,他们可以做出更好的决策。

亚博app

更普遍的是,随着模型的解读更全面,最终用户可能会逐渐拒绝接受人工智能驱动的产品和解决方案,同时也可能更容易满足监督机构日益增长的市场需求。实际上,构建可解读性很简单,依赖于很多变量和人为因素,避免了一切的方法。可解读性是最先进的跨学科研究领域,创造了机械学习、心理、嵌入、设计思想。

亚博app

亚博APP下载

亚博app

亚博app

亚博app

微软公司研究院近年来仍致力于研究如何构建具有解读性的人工智能。现在微软公司在MIT开源协议下开源了lnterpretML软件工具包。

亚博app

开源地址是https://github.com/microsoft/interpret,开发人员需要尝试各种方法来说明模型和系统。InterpretML需要继续执行许多可解释的模型,包括可解释的BoostingMachine(改良了一般的加性模型),以及黑盒模型的不道德和个别预测分解说明的几种方法。

亚博app

用非常简单的方法评价可解读的方法,开发人员需要用不同的方法进行说明,自由选择符合市场需求的方法。例如,通过检查方法之间的一致性,比较法需要数据科学家理解在多大程度上相信说明。微软公司期待与开源社区合作,然后开发InterpretML,开源地址为https://github.com/microsoft/interpret(公共编号:)记录:本文编译器从Microsoft到Research下一篇文章发表了注意事项。

亚博app


本文关键词:亚博APP,亚博APP下载,亚博app

本文来源:亚博APP-www.mulherdesalto.com

0813-63507382

联系我们

Copyright © 2010-2014 香港市亚博APP科技股份有限公司 版权所有  港ICP备51523381号-1