您的位置: 首页 > 工程案例 > 中式风格

ya博体育app官网入口-微软开源可解释机器学习工具包lnterpretML

发布日期:2024-10-07 00:00:04 浏览次数:
本文摘要:【 图片来源:Microsoft Research Blog 所有者:Microsoft Research Blog 】按:人类建构出有人工智能,并且被人工智能影响着自己的生活。

【 图片来源:Microsoft Research Blog 所有者:Microsoft Research Blog 】按:人类建构出有人工智能,并且被人工智能影响着自己的生活。如果人工智能的不道德具备可解读性,那么人类可以更进一步地利用人工智能。

近期,微软公司研究院就机器学习的可解读性公开发表了涉及文章,全文编译器如下。当人工智能系统需要影响人类生活时,人们对它的不道德解读是十分最重要的。通过解读人工智能系统的不道德,数据科学家需要必要地调试它们的模型。

如果需要说明模型的不道德原理,设计师们就需要向最终用户传送这些信息。如果医生、法官或者其它决策制定者坚信这个增强智能系统的模型,那他们就可以做出更佳的决策。更加普遍的讲,随着模型的解读更为全面,最终用户可能会更加慢拒绝接受由人工智能驱动的产品和解决方案,同时,也有可能更容易符合监管机构日益增长的市场需求。

事实上,要构建可解读性是简单的,它高度倚赖许多变量和人为因素,回避了任何“一刀切”的方法。可解读性是一个前沿的、跨学科的研究领域,它创建在机器学习、心理、嵌入式以及设计的思想上。微软公司研究院这些年仍然致力于研究如何建构出有具备可解读性的人工智能,如今,如今微软公司在MIT开源协议下开源了lnterpretML软件工具包在,开源地址是 https://github.com/Microsoft/interpret,它将使开发人员需要尝试各种方法去说明模型和系统。InterpretML需要继续执行许多可解读的模型,还包括可说明的Boosting Machine(相对于一般的加性模型做到了改良),以及为黑箱模型的不道德或者它们的个别预测分解说明的几种方法。

通过一些非常简单的方式去评估可解读性方法,开发人员就需要较为有所不同方法产生的说明,从而去自由选择那些最合乎他们市场需求的方法。例如,通过检查方法之间的一致性,这样一来,比较法就需要协助数据科学家去理解在多大程度上坚信那些说明。微软公司于是以期望与开源社区合作,之后研发InterpretML,开源地址是https://github.com/Microsoft/interpret(公众号:)录:本文编译器自Microsoft Research Blog版权文章,予以许可禁令刊登。下文闻刊登须知。


本文关键词:ya博体育app官网入口,ya博体育app官网入口2024最新版

本文来源:ya博体育app官网入口-www.nbgonghe.com