人工智能技术的透明度和道德伦理问题,正引起愈来愈多的关注,这促使云计算服务提供商推出新工具,解释人工智能算法背后的决策过程。算法
会计和金融等强监管行业的高管表示,数据科学家和非技术业务经理都必须能理解算法决策背后的流程,这相当重要。这样的理解在防范潜在道德违规和监管违规方面可能会带来深远影响,尤为考虑到企业级人工智能算法正变得愈来愈广泛。网络
毕马威创新和企业解决方案部门负责智能自动化、认知和人工智能的高管维诺德·斯瓦米纳桑(Vinodh Swaminathan)表示:“我认为,除非具有这种解释能力,不然人工智能在企业中的规模不可能超过数百个试点应用。”工具
对人工智能的解释问题已经促使IBM和谷歌等公司在云计算人工智能服务产品中引入透明度和道德伦理工具。好比,IBM商业价值研究所近期的一项研究调查了5000名企业高管。约60%的受访者表示,他们关心如何解释人工智能使用数据做出决策,以达到监管和合规标准。这个比例较2016年时的29%大幅上升。学习
甚至对数据科学家和相关企业高管来讲,人工智能的决策过程有时都是“黑盒”。在深度学习工具,例如用于模式识别的神经网络中尤为如此。这样的神经网络试图模拟人脑的运转方式。尽管这些系统能够之前所未有的准确率和速度得出结论,但外界并不老是很是清楚,计算网络是如何作出具体的决策。云计算
毕马威内部的数据科学家正在开发自主的可解释性工具,此外该公司也在利用IBM新的透明度工具。斯瓦米纳桑表示,这样作的目的是确保技术和业务两方面的员工都能“打开黑盒”,准确地了解人工智能算法是如何作出结论的。人工智能
IBM上周发布了新的云计算人工智能工具,能够向用户展现哪些主要因素影响了人工智能作出的建议。这些工具还能够实时分析人工智能决策,以识别固有偏见,并推荐数据和方法来解决这些偏见。IBM负责认知解决方案的高级副总裁大卫·肯尼(David Kenny)表示,这些工具能够与IBM人工智能服务,以及谷歌等其余云计算服务提供商的工具配合使用。开发