让运算过程透明化 使民众更加信任人工智能

有效的人工智能运算当然高效率,不过对咱们而言,很难理解到底它们是怎样作决定。MIT 最近的研究,让人工智能用人类能够理解的方式,描述运算思考过程,使大众对人工智能系统有更多信任。网络

最近由 MIT 林肯实验室情报和决策技术小组发表的学术报告《设计透明度:缩小视觉推理中效能与可解释性之间的差距》(Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning),研究人员描述一视觉分析系统,可像人类解释计算出答案的推理步骤,运算过程更透明。神经网络 TbD-net 透过热力图进行视觉分析,分析人类语言的问题后,拆分为不一样的分析工做。当它分析一张照片,会在有特征的部分加上颜色标记,表明哪部分有模块输出进行特定工做,集合各区域的运算结果,组合成最终的答案。post

系统虽然提供人类可理解的运算过程显示,效能仍然至关优异。研究输入 85,000 张图像和 850,000 条问题以后,TbD-net 的准确度达 98.7%,比其余神经网络运算方式更佳。人工智能

透过让运算过程变透明,研究人员相信可以让大众更信任系统,避免人工智能给人黑箱做业感,特别在军事和政府监控相关系统更重要。IBM Research AI 部门主管 Aleksandra Mojsilovic 表示,大型人工智能系统有庞大的潜力改变咱们的生活,所以透明度问题必定要先解决,才可以让人类信任。
文章转自:http://www.mvol.org.tw/post.aspspa

相关文章
相关标签/搜索