技术编辑:徐九丨发自 北京
SegmentFault 思否报道丨公众号:SegmentFault算法
美国联邦贸易委员会(FTC)下属的消费者保护局局长安德鲁-史密斯(Andrew Smith)本周发布了一篇文章,名为《使用人工智能和算法》。该文章旨在对正在开发和使用消费级人工智能的企业提供一些帮助。安全
文章中的经验主要来自于 FTC 过去的执法行动、行业报告以及研讨会,其中一个最重要的信息就是建议企业在开发和使用人工智能时,不要让消费者或者他们自身感到惊讶。网络
谨慎对待人工智能,除了有助于避免 FTC 的审查以外,还能带来一些好处。好比还能够帮助避免与消费者和商业伙伴的关系受损。这次 FTC 在文中提出的建议主要分为四大类:框架
尽管其中许多信息涉及到 FTC 执行的特定行业法律,如《公平信用报告法》(FCRA)和《平等信用机会法》(ECOA)等,但其实不少建议具备更普遍的适用性。工具
诸如 FCRA、ECOA 和 1964 年《民权法》第七章等行之已久的法律,他们分别适用于消费者报告、消费信贷、投票、教育和提供公共场所等领域的人工智能使用。要履行这些法律的义务,有赖于认可这些法律是否以及什么时候适用。测试
然而,FTC 的文章中讨论的法律远非详尽无遗。在文章中提到的法律以外,还有一条重要的法律须要补充 —— 健康保险便利和责任法案(HIPAA)。ui
该法案制定了一系列安全标准,就保健计划、供应商以及结算中心如何以电子文件的形式来传送、访问和存储受保护的健康信息作出详细的规定。法案规定在确保私密性的状况下保存病人信息档案六年,还详细规定了医疗机构处理病人信息规范,以及违法保密原则、经过电子邮件或未受权的网络注销病人档案的处罚方案。人工智能
虽然一般状况下,当一个企业做为医疗服务提供者、保险人或信息交换中心时,一般是很清楚的,但要肯定公司什么时候成为受保实体的「商业伙伴」可能更具挑战性。spa
这次新冠疫情的影响加速了和医疗健康相关的 AI 产业发展,而这些企业在寻求技术突破的同事,更须要了解企业应该担负的责任。3d
根据文章所述,FTC 已经制定了评估 AI 系统是否存在非法歧视的法律和经济标准。
具体来讲,该机构将查看输入的信息,以肯定它们是否包括「基于种族的因素,或此类因素的替代信息」。
文章中表达了一个强烈的观点,就是 FTC 对经过使用 AI 可能产生的歧视的关注度至关高。"使用人工智能和算法工具的公司应该考虑是否应该对人工智能结果进行自我测试,以管理这类模型所固有的消费者保护风险"。
然而,FTC 并无为这些评估提供一个框架,也没有更笼统地指出哪些类型的 AI 歧视风险能够被采起行动。尽管如此,企业仍需善意地努力识别和下降此类风险。
FTC 的 AI 指南中贯穿着另外一个主题:公司应仔细评估 AI 相关数据和分析的上游供应商如何遵照其法律义务,并对其进行适当的约束,以防止本身的客户以不适当或非法的方式使用 AI 服务。
虽然 FTC 重点关注 FCRA 和 ECOA 下的上游和下游要求,但远离更多的高监管活动才是其意图。
在签定人工智能相关业务关系以前进行尽职调查,要求在合同条款中写明人工智能系统和数据输入的容许用途,以及监督业务合做伙伴的表现,都是实现这些目的的关键。
FTC 在监督人工智能在经济领域的使用方面的做用还处于起步阶段,并将继续发展。但无论怎么说,该机构这次发布的文章,对于随着科技发展而新兴的法律和企业对自我监管的思考,都提供了一个有用的资源。
参考资料:
AD LAW ACCESS
维基百科: 健康保险便利和责任法案