虽然大多数人每天都会遇到算法,但并没有多少人能声称自己真正理解人工智能是如何工作的。然而,谷歌发布的一种新工具希望帮助普通人类理解机器学习的复杂性。
该功能被称为“可解释的人工智能”,它承诺完全按照其名称所描述的去做:向用户解释机器学习模型是如何以及为什么得出结论的。
为此,解释工具将量化数据集中的每个特性对算法结果的贡献。每个数据因子都有一个分数,反映它对机器学习模型的影响程度。
参见:如何实现人工智能和机器学习(ZDNet特别报告)
用户可以提取这个分数来理解为什么一个给定的算法会做出一个特定的决定。例如,在决定是否批准某人贷款的模型中,可解释的AI将显示账户余额和信用评分作为最决定性的数据。
谷歌的首席执行官托马斯·库里安(Thomas Kurian)在谷歌下一次伦敦的发布会上介绍了这一新功能,他说:“如果你使用人工智能来评分,你应该能够理解为什么这个模型会拒绝一个特定的模型,而接受另一个模型。”
他表示:“可解释的人工智能让你作为在企业业务流程中使用人工智能的客户,理解为什么人工智能基础设施会产生特定的结果。”
该解释工具现在可以用于托管在谷歌的AutoML表和云人工智能平台预测上的机器学习模型。
谷歌之前已经采取措施使算法更加透明。去年,它推出了假设工具,让开发者在公司的人工智能平台上对数据集进行可视化和探测。
通过量化数据因素,可解释的人工智能开启了进一步的洞见,并使这些洞见对更多用户具有可读性。
谷歌Cloud的战略总监Tracy Frey说:“你可以将人工智能的解释与我们的假设工具结合起来,得到你的模型行为的全貌。”
在医疗等领域,提高人工智能的透明度将特别有用。
例如,在一种用于诊断某些疾病的算法中,它将让医生可视化模型捕捉到的症状以做出决定,并验证这些症状不是假阳性或不同疾病的征兆。
该公司还宣布,将推出一种名为“模型卡”的新概念——提供有关特定算法的即时信息的短文档。
参见:谷歌使呼叫中心AI通常可用
这些文档本质上是机器学习的ID卡,包括关于模型性能和限制的实际细节。
根据该公司的说法,这将“帮助开发人员更好地决定将什么模型用于什么目的,以及如何负责任地部署它们。”
谷歌已经发布了两个模型卡示例,提供了关于人脸检测算法和对象检测算法的详细信息。
人脸检测模型卡解释说,该算法可能受到脸的大小、方向或光线不好的限制。
用户可以阅读模型的输出。性能和局限性。例如,人脸检测模型卡解释说,该算法可能受到脸的大小、方向或光线不好的限制。
今天公布的新工具和新功能,是谷歌试图证明自己坚持人工智能原则的一部分。人工智能原则要求在开发这项技术时提高透明度。
今年早些时候,该公司解散了成立仅一周的人工智能伦理委员会,该委员会是为了监督其对人工智能的使用而成立的。