人工智慧(AI)的例子无处不在。我们对于AI的使用可能超出想像,并且在许多方面视为理所当然。智慧手机助理就是一个很好的例子,尽管我们可能并不认为这与AI有关。许多情况下,我们已经习惯于与Siri或Google Assistant的互动。同样,脸部辨识已成为新型智慧手机的标准解锁功能。
机器学习属于AI的一个子集,原理是通过训练基于电脑的神经网路模型来识别设定的模型或声音。在神经网路完成训练后,就可以推理出结果。例如,如果我们用数百张狗和猫的图像训练神经网路,那么它应该能够正确地识别图片中是狗还是猫。网路模型会确定答案,并指示预测的类别概率。

图一 : 机器学习的原理是通过训练基于电脑的神经网路模型来识别设定的模型或声音。 (source:恩智浦) |
|
随着基于机器学习的应用越来越深入日常生活,系统开发人员已经逐渐意识到神经网路的当前运行方式不一定正确。让我们回到上面的例子,如果我们向神经网路显示一匹马的图片,那么仅经过猫狗推理训练的神经网路不得不在已训练的类别中选择一个。更令人担忧的是,给出错误预测的概率很高,您甚至都不会注意到,这个模型就这样无声无息地失败了。
然而,人类应对类似情况的方法大不相同,我们会使用更合理的决策方法。我们希望神经网路诚实地回答:我不知道答案,或者从未见过马的图像。上面的举例虽然非常简单,但却足以说明神经网路有缺陷,难以在充满突发情况和不确定性的人类世界中运作。现实情况是,许多工业和汽车系统仍在继续开发神经网路,即使在某些情况下会存在这些问题。
恩智浦多年来投资构建AI功能,并一直在关注此类缺陷。智慧手机助理错误地推断语音,其危险性与工业或医疗保健环境中的错误也大相径庭。因此,我们正在为客户提供先进的机器学习解决方案,并持续研究一种方法,名为「可解释的AI」(xAI)。 xAI通过添加更合理、类似于人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。 xAI将AI的所有优势与推理机制相结合,使其更接近人类的反应方式。

图二 : xAI通过添加更合理、类似於人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。(source:GPUONCLOUD) |
|
假设您是自动驾驶汽车的乘客,如果车辆缓慢地行驶,您自然会想知道为什么车辆要如此小心。如果驾驶员是人类,您可能会问:为什么这么慢。驾驶员会解释说,下大雨时的能见度很差,他们不确定前面会有什么危险。解释基于不确定性,xAI的决策便遵循类似的行为模式来表达模型不确定的推理。
恩智浦已经在研究如何将xAI功能整合到汽车、工业和医疗保健系统开发的机器学习解决方案中。
鉴于史无前例的全球新冠肺炎(COVID-19)大流行,xAI研究团队认为,恩智浦xAI可能有助于实现对患者疾病的快速检测。虽然现在研究尚处于初期,但是已有的证据点让我们深受鼓舞。另外,我们与一些医院建立了互动,积极了解xAI技术对全球面临的医疗保健挑战有何帮助。
除了规定的PCR测试和诊断方案,CT放射学和X射线影像的使用提供了快速的替代检测功能。通过适当培训的xAI模型来处理CT和X射线影像,就能区分未感染病例和感染病例。 xAI能够提供即时推理可信度和可解释的洞察,以帮助临床人员确定下一步治疗方案。
xAI研究团队相信他们的推理模型已经趋于成熟,目前正在与欧洲和美洲的医学和AI专家进行讨论。但是,为了进一步推动研究,我们必须获取更大的匿名资料集,积极寻求新冠肺炎研究人员和潜在合作伙伴的回馈,共同合作以改进这种检测技术。
xAI使我们能够在涉及不确定性的情况下,作出更接近人类的反应。它为基于概率的决策分类增加了确定性和可行度。恩智浦在汽车、工业和医疗保健应用的关键安全系统中发现了xAI的机会。
(本文作者Lars Reger为恩智浦资深副总裁兼首席技术官)