《纽约时报》3月21日的《科学》杂志报道说,黑客的可访问性和潜在的安全漏洞在很大程度上影响着成功的AI系统的发展,但更紧迫的威胁可能会由医疗保健监管机构(如保险提供商和计费公司)面临。
虽然神经网络通过分析大量数据来训练自己完成某些任务,但只需少量的数字操作即可改变技术的核心功能,哈佛医学院和麻省理工学院的研究员Samuel Finlayson也是该论文的作者,告诉《纽约时报》。正如研究人员已经训练了AI系统来检测乳腺癌一样,黑客可以操纵代码以不标记恶性肿瘤。
研究人员一次又一次地证明了AI可能会带来意想不到的负面后果-例如,无人驾驶汽车将停车标志解释为屈服标志,并且以AI为动力的眼镜被欺骗以使其认为名人。但就临床而言,Finlayson和他的同事表示,他们担心强大的医疗保健利益相关者可以通过数据操作实现什么。
Finlayson告诉《纽约时报》:“医学信息固有的含混性,加上经常竞争的财务激励机制,使高风险决策可以依靠非常微妙的信息。”
他说,由于医疗保健行业内有大量的货币兑换,保险和计费公司已经通过更改其计算机系统内的计费代码和其他数据来“使系统计费”。随着AI在这些环境中变得越来越普遍,利益相关者更有可能操纵扫描以获得更好的支出,或者更改图像以加快监管审批。
宾夕法尼亚大学助理教授哈姆萨·巴斯塔尼(Hamsa Bastani)对《医疗时报》进行了研究,他说:“某些行为是无意的,但并非全部。” “总是会有意想不到的后果,尤其是在医疗保健方面。”