爆资讯爆资讯爆资讯

AI看病,你放心吗

“人工智能+医疗”正在不断发展中,人工智能是如何实现看病的,是否比医生更专业?

AI看病,你放心吗

人工智能医疗的优势

人工智能具有准确率高、提高诊疗效率的明显优势。在临床领域,人工智能最主要的应用就是分析患者的医学影像,评估患者是否得病,其准确率准确率非常高。

另一个厉害之处,就是能科学地标记治疗优先级。一项调查发现,放射科医生在给医学扫描影像评级时,标记为高优先级的居然高达60%。这显然不科学,说明医生们很可能花费了大量时间处理那些不算严重的病例,而真正紧急的病例却因此耽误了治疗时机,甚至因此丧命。在这一点上,人工智能的优势就凸现出来了,因为机器可以短时间内处理大量数据,从宏观上作出更好的判断。去年9月,美国食品药品监督管理局批准了一套AI算法工具,能自动标记出最紧急的病例,让医生优先治疗,这能大大节省医生的时间和精力。

这就是人工智能做诊断的两大优势:准确率高,又能提高诊疗效率。那你或许觉得,既然如此,就直接让人工智能代替人类医生来看病不就行了吗?可惜,还不行。人工智能有两个棘手的难题没有解决。

人工智能医疗的难题

第一个难题:黑盒效应

简单来说,由于算法是通过数据自我学习,它是怎么做判断的,人类很难理解。就像是在看一个黑盒子,你不清楚里面到底是什么结构,工作原理是怎样的。

《美国医学会杂志》去年发表了一篇论文,说研究人员用了8.5万张X光片训练出了一个人工智能算法,用来评估患者的死亡风险,准确率很高。为了知道它是怎么做判断的,研究人员检查了影像中被算法纳入评估的区域,结果发现算法居然检查了肩胛骨下方的区域,可这个地方并没有已知的医学意义。

什么意思呢?就好比说,算法觉得一个人胳膊抬不高,寿命就比较短,这根本说不通。所以你看,算法并不是从底层原理预测,它们的预测方式不可理解。这样的话,如果算法判断患者有病,医生没看出来,他又该怎么向患者解释呢?

有时,算法甚至会违反基本常识或伦理。比如,在纽约的西奈山伊坎医学院,研究人员开发了一个识别肺炎的算法,在评估影像时,算法居然把影像来自哪家医疗机构也纳入了评估范围。也就是说,如果片子来自肺炎确诊率较高的医院,那算法判断患者患了肺炎的几率就会更高。可是,这种评估策略明显是有缺陷的,算法应该只评估片子本身,而不应该考虑片子来自哪家医院。

第二个难题:医疗责任问题

现代医疗体系对于医疗责任的划分是很明确的,医生作出了错误的诊疗,就要承担责任。如果人工智能诊断失误,而医生又根据人工智能的判断作出了错误的治疗措施,那算医生的责任还是算法的责任?在医疗诉讼中,这就会成为问题。还有,算法也会“生病”,它并不是百分百可靠。

随着时间推移,算法会从很多种不同类型的数据中提取新的含义,进行自我学习。假设医院换了新的软件系统,带来的数据上的变化破坏算法的有效性,而医生们又不知道,等发现有问题已经晚了。要是在这种情况下发生医疗纠纷,那你说,是算法开发企业的责任,还是医院自身使用不当的责任?

对于这些问题,人工智能并不关心,也解决不了。它们是属于社会层面的问题,需要人来探讨解决方案。

人工智能给医疗系统带来的变化

第一个变化出现在医疗系统内部。短期内,人工智能或许无法完全取代人类医生,但那些使用人工智能辅助的医生,可能会取代不使用人工智能的医生。

第二个变化是人工智能会在发展中国家找到巨大的市场。文章中提到,现在有企业正在开发一种人工智能辅助诊断程序,在手机上就能运行。医疗资源落后地区的医生如果能用上这类AI程序,肯定能明显提升自身的诊疗能力。

第三个变化出现在医患之间。不光医生能用人工智能,患者也能用。我看有报道说,谷歌正在和美国政府合作创立一个人工智能网站,用户可以上传病历,让算法先做诊断,再决定是否要进一步寻医问药,这也能减少过度检查和过度医疗的情况。

小结

总之,人工智能具备是诊断准确率高、提高诊疗效率的优势。但也存在明显的问题,一个是黑盒效应,这让算法的诊断变得难以解释;另外,如果出现诊疗失误,医疗责任划分需要明确。

在这两个问题没有解决之前,人们还不能放心地把看病这件事彻底交给人工智能。但毫无疑问的是,人工智能会让整个医疗体系的运转更高效,这可比单纯会“看病”更有价值。

未经允许不得转载:爆资讯 » AI看病,你放心吗

相关推荐