AI诊断肺癌又准又快它要抢医生饭碗

时间:2021/3/24 12:39:20 来源:儿科_儿科常识_儿科常识网站 作者:佚名

从肺小结节到肺癌,从免疫组化到肺功能检测,AI(人工智能)啥都能看了还要医生干啥?

作者|鲸鱼

来源|医学界呼吸频道

本文提要

机器来看片:又来要砸医生的饭碗?

还能找突变:你怎么变得这么聪明?

失业的危机:人们不需要医生了吗?

1

机器来看片:又来要砸医生的饭碗?

组织学、病理学、影像学,这些看“片”的医学科目在不少医学生心里就是一门“玄学”——上课的时候,所谓“明显的特征”永远都在老师嘴上,自己却连病变在哪里都找不到;考试的时候,也不比其他内外妇儿“四大金刚”能够“背多分”;更别提这几门课特有的读片考试了,大多数人都不是在“读”片,而是在“猜”片——也许能猜对呢?简直和抽卡一样!

Fig1.1三大看“片”的“玄学”

不过,这些医学生心中的“玄学”,对于机器来说却一点都不玄。这些图像被数字化之后,对于机器来说就是直接能够接受的内容——基于卷积神经网络(convolutionalneuralnetworks,CNNs)的深度学习之前就在图像处理方面显示出非凡的作用。从“找到”肾组织、肾小球、细胞核开始,到后来用于乳腺癌的诊断、骨肉瘤的诊断、结直肠癌的分析、胶质瘤的分级、前列腺癌与上皮组织的分辨、间质性肺病的分类……各种应用不一而足。

Fig1.2研究发表在NatureMedicine

最近,在NatureMedicine上就有一项来自美国纽约大学的研究使用数字化的病理切片作为“教材”,教会了机器如何找出肺癌组织,还能辨别其组织来源,甚至连基因突变都能看出来[1]!不是说病理学是“金标准”,训练一个病理医生要十年吗?看片这种“玄学”怎么这么快就被机器学会了?

Fig1.3学习五步走,不用看成狗

想要让机器学会“看片”的技能,其实和教医学生看切片也差不多。只不过人类在显微镜下观察切片,一会儿就头昏脑胀了,可计算机学习起来真的是快!

研究人员选择了Google公司的开源算法InceptionV3作为计算机的大脑,随后便开始了训练。首先从GenomicDataCommons数据库下载肺癌及正常肺组织的数字图像,然后将这些组织病理切片分成了训练集(70%)、验证集(15%)和测试集(15%),这些就是机器的“原始教材”。在训练的过程中,数字化的病理切片被切分为了×像素的图像,并去除了组织图像不足50%部分,接下来机器就开始使用这些精选的约80万张图像的“备考资料”开始“刷题”!

Fig1.4人和机器眼中的切片大不同!

然后,机器就变成了能够分辨肺鳞状细胞癌(LUSC)、肺腺癌(LUAD)和正常肺组织的“学霸”了!你这么厉害,这是要来砸病理医生的饭碗吗?

2

还能找突变:你怎么变得这么聪明?

基于测试集的结果,显示在分辨肺癌和正常肺组织时,这一新模型的受试者工作特征曲线(ROC)曲线下面积(AUC)高达0.,超越了前人基于图像特征最多0.85[2]以及基于血清DNA分析的0.94[3]。而在分辨肺腺癌和肺鳞状细胞癌上,AUC也能达到0.,与前人的成果相比,要高出10%[2]。

Fig2.1在回答“是不是癌?”时几乎不会出错

和其他模型比赛大获全胜之后,研究人员又邀请了三名病理学家和他们的机器比一比、赛一赛。结果发现,这三名病理学家的水平果然都很高,勤勤恳恳阅片之后得出的结果和机器不分伯仲。在机器分类错误的一小部分图像之中,有一半病理学家们也没看出来;而至少被一名病理学家看错的54张切片中,有45张被机器正确地分类,这提示这一算法有可能为病理学家提供有价值的参考意见。

Fig2.2机器和病理学家的水平阅片不分伯仲

不过,机器的优势在于快!肉眼阅片怎么也得花上三五分钟,怎么也比不上机器以秒计算的速度。加之病理报告的出具需要两名以上的医生阅片,从绝对的速度上来看,真的是医生是很难比得上机器。同时,除了最常用的HE染色切片之外,医生往往需要根据自己的判断选用不同的免疫组化标记物获取更多的信息或对自己的判断进行验证,这一过程花得时间就更长了。

Fig2.3试着通过图像找出LUAD中的基因突变

嫌染色染得慢?那不如让机器来试试!研究人员乘胜追击,又想继续通过病理切片的形态学特征来判断肺癌是否带有基因突变。这些基因层面上的突变或许真的能带来宏观形态的改变,但却很难通过肉眼来辨识。不过,机器在“阅片”时,除了能分辨肉眼能看到的形态、颜色等信息之外,还能进一步地分析其纹理等特征,除了能够“看”到每一个像素之外,还能够进一步地分析像素之间的关系,从而获得更多的信息。

Fig2.4通过图像直接找突变,表现不俗

说干就干!依葫芦画瓢,研究人员选取了肿瘤组织中基因突变率大于10%的切片来训练机器,来自张切片的超过21万张图像被用作训练集和验证集,而来自另外62张切片的4.4万张图像则被用作测试集。果不其然,机器能够基于图像发现与基因突变相关的形态改变,而这些改变人用肉眼难以在HE染色的切片上分辨出来。结果显示,对于6种常见的突变基因STK11、EGFR、FAT1、SETBP1、KRAS和TP53,机器“阅片”的AUC在0.-0.之间。

Fig2.5颜色越深,代表这一区域带有相应突变的可能越大

虽然现在我们并不太清楚机器是如何从HE切片上“看”出基因突变的,但在未来使用一些可视化的工具,或许能够指出机器在识别突变时识别出的宏观形态学特征。不过,目前的研究至少表明形态-基因之间的确有联系,并且这种联系能够不一定要借助于免疫组化染色的方法来发现,不一定需要经过一天的等待之后才能知道结果……

Fig2.6来自59名患者的62张切片2.4万张图像按照基因突变重新排列

肺癌的基因突变对于其治疗和预后有特别的意义。目前已经有针对EGFR的靶向药物,STK11在15-30%的非小细胞肺癌种失活,未来也可能开发出针对这一突变的靶向药物[4]。STK11与KRAS突变可能与肿瘤的侵袭性有关[5];TP53与肿瘤的预后也有密切的关系[6]。如果能够在瞬间就获得关于免疫组化、基因突变的检测结果,那么许多患者可能就能更早地开始靶向治疗或参与临床试验。

Fig2.7使用外部样本进一步测试模型性能

此外,这一神经网络模型也一定程度上成功接受了外部样本的挑战。研究人员使用了来自纽约大学的92张冰冻切片(a)、张石蜡包埋(b)切片以及张肺组织活检(c)切片来对这一模型进行测试。结果发现这一模型在5倍镜、20倍镜下对于LUAD及LUSC的均有相当的准确率。不过,模型也会将出血、血管、炎症、坏死等误认为LUAD,气管软骨有时会被当作LUSC,纤维化瘢痕有可能被当作正常肺组织或LUAD。

Fig2.8正常肺组织、LUAD及LUSC

本文的一位作者、纽约大学的病理学系的AristotelisTsirigos,PhD说:“这项研究真正的亮点在于并不是人工智能能够表现得和人类一样好,而是这一模型能够提供人类无法提供的结果。”[7]

Fig2.9模型究竟是如何分辨的呢?

那么,以后是不是都不需要病理医生了呢?这一研究的另一位作者、纽约大学放射学系、人口健康学系的NargesRazavian,PhD则认为:“很高兴能够通过我们的研究提高病理学家的准确度,同时我们也证明了人工智能可以发现肿瘤细胞及其周围组织中的特征,而这些特征人的肉眼未曾能注意。数据和运算能力之间的协作创造出了许多前所未有的机会来改善医学和科学。”[8]

3

失业的危机:人们不需要医生了吗?

每每有人工智能相关的研究发布,总会有不少人感叹未来也许不再需要医生了。不过,主持这项研究的Dr.Tsirigos预测病理学家并不会很快就被深度学习所取代。他问:“你是否希望人工智能为你做出最后的决定?我对此持保留意见。这一模型提供的是第二种意见,以避免医生犯错。”[9]

Fig3.1本文的作者之一、长那么帅怪不得不怕失业的AristotelisTsirigos,PhD

同时,他指出参与研究的病理学家接受了这一模型,甚至想要和它一起工作。“这些病理学家找到我们,希望我们与他们一起工作,因为这一模型非常有趣,并且对他们有帮助——临床医生并不认为这一工具是一种威胁,反而认为它是一种助力。”[9]

Fig3.2本期NatureMedicine上两篇关于人工智能的研究

实际上,人工智能除不仅仅能被用于肺癌的诊断。在刚刚结束的欧洲呼吸学会国际会议上,还发布了一项人工智能帮助呼吸科医生判读肺功能试验的研究[10]。此外,在本期的NatureMedicine上,还发布了两篇人工智能用于视网膜疾病和急性神经系统事件诊断和转诊的文章[11,12]——人工智能已经像潮水一般地涌入了医疗领域之中。

而在各大医学期刊上,人工智能也是一个热点话题,有一系列的观点及编辑文章讨论了人类医生与人工智能的关系、人工智能在医疗中的优势与不足……

Fig3.3Lancet编辑评论

来自Lancet的编辑评论指出:年是人工智能在医疗领域的做出改变的一年,就像人工智能在其他行业中不断涌现出的成功例子,临床医生和数据科学家之间的合作也不断产生积极的成果[13]。

不过,来自美国斯坦福大学的SerenaYeung等人也在NJEM上提出了较为中肯的观点:人工智能的种种技术在能够被广泛接受、应用之前还有许多事情要做,就像自动驾驶的汽车现在还没有在道路上成为主流一样[14]。

Fig3.4NJEM观点

梅奥诊所放射科的BernardF.KingJr,MD乐于拥抱这样的一个现状,他在美国放射学会杂志JACR上说:放射科医师必须使用这种令人兴奋的人工智能技术,引导它、引领它,使其改善对患者的护理,推进我们的工作,为患者提供更高的准确性和帮助。对于放射科医生来说,未来是光明的、令人兴奋[15]!

不过,也有来自美国马里兰大学医学院的EliotSiegel,MD预测放射科医生将在3年内被机器所取代[16]。

Fig3.5JAMA观点

美国斯坦福大学医学院的AbrahamVerghese,MD在JAMA上的观点则着重于调和人工智能和人类医生两种文化之间的关系,他提出:这两种文化应该一起努力——人工智能和人类医生一起工作,掌握全局、富有同情心的医生将人工智能作为自己臂膀,避免文书工作以及没有价值的重复劳动,提高工作效率以及准确性。人工智能或许能将医疗最早的意义和目的带回医疗实践之中,让医生回归TinsleyHarrison所谓的“医生的神圣职责”,更接近Peabody的名言:照顾病人的秘诀就是关心病人[17]。

参考文献:

[1]CoudrayN,OcampoPS,SakellaropoulosT,etal.().Classificationandmutationpredictionfromnon–smallcelllungcancerhistopathologyimagesusingdeeplearning.NatMed.Sep17.doi:10./s---5.

[2]YuKH,ZhangC,BerryGJ,etal.().Predictingnon–smallcelllungcancerprognosisbyfullyautomatedmicroscopicpathologyimagefeatures.NatCommun.Aug16;7:.doi:10./n

转载请注明:http://www.jxgc.org/jbyf/9781.html
网站首页 | 网站地图 | 合作伙伴 | 广告合作 | 服务条款 | 发布优势 | 隐私保护 | 版权申明 | 返回顶部