文献标识码:A
DOI:10.16157/j.issn.0258-7998.181514
中文引用格式:周进凡,张荣芬,马治楠,等. 基于深度学习的胸部X光影像分析系统[J].电子技术应用,2018,44(11):29-32.
英文引用格式:Zhou Jinfan,Zhang Rongfen,Ma Zhinan,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,2018,44(11):29-32.
0 引言
胸腔积液是临床常见的胸膜病变,也是多种疾病的伴随表现,据统计有50多种疾病可直接或间接引起胸腔积液[1]。在胸部异常改变的68例白血病患者中,白血病胸部X线表现为浸润性改变49例,占72%[2]。此外肺气肿、气胸以及肺不张也是某些严重疾病的症状。由于个体差异,在疾病前期或者发生之前这些症状并不一定很明显,医院放射科室传统的诊断方式可能并不能及时、准确地检测出相应的症状为医生提供决策依据,导致患者不能及早得到相应的治疗而错过最佳治疗时间。
传统的计算机辅助胸部X光医学影像识别主要是针对特定任务建立识别规则,手动提取特征并进行特征训练,该方案依然脱离不了人工标注这一过程。人工标注因为主观性问题,所以识别准确率存在比较大的波动。2017年11月斯坦福大学吴恩达团队提出了一种名为CheXNet的新技术,该技术利用卷积神经网络在NIH(美国国立卫生研究院)胸部X光影像数据集上进行训练、测试,得到了浸润检测准确率88.31%、胸腔积液检测准确率72.04%、肺气肿92.60%、气胸89.32%、肺不张82.09%的优良效果,该准确率高于拥有多年从业经验的放射科医生检测的准确率,但是该方法在进行训练时使用了121层卷积神经网络,由于使用了深层次神经网络使得训练过程对计算机设备硬件要求高,而且训练时间长,训练好的模型较大,不利于移植到嵌入式平台进行识别。本文提出一种在GPU服务器利用轻量级卷积神经网络MobileNets对胸部X光影像数据进行训练,并将训练好的网络模型移植到嵌入式Jetson TX2核心板,在嵌入式平台下实现对胸部X光影像数据进行分析的方法。该方法在识别准确率高于吴恩达团队提出检测方法的同时缩短了对X光影像数据分析所需要的时间。
1 胸部X光分析系统总体设计
本文的胸部X光影像分析系统主要由训练模块、识别模块、网络传输模块这三部分组成,整个系统的嵌入式平台在NVIDIA公司生产的Jetson TX2核心板上进行搭建,并通过该平台实现对整个系统的协调控制。训练模块是在GPU服务器上利用深度学习技术建立卷积神经网络模型,然后利用该模型对标注好的X光影像数据集进行训练,将训练好的神经网络模型移植到Jetson TX2核心板。识别模块是在嵌入式平台下利用移植到Jetson TX2核心板的神经网络模型对接收到的来自X光机的胸部X光影像数据进行分析,得到正常、胸腔积液、浸润、肺气肿、气胸以及肺不张六个类别的分类结果。网络传输模块主要分为两个部分,一部分为通过以太网模块将X光机拍摄的胸部X光影像传输到嵌入式平台,另一部分是通过WiFi模块将嵌入式平台接收到的胸部X光影像信息以及嵌入式平台对该影像数据的分析结果上传到医院云平台进行数据的存储与分发,为相应科室的医生提供疾病诊断的决策依据。胸部X光影像分析系统具体设计框图如图1所示。
2 胸部X光分析系统硬件设计
嵌入式核心板Jetson TX2配备以太网模块、WiFi模块等核心功能模块共同构建了胸部X光影像分析系统的硬件平台。Jetson TX2核心板以Tegra Parker处理器作为载体,搭载Ubuntu 16.04操作系统,然后与以太网模块、WiFi模块协同作用,在嵌入式平台下实现胸部X光影像分析、数据传输等功能。
胸部X光影像分析系统网络通信模块主要由两个部分构成:第一部分为X光机与嵌入式平台之间的网络传输,该部分通过以太网模块设计实现,主要实现在医院局域网内将拍摄到的胸部X光影像数据通过以太网传输到Jetson TX2核心板的功能,以太网通信模块的外围电路图如图2所示;第二部分为嵌入式平台与医院云平台之间的通信功能,该部分通过WiFi模块设计实现,主要实现将Jetson TX2核心板接收到的X光影像数据以及数据分析结果上传到医院云平台的功能,WiFi通信模块的外围电路图如图3所示。
3 胸部X光分析系统软件设计
胸部X光分析系统软件设计由GPU服务器端程序设计与嵌入式端程序设计两部分组成。GPU服务器端程序设计主要是在Keras深度学习框架之下,使用TensorFlow作为后端,采用Python语言进行编程对胸部X光医学影像数据集中的图片尺寸进行归一化处理,然后利用MobileNets卷积神经网络对该数据集进行训练,并将训练好的神经网络模型移植到嵌入式平台。嵌入式平台程序设计主要是在嵌入式平台配置深度学习所需要的运行环境,采用Python高级编程语言,在嵌入式平台上对GPU服务器上训练好的神经网络模型进行读取,并在该模型下对接收到的胸部X光影像数据进行分类识别。胸部X光影像分析系统软件设计流程如图4所示。
4 基于MobileNets网络的胸部X光影像分析
MobileNets网络是由Google公司提供的一款轻量级的深层卷积神经网络,主要用于手机和嵌入式设备。该神经网络是基于流线型的高效网络架构,它使用深度可分离卷积来构建轻量级深层卷积神经网络。MobileNets卷积神经网络可以将标准卷积分解成一个深度卷积和一个点卷积(1×1)以此来减少计算量,降低模型的大小。具体分解步骤如图5所示,其中M代表输入的通道数量,DK代表卷积核的宽和高,DF代表输入特征图的宽和高,N代表输出通道数量。
从图5可以得出,标准卷积的计算成本为:
通过标准卷积和深度可分离卷积的计算成本对比可以得出,MobileNets网络通过对卷积核的灵活应用,减少了网络模型参数量,使其计算成本得到了很大程度的减少。
MobileNets共有28层网络,除最后的全连接层以外,每一层网络之后都通过BN算法对每个神经元做归一化处理,提高网络的训练速度。
在Ubuntu 16.04系统之下编写一个shell脚本程序从NIH胸部X光影像数据集中提取其中的正常、胸腔积液、浸润、肺气肿、气胸以及肺不张六个类别共计81 200张图像作为本系统的数据集,将提取出来的数据集命名为X-ray,X-ray数据集中共包含有60 384张正常图像、9 551张浸润图像、3 959张胸腔积液图像、895张肺气肿图像、2 199张气胸图像以及4 212张肺不张图像。在对模型进行训练之前,首先对数据集中图像进行预处理,将每张图片分辨率归一化为128×128,然后将该数据分为训练集和测试集两部分,训练集占比75%,测试集占比25%。数据集训练过程中,使用ADM算法对网络进行优化,对数损失函数作为整个网络的损失函数,并用sigmoid函数作为激活函数,设置迭代次数为4 000次。本实验中训练结束的标志主要从两个方面进行考察,第一个方面为整个训练达到设置的迭代次数的上限以后训练结束,第二方面为loss(损失函数)值收敛不再减小,此时可以认为当前状态下此网络已基本达到最优化,训练结束。训练结束后将得到的网络移植到Jetson TX2核心板在嵌入式平台下对胸部X光影像数据进行分析。
5 系统结果分析
本实验采用MobileNets卷积神经网络对81 200张胸部X光影像中随机选取的60 900张(占比75%)胸部X光影像进行训练得到可以识别胸腔积液和浸润两种症状的神经网络。在进行模型训练时,设置每一个Epoch代表迭代200次,当Epoch=13时,即迭代次数达到2 600次时,loss值收敛,此时网络达到基本最优化,整个训练结束,大约用时90 min,该方法所用时间低于吴恩达团队利用121层卷积网络进行训练所需时间。训练过程中loss值变化的过程如图6所示。
训练结束后,将该模型移植到嵌入式平台,利用剩余的20 300张(占比25%)胸部X光影像作为测试集,验证整个模型对胸腔积液、浸润两个类别的平均识别率,得到91.01%的平均正确率,其中正常类别识别准确率达到了98.68%。将本文中提及的胸部X光影像分析系统命名为ML-XNet。表1表示专业放射科医生、吴恩达团队提出的CheXNet技术和ML-XNet对胸腔积液、浸润、肺气肿、气胸以及肺不张的识别准确率。
从表1可以看出,本文所使用的方法在对胸腔积液、浸润、肺气肿、气胸以及肺不张五种常见症状的识别效果上,更优于放射科医生以及CheXNet方法。
随机传输4张胸部X光影像数据进行测试,识别所需时间为30 s左右,远低于目前放射科医生检测所需时间,测试结果如图7所示,其中Reality为图片对应症状的真实值,Prediction为利用本文所述方法进行分析得到的预测值,Pneumothrax代表气胸,Infiltration代表浸润,Atelectasis代表肺不张。从图中可以看出通过本系统对4张胸部X光影像的预测结果均与真实结果一致。
6 结论
本系统通过在Jetson TX2核心板上移植GPU服务器上训练好的MobileNets卷积神经网络模型,在嵌入式平台下实现对胸部X光影像的分析。随着X光机的发展,可以将本系统中的嵌入式识别平台与X光机结合,生产出既能拍摄胸部X光影像又能对胸部X光影像进行分析的一体机,使胸部X光影像的分析正确率更高、操作更简单。
参考文献
[1] 李翔云,李薇,张泽明.结核性、恶性胸腔积液的鉴别诊断的研究进展[J].中国继续医学教育,2018,10(11):109-112.
[2] 尚延海,张淑香,张志伟,等.白血病胸部浸润的临床X线表现(附68例分析)[J].医学影像学杂志,2002(6):449-451.
[3] 张巧丽,赵地,迟学斌.基于深度学习的医学影像诊断综述[J].计算机科学,2017,44(S2):1-7.
[4] 罗涛,牟轩沁.一种胸部X射线摄影图像中结节检测的多尺度匹配滤波器[J].西安交通大学学报,2011,45(4):30-35.
[5] 薛迪秀.基于卷积神经网络的医学图像癌变识别研究[D].合肥:中国科学技术大学,2017.
[6] HOWARD A G,ZHU M,CHEN B,et al.MobileNets:Efficient convolutional neural networks for mobile vision applications[J].avXiv:1704.04861[cs.CV].
[7] 何雪英,韩忠义,魏本征.基于深度学习的乳腺癌病理图像自动分类[J/OL].计算机工程与应用,2018(12).
作者信息:
周进凡,张荣芬,马治楠,葛自立,刘宇红
(贵州大学 大数据与信息工程学院,贵州 贵阳550025)