💥💥💞💞欢迎来到本博客❤️❤️💥💥

🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。

⛳️座右铭:行百里者,半于九十。

💥1 概述

基于监督学习的多模态MRI脑肿瘤分割利用监督体素的纹理特征研究

摘要:脑肿瘤的准确分割对于临床诊断、治疗方案制定及预后评估至关重要。传统手工分割费时费力且主观性强。基于监督学习的多模态MRI脑肿瘤分割方法,利用监督体素的纹理特征,展现出强大分割能力。本文详细阐述了该方法的研究背景、监督学习与多模态MRI基础、监督体素纹理特征提取、模型构建与训练、实验结果与分析以及面临的挑战与未来发展方向。

关键词:监督学习;多模态MRI;脑肿瘤分割;监督体素;纹理特征

一、引言

脑肿瘤作为严重的神经系统疾病,其早期准确诊断对改善患者预后意义重大。磁共振成像(MRI)凭借优异的软组织对比度,成为脑肿瘤诊断和监测的标准影像学方法。然而,脑肿瘤在MRI图像上呈现高度异质性,边界模糊、形态各异,手动分割不仅耗时耗力,还易受主观因素影响,难以满足临床需求。因此,开发高效、准确的自动化脑肿瘤分割方法具有重要的研究意义和临床价值。

近年来,随着计算机视觉和机器学习技术的飞速发展,基于监督学习的图像分割方法在医学影像分析领域取得了显著进展。监督学习模型能够从大量带有标注的训练数据中学习肿瘤的特征,从而实现对未知图像中肿瘤区域的识别。多模态MRI(如T1加权、T1对比增强、T2加权和FLAIR序列)提供了互补的信息,能够更全面地反映肿瘤的形态、内部结构和与周围组织的解剖关系,因此多模态MRI融合已成为脑肿瘤分割的主流方法。

基于监督学习的多模态MRI脑肿瘤分割利用监督体素的纹理特征。背景:由于各种肿瘤类型,精确分割磁共振成像(MRI)中的脑肿瘤是一项困难的任务。利用来自多模态MRI的信息和特征,包括结构MRI以及扩散张量成像(DTI)导出的各向同性(p)和各向异性(q)成分,可能会导致对脑图像的更准确的分析。<br>方法:我们提出了一种基于三维监督体素的学习方法,用于多模态MRI脑图像(常规MRI和DTI)中的肿瘤分割。监督体素是使用跨多模态MRI数据集的信息生成的。对于每个监督体素,提取了各种特征,包括使用一组不同大小和方向的Gabor滤波器计算的texton描述符的直方图,以及一阶强度统计特征。这些特征被输入到随机森林(RF)分类器中,以将每个监督体素分类为肿瘤核心、水肿或健康脑组织。<br>结果:该方法在两个数据集上进行了评估:1)我们的临床数据集:11名患者的多模态图像,2)BRATS 2013临床数据集:30个多模态图像。对于我们的临床数据集,使用多模态MRI检测肿瘤(包括肿瘤核心和水肿)的平均敏感性为86%,平衡错误率(BER)为7%;而自动肿瘤分割的Dice分数为0.84。BRATS 2013数据集的相应结果分别为96%,2%和0.89。结论:该方法在脑肿瘤分割中展现了有希望的结果。添加来自多模态MRI图像的特征可以大幅提高分割准确性。该方法在所有肿瘤级别上与专家标注基本匹配,从而实现了更快速和更可复制的脑肿瘤检测和标注方法,以帮助患者管理。

二、监督学习与多模态MRI基础

2.1 监督学习原理

监督学习是一种通过学习输入特征与输出标签之间的映射关系来构建模型的机器学习范式。在脑肿瘤分割任务中,输入通常是脑部MRI图像,输出则是每个体素的类别标签,如正常脑组织、肿瘤核心、水肿等。监督学习模型通过分析带有专家标注的训练数据,学习识别不同组织类型的视觉特征。常见的监督学习模型包括支持向量机(SVM)、随机森林(Random Forest)以及深度学习模型如卷积神经网络(CNN)等。

2.2 多模态MRI的优势

不同模态的MRI图像能够从不同角度反映肿瘤的形态、结构和病理生理特性。例如,T1加权像能够清晰显示脑组织的解剖结构,肿瘤通常呈现为低信号区域,而强化区域在对比剂注入后呈现高信号;T2加权像对水分敏感,水肿区域和坏死区域通常呈现高信号;FLAIR像抑制脑脊液信号,使得靠近脑室或软脑膜的病变更容易被发现,水肿区域呈现高信号;对比剂增强T1加权像能够清晰显示血脑屏障受损的区域,肿瘤的强化区域在此模态下呈现高信号,反映了肿瘤的活跃生长和血管生成。单独使用单一模态的MRI图像可能无法全面捕捉肿瘤的所有病理信息,导致分割结果不准确。多模态MRI的融合能够整合这些互补信息,为模型提供更全面的特征描述,从而提高分割的精度和鲁棒性,更好地识别肿瘤的不同亚区域。

三、监督体素纹理特征提取

3.1 监督体素的概念

监督体素是指在训练数据中具有明确类别标签的体素。这些体素及其邻域包含了丰富的肿瘤组织信息,通过对它们进行特征提取和分析,可以为模型提供有效的学习样本。

3.2 纹理特征的重要性

纹理特征是描述图像局部区域灰度变化的空间模式,能够反映组织结构的细腻程度和异质性。在脑肿瘤分割中,肿瘤区域、水肿区域和正常脑组织往往具有不同的纹理特性。例如,肿瘤核心可能呈现出不均匀的纹理,而水肿区域可能纹理相对均匀。纹理特征在区分不同脑组织和病理区域方面具有重要作用,将其引入模型相当于引入了关于组织结构的先验知识,有助于模型更好地理解图像内容。

3.3 纹理特征提取方法

3.3.1 灰度共生矩阵(GLCM)

通过统计图像中具有特定灰度值的像素对在指定方向和距离上的出现频率来描述纹理。GLCM可以计算出多种纹理统计量,如能量、对比度、熵、同质性等。能量反映了图像纹理的均匀程度,对比度体现了图像的清晰度和纹理的沟纹深浅,熵表示图像中纹理的非均匀程度或复杂程度,同质性则衡量了图像纹理的同质特征。

3.3.2 局部二值模式(LBP)

通过比较中心像素与其邻域像素的灰度值来描述局部纹理模式,具有旋转不变性和尺度不变性的优点。LBP算子计算简单,能够有效地提取图像的局部纹理特征,对光照变化具有一定的鲁棒性。

3.3.3 小波变换

将图像分解到不同频率和方向的子带,通过分析这些子带的能量分布来描述纹理。小波变换具有多分辨率分析的特点,能够在不同尺度上提取图像的纹理信息,更好地捕捉图像的局部和全局特征。

对于每个监督体素,可以提取其在不同模态MRI图像上的上述纹理特征,并将这些多模态纹理特征串联起来形成一个高维特征向量,作为监督学习模型的输入。

四、模型构建与训练

4.1 基于特征工程与传统分类器的模型

将提取的多模态纹理特征输入到传统的分类器中,如SVM、随机森林等,学习纹理特征与体素类别之间的映射关系。SVM通过寻找一个最优的超平面来将不同类别的体素分开,具有较好的泛化能力和对高维数据的处理能力;随机森林则通过构建多个决策树并进行集成,能够处理高维数据且对噪声和缺失值具有一定的鲁棒性。在训练阶段,利用带有标注的训练数据训练模型,使其能够学习肿瘤超体素的纹理特征模式。在测试阶段,对未标注的体素提取其多模态纹理特征,并使用训练好的分类器进行分类。

4.2 结合深度学习模型的融合方法

尽管深度学习模型能够自动学习特征,但显式地将手工提取的纹理特征引入模型也可以起到增强作用。一种方法是将手工提取的纹理特征与深度学习模型自动学习的特征进行融合。例如,在深度学习模型的中间层或全连接层中,将纹理特征与模型提取的特征进行拼接或相加,然后继续进行后续的分类或回归任务。另一种方法是在深度学习模型的损失函数中引入与纹理特征相关的约束项,引导模型学习对纹理信息更敏感的特征表示。例如,可以设计一个基于纹理相似性的损失函数,使得模型在训练过程中不仅关注分类的准确性,还注重提取的特征与纹理特征的一致性。

4.3 监督纹理特征学习模型

可以设计专门的深度学习模型,直接从多模态MRI图像中学习能够区分不同组织类型的纹理特征表示。例如,构建一个多分支的网络结构,每个分支处理一个模态的图像,并在网络的早期层学习局部纹理特征。然后将不同分支的特征进行融合,并最终进行体素分类。这种模型能够充分利用多模态信息,自动学习到更具判别性的纹理特征,提高分割的准确性。

五、实验结果与分析

5.1 数据集介绍

实验采用公开的多模态MRI影像数据集,如BRATS数据集,该数据集包含了多种模态的MRI影像(T1、T1c、T2、FLAIR)以及对应的脑肿瘤标注信息。将数据集划分为训练集、验证集和测试集,以保证实验结果的客观性和可靠性。

5.2 实验设置

在实验中,采用交叉验证的方法评估模型的性能。对于基于特征工程与传统分类器的模型,使用不同的分类器(如SVM、随机森林)进行实验,并比较它们的分割效果。对于结合深度学习模型的融合方法和监督纹理特征学习模型,采用不同的网络架构和参数设置进行实验,以找到最优的模型配置。

5.3 评价指标

使用准确率、召回率、F1分数和Dice系数等指标来评估模型的分割性能。准确率表示模型正确分类的体素占总体素的比例;召回率表示模型正确分类的正例体素占所有正例体素的比例;F1分数是准确率和召回率的调和平均数,综合考虑了模型的精确性和召回能力;Dice系数则用于衡量模型分割结果与真实标注之间的重叠程度,取值范围为0到1,值越大表示分割效果越好。

5.4 实验结果

实验结果表明,基于监督学习的多模态MRI脑肿瘤分割方法利用监督体素的纹理特征能够取得显著的分割效果。与传统的图像处理技术和其他单一模态的分割方法相比,该方法在处理复杂的多模态MRI影像时具有更高的准确率、召回率、F1分数和Dice系数。例如,在BRATS数据集上的实验结果显示,该方法能够准确地分割出肿瘤核心、水肿等不同区域,与专家标注的结果具有较高的一致性。同时,结合深度学习模型的融合方法和监督纹理特征学习模型通常能够取得比基于特征工程与传统分类器的模型更好的分割性能,说明深度学习模型在自动学习特征和融合多模态信息方面具有优势。

六、面临的挑战与未来发展方向

6.1 面临的挑战

6.1.1 数据标注问题

监督学习方法需要大量的带有精确标注的训练数据,而脑肿瘤的精确分割标注需要经验丰富的临床医生耗费大量时间和精力。不同医生的标注可能存在一定的差异,这也增加了数据标注的难度和不确定性。

6.1.2 模型泛化能力

不同患者的脑肿瘤在大小、形状、位置以及病理特性上差异巨大,使得构建一个能够泛化到所有病例的模型具有挑战性。模型在训练集上表现良好,但在新的数据集上可能性能下降,需要进一步提高模型的泛化能力。

6.1.3 模型可解释性

特别是深度学习模型,往往是黑箱模型,难以解释其决策过程。在临床应用中,医生和患者可能希望了解模型是如何做出分割决策的,以便更好地信任和使用模型的结果。

6.1.4 图像质量问题

实际临床中可能存在图像伪影、噪声或扫描参数不一致等问题,这些因素会影响图像的质量,进而影响分割性能。如何提高模型对图像质量波动的鲁棒性是一个亟待解决的问题。

6.1.5 肿瘤边界分割难题

肿瘤与正常脑组织的边界往往不清晰,特别是对于浸润性肿瘤,准确分割边界仍然是一个难题。现有的方法在边界区域的分割精度上还有待提高。

6.2 未来发展方向

6.2.1 半监督学习和弱监督学习

探索利用少量标注数据和大量未标注数据进行模型训练的方法,以降低数据标注的成本。例如,可以利用未标注数据的自监督信号或伪标签来辅助训练,提高模型的性能。

6.2.2 多任务学习

将脑肿瘤分割与其他相关任务(如肿瘤分级、基因突变预测等)联合进行学习,通过共享特征表示来提升分割性能。多任务学习可以充分利用数据中的相关信息,提高模型的泛化能力和鲁棒性。

6.2.3 模型可解释性研究

关注模型的可解释性,通过可视化技术展示算法在脑肿瘤分割过程中的关键步骤和决策依据,有助于医生更好地理解和信任算法的决策结果。例如,可以使用梯度加权类激活映射(Grad-CAM)等方法来可视化深度学习模型的注意力区域,解释模型是如何关注图像中的重要特征进行分割的。

6.2.4 融合更多模态信息

考虑到多模态MRI影像的复杂性,未来的研究可以探索融合更多的医学影像信息,如CT、PET等,以提高脑肿瘤分割的准确性和可靠性。不同模态的影像能够提供不同方面的信息,综合利用这些信息可以为模型提供更全面的特征描述。

6.2.5 优化模型架构和参数

进一步优化模型的架构和参数设置,以提高算法的性能和效率。例如,可以尝试使用更先进的网络结构、更高效的训练策略等,如使用注意力机制、Transformer等新型网络结构来提升模型的分割能力。

七、结论

本文研究了基于监督学习的多模态MRI脑肿瘤分割利用监督体素的纹理特征的方法。通过提取监督体素的多模态纹理特征,并构建相应的监督学习模型,能够有效地提高脑肿瘤分割的准确性和鲁棒性。实验结果表明,该方法在公开数据集上取得了显著的分割效果,与专家标注结果具有较高的一致性。然而,该方法也面临着数据标注、模型泛化、可解释性等方面的挑战。未来的研究可以朝着半监督学习、多任务学习、模型可解释性等方向发展,以进一步提高脑肿瘤分割的性能,为临床诊断和治疗提供更有力的支持。

📚2 运行结果

部分代码:

% Initial arrays
I_temp = I(:,:,:,1);
S = nthroot((voxel_X * voxel_Y * voxel_Z),3);
X_window = floor(size(I_temp,1)/voxel_X);
Y_window = floor(size(I_temp,2)/voxel_Y);
Z_window = floor(size(I_temp,3)/voxel_Z);
r1 = ceil(voxel_X/2);
r2 = ceil(voxel_Y/2);
r3 = ceil(voxel_Z/2);
[X,Y,Z] = meshgrid((2:Y_window-1).*voxel_X-r2,(2:X_window-1).*voxel_Y-r1,(2:Z_window-1).*voxel_Z-r3);

% Initial Centers for 5 protocols
I_C = zeros([size(X),numel(ProtocolList)]);


for i=1:size(X,1)
    for j = 1:size(X,2)
        for l = 1:size(X,3)
            I_C (i,j,l,P) = I(X(i,1,1), Y(1,j,1),Y(1,1,l),P);
        end
    end
end


C = [X(:),Y(:),Z(:)];
for P = 1:numel(ProtocolList)
    I_C_temp = squeeze(I_C(:,:,:,P));
    C = cat(2,C,I_C_temp(:));
end

k = size(C,1);

% Update supervoxel centers
for i = 1:k
    temp_C = C(i,:);
    x = temp_C(1);
    y = temp_C(2);
    z = temp_C(3);
    
    temp_W = I_temp(x-1:x+1,y-1:y+1,z);
    a = abs(gradient(temp_W));
    [x,y] = find(a==min(a(:)), 1, 'first');
    C(i,1) = temp_C(1)+x-2;
    C(i,2) = temp_C(2)+y-2;
    
    for P = 1:numel(ProtocolList)
        C(i,3+1) = I(C(i,1), C(i,2),P);
    end
    
    
end

% Assigning the lables
Label = -1*ones(size(I_temp));
Distance = inf*ones(size(I_temp));

counter = Iterations; % Iterastions
while counter
    for c_k = 1:k
        Center = [C(c_k,1),C(c_k,2),C(c_k,3)];
        for i = Center(1)-2*r1+1:Center(1)+2*r1-1
            for j = Center(2)-2*r2+1:Center(2)+2*r2-1
                for l = Center(3)-2*r3+1:Center(3)+2*r3-1
                    % Calculating the spatial distance
                    d_c_term = 0;
                    d_c_temp = 0;
                    
                    for P = 1:numel(ProtocolList)
                        d_c_temp = (I(Center(1),Center(2),Center(3),P)-I(i,j,l,P))^2;
                        d_c_term = d_c_term + d_c_temp;
                    end
                    
                    d_c = sqrt(d_c_term );
                    
                    % Calculating the intensity distance
                    d_s = sqrt((term_x*(Center(1)-i))^2 + (term_y*(Center(2)-j))^2+(term_z*(Center(3)-l))^2);
                    
                    % Calculating the total distance D between C_k and i
                    D = sqrt((d_c)^2+(d_s/S)^2*Compactness^2);
                    if D < Distance(i,j,l)
                        Distance(i,j,l) = D;
                        Label(i,j,l) = c_k;
                    end
                end % for l
            end % for j
        end % for i
    end % for SV Label
    
    %% Updating stage
    counter = counter-1;
    
    % Compute new cluster centers
    if counter > 0
        for c_k = 1:k
            [x1,y1,z1] = find3((Label==c_k));
            C(c_k,1) = round(mean(x1));
            C(c_k,2) = round(mean(y1));
            C(c_k,3) = round(mean(z1));
        end

🎉3 参考文献

文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。

[1]Soltaninejad, Mohammadreza, et al. “Supervised Learning Based Multimodal MRI Brain Tumour Segmentation Using Texture Features from Supervoxels.” Computer Methods and Programs in Biomedicine, vol. 157, Elsevier BV, Apr. 2018, pp. 69–84, doi:10.1016/j.cmpb.2018.01.003.

Supervised learning based multimodal MRI brain tumour segmentation using texture features from supervoxels-学术范

🌈4 Matlab代码实现

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐