买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:华东师范大学;复旦大学附属中山医院
摘要:本发明公开了一种基于腹部CT影像的皮下脂肪及内脏脂肪区域分割方法,本发明的特点是基于半监督对抗学习方法进行设计,采用对抗学习策略,利用不可信区域优化机制,提高分割的准确性。利用本发明能够有效地实现CT影像中皮下脂肪和内脏脂肪区域分割,该方法可以为人工智能的医疗辅助诊断提供有效的解决方案,充分发挥人工智能辅助诊断的作用。
主权项:1.一种基于腹部CT影像的皮下脂肪及内脏脂肪区域分割方法,其特征在于,该方法对腹部CT影像进行处理,其影像分辨率为M×N,100≤M≤2000,100≤N≤2000,皮下脂肪及内脏脂肪区域分割的过程具体包括以下步骤:步骤1:构建腹部CT影像数据集选取一个腹部CT影像公开网站,从所述网站中下载a幅腹部CT影像,构建数据集A,300≤a≤20000,将数据集A分别按照20%、10%和70%比例划分,分别构建训练数据集B、验证集C和无标签数据集X,将数据集B和数据集C中的每个CT影像分别进行皮下脂肪和内脏脂肪标注;步骤2:构建神经网络神经网络输入的CT影像分辨率均为p×o,p为宽度,o为高度,以像素为单位,100≤o≤2000,100≤p≤2000;分别构建以下6个网络:皮下脂肪区域分割网络E、皮下脂肪区域判别网络F、皮下脂肪区域优化网络G、内脏脂肪区域分割网络R、内脏脂肪区域判别网络T和内脏脂肪区域优化网络W;(1)网络E的结构张量H作为输入,尺度为α×o×p×1,张量I作为输出,尺度为α×o×p×1,α为批次数量;皮下脂肪分割生成过程需要进行预处理、编码处理及解码处理;对于张量H预处理为:进行卷积运算,核的大小为7×7,水平方向及垂直方向的步长均为2,卷积核的个数为64,获得网络E的初始特征D0;依次经过两次编码:第1次编码中,对网络E的初始特征D0依次进行4个密集层处理,每个密集层由两个卷积单元组成,每个卷积单元由1次卷积运算、批归一化及激活处理组成,对于第1个卷积单元运算时,卷积核大小为1×1,卷积核的个数为64;对于第2个卷积单元运算时,卷积核大小为3×3,卷积核个数为输入特征的通道数;每个密集层的输入特征均是密集层输出特征的组合结果;在4个密集层处理后,分别对4个密集层的运算结果进行串接,将所述串接的结果进行以下处理:批归一化处理、激活处理和卷积运算,卷积核大小为1×1,步长为2,卷积核的个数为输入特征通道数的0.6倍,得到网络E的第1次编码特征D1;第2次编码中,对网络E的第1次编码特征D1依次进行6个密集层处理,每个密集层由两个卷积单元组成,每个卷积单元由1次卷积运算、批归一化及激活处理组成,对于第1个卷积单元运算时,卷积核大小为1×1,通道数128;对于第2个卷积单元运算时,卷积核大小为3×3,通道数32;在6个密集层处理后,对6个密集层的运算结果进行串接,将所述串接的结果进行以下处理:批归一化处理、激活处理和卷积运算,卷积核大小为1×1,步长为2,卷积核的个数为输入特征通道数的0.6倍,然后得到网络E的第2次编码特征D2;将网络E的第2次编码特征D2按通道维度展开,再进行自注意力处理:经过sigmoid激活处理、批归一化及激活处理,得到网络E的注意力特征D3;将网络E的注意力特征D3输入到解码器,进行上采样,将所述上采样的结果与网络E的第1次编码特征D1进行串接,将所述串接的结果进行如下三层卷积处理:卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为128,得到网络E的第1层解码特征D4;将所属网络E的第1层解码特征D4进行如下处理:卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,得到网络E的第2层解码特征D5;再将所述网络E的第2层解码特征D5进行如下处理:卷积运算、批归一化处理及激活处理,卷积核大小为5×5,步长为1,卷积核个数为32,得到网络E的第3层解码特征;将所述网络E的第3层解码特征进行如下处理:其中卷积核大小为1×1,步长为1,卷积核个数为1,然后再利用sigmoid激活得到张量I;(2)网络F的结构张量I和张量H作为输入,尺度均为α×o×p×1,张量L作为输出,尺度为α×o×p×1,α为批次数量;网络F包括预处理过程、编码过程和解码过程,预处理时,将张量I视作皮下脂肪生成概率图,将张量H进行卷积处理,卷积核大小为7×7、步长为2,卷积核个数为32,得到的初始卷积特征;再将得到的初始卷积特征与皮下脂肪生成概率图进行以下注意力操作:分别对初始卷积特征和皮下脂肪生成概率图作卷积处理,卷积核大小为3×3、步长为1,卷积核个数为16,再将卷积处理之后的两个结果进行矩阵元素对应相乘,再将相乘结果进行卷积运算,卷积核大小为1×1、步长为1,卷积核个数为32,得到注意力图,再将注意力图与初始卷积特征按元素相加得到网络F的初始判别特征S0;将所述的网络F的初始判别特征S0进行如下3次特征编码:在第1次编码时,进行卷积运算和激活处理,卷积核大小为3×3,步长为2,卷积核个数为64,得到网络F的第1次编码特征S1;对所述的网络F的第1次编码特征S1进行第2次编码处理:进行卷积运算和激活处理,卷积核大小为3×3、步长为2,卷积核个数为128,得到网络F第2次编码特征;对所述的网络F的第2次编码特征再进行第3次编码处理:进行卷积运算和激活处理,卷积核大小为3×3、步长为2,卷积核个数为128,得到网络F的判别编码特征;将网络F的判别编码特征,进行以下解码处理:将网络F的判别特征进行上采样,再将所述上采样的结果与网络F的第1次编码特征进行串接后,进行卷积和激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,得到网络F的第1层解码特征;再将网络F的第1层解码特征进行上采样,再将所述上采样的结果与网络F的初始判别特征进行串接,将所述串接的结果进行卷积运算和激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,再将所得结果进行上采样后进行卷积运算和激活处理,卷积核大小为3×3、步长为1,卷积核个数为32,再进行卷积处理,卷积核大小为1×1,步长为1,卷积核个数为1,最后经过sigmoid激活处理得到输出张量L;(3)网络G的结构对于网络G,除了网络E的第1层解码特征D4、第2层解码特征D5及网络F的初始判别特征S0和第1次编码特征S1作为输入以外,张量I及张量L也作为输入,尺度均为α×o×p×1,张量Z作为输出,尺度为α×o×p×1,α为批次数量;网络G包括一个编码器和一个解码器,在编码前,将张量L进行如下处理:对于张量L,用1减去其每个像素的概率,将得到的结果与张量I串接,再将得到的串接特征进行卷积处理,卷积核大小为7×7、步长为2,卷积核个数为32,得到网络G的概率初始特征,另外,将张量L和网络F的初始判别特征S0进行挤压激励处理:先对所述特征S0进行一个卷积单元操作,包括卷积、批归一化及激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,同时对张量L进行下采样,再进行sigmoid激活处理得到激活权重,再将激活权重与所述特征S0进行按元素相乘运算,得到初始挤压激励特征,将初始挤压激励特征与网络G的概率初始特征串接得到网络G的优化初始特征;再将所述网络G的优化初始特征进行如下编码:卷积、激活处理,卷积核大小为3×3,步长为2,卷积核个数为64,得到卷积编码特征,另外,将张量L和网络F的第1次编码特征S1进行挤压激励处理为:先对所述特征S1进行一个卷积单元操作,包括卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,同时对张量L进行下采样,再进行sigmoid激活处理得到激活权重,再将激活权重与所述特征S1进行按元素相乘运算,得到第一层挤压激励特征;将第一层挤压激励特征与卷积编码特征串接,将串接的结果进行一个卷积运算,卷积核大小为3×3、步长为2,卷积核个数为128,再经过激活处理,得到网络G的优化编码特征;将所述网络G的优化编码特征进行如下3层解码处理:在第1层解码处理时,将所述网络G的优化编码特征进行上采样,得到优化编码上采样特征,另外,将张量L和网络E的第1层解码特征D4进行挤压激励处理为:先对网络E的所述特征D4进行卷积运算、批归一化处理和激活处理,卷积核大小为3×3,步长为1,卷积核个数为128,同时对张量L进行下采样,再进行sigmoid激活处理得到激活权重,再将激活权重与网络E的所述特征D4进行按元素相乘运算,得到第一层解码挤压激励特征;再将优化编码上采样特征与第一层解码挤压激励特征进行串接,再输入到卷积单元,进行卷积运算及激活处理,其中卷积核大小为3×3,步长为1,卷积核个数为64,得到网络G的第1层解码特征;在第2层解码处理时,将所述网络G的第1层解码特征进行上采样,得到第1层解码上采样特征,另外,将张量L和网络E的第2层解码特征D5进行挤压激励处理:先对网络E的所述特征D5进行卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,同时对张量L进行下采样,再进行sigmoid激活处理得到激活权重,再将激活权重与网络E的所述特征D5进行按元素相乘运算,得到第2层解码挤压激励特征,再将第1层解码上采样特征与第2层解码挤压激励特征进行串接,再输入到卷积单元,进行卷积运算及激活处理,其中卷积核大小为3×3,步长为1,卷积核个数为32,得到网络G的第2层解码特征;在第3层解码处理时,将所述网络G的第2层解码特征进行上采样,再进行卷积、激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,进一步将所得特征进行卷积运算,卷积核大小为3×3,步长为1,卷积核个数为1,再激活处理后得到网络G的输出张量Z;(4)网络R的结构张量H、网络E的初始特征D0、第1次编码特征D1、第2次编码特征D2、注意力特征D3、第1层解码特征D4及第2层解码特征D5作为输入,张量H的尺度为α×o×p×1,张量K作为输出,尺度为α×o×p×1,α为批次数量;网络R进行预处理、编码处理及解码处理;对于张量H预处理为:进行卷积运算,核的大小为7×7,水平方向及垂直方向的步长均为2,卷积核的个数为64,获得网络R的初始卷积特征,将初始卷积特征和网络E的所述特征D0进行挤压激励处理:对网络E的初始特征D0进行概率反相计算,再进行1次卷积运算,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后与输入的网络R的初始卷积特征进行矩阵乘运算得到网络R的初始激励特征;再将网络R的初始激励特征依次经过以下3次编码:第1次编码中,对网络R的初始激励特征依次进行4个密集层处理,每个密集层由两个卷积单元组成,每个卷积单元由1次卷积运算、批归一化及激活处理组成,对于第1个卷积单元运算时,卷积核大小为1×1,卷积核的个数为64;对于第2个卷积单元运算时,卷积核大小为3×3,卷积核个数为输入特征的通道数;在4个密集层处理后,分别对4个密集层的运算结果进行串接,将所述串接的结果进行以下处理:批归一化处理、激活处理和卷积运算,卷积核大小为1×1,步长为2,卷积核的个数为输入特征通道数的0.6倍,得到网络R的第1次编码特征;将网络R的第1次编码特征和所述特征D1进行挤压激励处理:对所述特征D1进行概率反相计算,再进行一个卷积操作,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后与输入的网络R的第1次编码特征进行矩阵乘运算得到网络R的第1次编码激励特征;第2次编码中,对网络R的第1次编码激励特征依次进行6个密集层处理,每个密集层由两个卷积单元组成,每个卷积单元由1次卷积运算、批归一化及激活处理组成,对于第1个卷积单元运算时,卷积核大小为1×1,通道数128;对于第2个卷积单元运算时,卷积核大小为3×3,通道数32;在6个密集层处理后,对6个密集层的运算结果进行串接,将所述串接的结果进行以下处理:批归一化处理、激活处理和卷积运算,卷积核大小为1×1,步长为2,卷积核的个数为输入特征通道数的0.6倍,然后得到网络R的第2次编码特征;将网络R的第2次编码特征和所述特征D2进行挤压激励处理,其中,先对所述特征D2进行概率反相计算,再进行一个卷积操作,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后与输入的网络R的第2次编码特征进行矩阵乘运算得到网络R的第2次编码激励特征;第3次编码中,对网络R的第2次编码激励特征依次进行12个密集层处理,每个密集层由两个卷积单元组成,每个卷积单元由1次卷积运算、批归一化及激活处理组成,对于第1个卷积单元运算时,卷积核大小为1×1,通道数128;对于第2个卷积单元运算时,卷积核大小为3×3,通道数32;在12个密集层处理后,对12个密集层的运算结果进行串接,将所述串接的结果进行以下处理:批归一化处理、激活处理和卷积运算,卷积核大小为1×1,步长为2,卷积核的个数为输入特征通道数的0.6倍,然后得到网络R的第3次编码激励特征;进行解码处理,将网络R的第3次编码激励特征进行卷积操作、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积个数为32,将得到的结果进行上采样,将所述上采样的结果与网络R的第1次编码激励特征进行串接,将所述串接结果进行如下处理:卷积运算、批归一化处理、激活处理,卷积核大小为3×3,步长为1,卷积核个数为256,得到网络R的第1层解码特征;将第1层解码特征和所述特征D3进行挤压激励处理:将所述特征D3进行概率反相计算,再进行卷积运算,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后与第1层解码特征进行矩阵乘运算得到网络R的第1层解码激励特征;将所述网络R的第1层解码激励特征进行上采样,将所述上采样的结果与网络R的第2次编码激励特征进行串接,将所述串接的结果进行如下处理:卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为128,得到网络R的第2层解码特征;将网络R的第2层解码特征和网络E的所述特征D4进行挤压激励处理,其中,先对所述特征D4进行概率反相计算,再进行卷积运算,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后与网络R的第2层解码特征进行矩阵乘运算得到网络R的第2层解码激励特征Q0;将网络R的第2层解码激励特征Q0进行上采样,将所述上采样的结果与网络R的第3次编码激励特征进行串接,将所述串接结果进行如下处理:卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,得到网络R的第3层解码特征,将网络R的第3层解码特征和网络E的所述特征D5进行挤压激励处理:对网络E的所述特征D5进行概率反相计算,再进行卷积运算,卷积核大小为1×1,步长为1,卷积核的个数为1,最后将结果进行sigmoid激活后网络R的第3层解码特征进行矩阵乘运算得到网络R的第3层解码激励特征Q1;将网络R的第3层解码激励特征Q1进行上采样,将上采样的结果进行卷积运算、批归一化及激活处理,其中卷积核大小为3×3,步长为1,卷积核个数为32,再经过一层卷积层进行输出,卷积核大小为1×1,步长为1,卷积核个数为1,最后进行sigmoid激活处理输出张量K;(5)网络T的结构张量K和张量H作为输入,尺度均为α×o×p×1,张量Y作为输出,尺度为α×o×p×1,α为批次数量;网络T包括预处理过程、编码过程和解码过程;预处理时,将张量I视作内脏脂肪生成概率图,将张量H进行卷积处理,卷积核大小为7×7、步长为2,卷积核个数为32,得到网络T的初始卷积特征;再将初始卷积特征与内脏脂肪生成概率图进行以下注意力处理:分别对网络T的初始卷积特征和内脏脂肪生成概率图作卷积处理,卷积核大小为3×3、步长为1,卷积核个数为16,再将卷积处理之后的两个结果进行矩阵元素对应相乘,再将相乘结果进行卷积运算,卷积核大小为1×1、步长为1,卷积核个数为32,得到注意力图;再将注意力图与初始卷积特征按元素相加得到网络T的初始判别特征V0;将所述的网络T的初始判别特征V0进行3次特征编码:在第1次编码时,进行卷积运算和激活处理,卷积核大小为3×3,步长为2,卷积核个数为64,得到网络T的第1次编码特征V1;对所述的网络T的第1次编码特征V1再进行第2次编码处理:进行卷积运算和激活处理,卷积核大小为3×3、步长为2,卷积核个数为128,得到网络T第2次编码特征;对所述的网络T的第2次编码特征再进行第3次编码处理:进行卷积运算和激活处理,卷积核大小为3×3、步长为2,卷积核个数为128,得到网络T的判别编码特征;将网络T的判别编码特征,进行以下两层解码处理:第1层解码处理时,将网络T的判别特征进行上采样,再将所述上采样的结果与网络T的第1次编码特征进行串接后,进行卷积和激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,得到网络T的第1层解码特征;再将网络T的第1层解码特征进行上采样,再将所述上采样的结果与网络T的初始判别特征进行串接,将所述串接的结果进行卷积运算和激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,再将所得结果进行上采样后进行卷积运算和激活处理,卷积核大小为3×3、步长为1,卷积核个数为32,再进行卷积运算,卷积核大小为1×1,步长为1,卷积核个数为1,最后经过sigmoid激活处理得到输出张量Y;(6)网络W的结构张量K、张量Y作为输入,尺度均为α×o×p×1,张量J作为输出,尺度为α×o×p×1,α为批次数量,网络R的第2层解码激励特征Q0、第3层解码激励特征Q1及网络T的初始判别特征V0及第1次编码特征V1也输入到网络W;网络W包括一个编码器和一个解码器,在编码前,将张量Y进行如下处理:对于Y,用1减去其每个像素的概率,然后,将结果与张量K串接,将得到串接特征进行卷积处理,卷积核大小为7×7、步长为2,卷积核个数为32,得到概率初始特征,另外,将张量Y和所述特征V0进行挤压激励处理:先对所述特征V0进行一个卷积单元操作,包括卷积、批归一化及激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,同时对张量Y进行下采样,再将结果进行sigmoid激活处理得到激活权重,再将激活权重与所述特征V0进行按元素相乘运算,得到网络W的初始挤压激励特征;将网络W的初始挤压激励特征与所述概率初始特征串接,得到网络W的优化初始特征;再将所述网络W的优化初始特征进行如下编码:卷积、激活处理,卷积核大小为3×3,步长为2,卷积核个数为64,得到卷积编码特征;另外,将张量Y和所述特征V1进行挤压激励处理:先对所述特征V1进行一个卷积单元操作,包括卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,同时对张量Y进行下采样,再将结果进行sigmoid激活处理得到激活权重,再将激活权重与所述特征V1进行按元素相乘运算,得到第一层挤压激励特征;将第一层挤压激励特征与卷积编码特征串接,将串接结果进行一个卷积运算,卷积核大小为3×3、步长为2,卷积核个数为128,再经过激活处理,得到网络W的优化编码特征;将所述网络W的优化编码特征进行如下3层解码处理:在第1层解码处理时,将所述网络W的优化编码特征进行上采样,得到优化编码上采样特征;另外,将张量Y和网络R的所述特征Q0进行挤压激励处理:先对网络R的所述特征Q0进行一个卷积单元操作,包括卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为128,同时对张量Y进行下采样,再将结果进行sigmoid激活处理得到激活权重,再将激活权重与网络R的所述特征Q0进行按元素相乘运算,得到第1层解码挤压激励特征;再将优化编码上采样特征与第1层解码挤压激励特征进行相加,将得到的相加特征与优化编码特征进行串接,再输入到卷积单元,进行卷积运算、激活处理,其中卷积核大小为3×3,步长为1,卷积核个数为64,得到网络W的第1层解码特征;在第2层解码处理时,将所述网络W的第1层解码特征进行上采样,得到第1层解码上采样特征,另外,将张量Y和所述特征Q1进行挤压激励处理:先对网络R的所述特征Q1进行一个卷积单元操作,包括卷积运算、批归一化处理及激活处理,卷积核大小为3×3,步长为1,卷积核个数为64,同时对张量Y进行下采样,再进行sigmoid激活处理得到激活权重,再将激活权重与所述特征Q1进行按元素相乘运算,得到第2层解码挤压激励特征;再将第1层解码上采样特征与第2层解码挤压激励特征进行相加,将得到的相加特征与优化初始特征进行串接,再输入到卷积单元,进行卷积运算、激活处理,其中卷积核大小为3×3,步长为1,卷积核个数为32,得到网络W的第2层解码特征;在第3层解码处理时,将所述网络W的第2层解码特征进行上采样,再进行卷积、激活处理,卷积核大小为3×3,步长为1,卷积核个数为32,进一步将所得特征进行卷积运算,卷积核大小为3×3,步长为1,卷积核个数为1,再激活处理后得到网络W的输出张量J;步骤3:神经网络的训练在训练时,从训练数据集B中获取训练数据,统一缩放到分辨率p×o,输入到网络中,迭代优化,通过不断修改网络模型参数,使得每批次的损失达到最小;在训练过程中,各损失的计算方法:皮下脂肪区域计算损失,计算为网络E输出张量I与皮下脂肪标签之间计算交叉熵损失和Dice损失;内脏脂肪区域预测损失,计算为网络R输出张量K与内脏脂肪标签之间计算交叉熵损失和Dice损失;皮下脂肪对抗学习损失,依据皮下脂肪的标签,根据网络F产生的概率图,计算二元交叉熵分类损失;内脏脂肪对抗学习损失,依据内脏脂肪标签,根据网络T产生的概率图,计算二元交叉熵分类损失;皮下脂肪区域优化损失,计算为脂肪区域预测损失,即网络G输出张量Z与皮下脂肪标签之间计算交叉熵损失和Dice损失;内脏脂肪区域优化损失,计算为网络W输出张量J与内脏脂肪标签之间交叉熵计算损失和Dice损失;具体训练步骤:(1)在数据集A上,使用标注数据,对网络E与网络F进行监督训练,使用皮下脂肪区域计算损失约束,同时,利用数据集A,对网络R及网络T进行监督训练,使用内脏脂肪区域预测损失约束,迭代次数为100;(2)分别将数据集A和数据集X的数据输入到网络E,生成两张皮下脂肪区域分割的概率图,再将所述生成的概率图与皮下脂肪区域分割的标签数据输入网络F,使用皮下脂肪区域计算损失和皮下脂肪对抗学习损失作为约束,对网络F进行训练,同时,将从数据集A和数据集X取出的数据,输入到网络R,生成两张内脏脂肪区域分割的概率图,再将所述生成的概率图与内脏区域分割的标签数据输入网络T,使用皮下脂肪区域计算损失和皮下脂肪对抗学习损失作为约束,对网络T进行训练,对网络F和网络T训练的迭代次数均为20000;(3)在数据集A上,使用标注数据,输入到网络E和网络F,将网络E生成的概率图和网络F生成的置信图,输入到网络G,使用皮下脂肪区域优化损失作为约束,对网络G优化;同时,将数据集A中取出的数据及标注数据,输入到网络R和网络T,将网络R生成的概率图和网络T生成的置信图,输入到网络W,使用内脏脂肪区域优化损失作为约束,对网络W优化,对网络G和网络W训练的迭代次数均为20000;步骤4:皮下脂肪及内脏脂肪区域分割对于输入自采样的一个CT影像,输入到网络E,将网络E生成的特征输入到网络G,利用训练得到的网络G参数,从网络G预测皮下脂肪区域,同时,将影像输入到网络R,分将网络R生成的特征输入到网络W,利用训练得到的网络W参数,从网络W预测内脏脂肪区域。
全文数据:
权利要求:
百度查询: 华东师范大学 复旦大学附属中山医院 一种基于腹部CT影像的皮下脂肪及内脏脂肪区域分割方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。