这是一个专注于Unet改进改进的项目,提供全面的改进方案,包括注意力机制,损失函数改进,激活函数改进和诸多即插即用模块。项目持续更新,支持答疑服务,订阅用户可获取最新改进的核心代码。

改进汇总:

1.Unet改进1:更换不同的激活函数

2.Unet改进2:在不同位置添加CBAM注意力机制

3.Unet改进3:在不同位置添加NAMAttention注意力机制

4.Unet改进4:在不同位置添加GAMAttention注意力机制,保留信息以增强通道-空间相互作用

5.Unet改进5:在不同位置添加EMA注意力机制,跨空间学习的高效多尺度注意模块

6.Unet改进6:在不同位置添加CoordAtt注意力机制

7.Unet改进7:在不同位置添加SimAM注意力机制||无参数的卷积神经网络注意模块

8.Unet改进8:在不同位置添加SpatialGroupEnhance||空间群智能增强:改进卷积网络中的语义特征学习

9.Unet改进9:在不同位置添加LSKBlock||动态调整其大空间感受场

10.Unet改进10:在不同位置添加CPCA||通道先验卷积注意力机制

11.Unet改进11:在不同位置添加MLCA||轻量级的混合本地信道注意机制

12.Unet改进12:添加PCONV||减少冗余计算和同时存储访问

Unet改进13:添加RepVGG||减少冗余计算和同时存储访问

Unet改进14:添加SEAttention||减少冗余计算和同时存储访问

Unet改进15:添加TripletAttention||减少冗余计算和同时存储访问

Unet改进16:添加DoubleAttention||减少冗余计算和同时存储访问

Unet改进17:添加ShuffleAttention||减少冗余计算和同时存储访问

Unet改进18:添加ODConv2d||全维动态卷积

Unet改进19:添加ScConv||用于特征冗余的空间和通道重构卷积

Unet改进20:添加RFAConv||用于特征冗余的空间和通道重构卷积

Unet改进21:添加AKConv||具有任意采样形状和任意数目参数的卷积核

Unet改进22:添加RepLKBlock||超大卷积核

Unet改进23:添加DiverseBranchBlock||通过组合不同规模和复杂度的分支来增强单个卷积的表示能力

Unet改进24:添加DualConv||轻量级深度神经网络的双卷积核

Unet改进25:添加iRMB||轻量级深度神经网络的双卷积核

Unet改进26:添加DynamicConv|增加大规模视觉预训练模型中的参数数量,同时最小化FLOPs的增加

Unet改进27:添加DGCST|Vision Transformer与DGSM模块集成在一起的创新结构

Unet改进28:添加PPA(2024最新改进方法)|多分支特征提取策略,捕获不同尺度和层次的特征信息。

Unet改进29:添加UniversalInvertedBottleneckBlock(2024最新改进方法)|倒瓶颈(UIB)搜索块

Unet改进30:添加CAA(2024最新改进方法)|上下文锚定注意模块来捕获远程上下文信息

Unet改进31:添加Star_Block(2024最新改进方法)|紧凑的网络结构和高效的运算

Unet改进32:添加SSPCAB(2024最新改进方法)|紧凑的网络结构和高效的运算

Unet改进33:添加ConvolutionalGLU(2024最新改进方法)|紧凑的网络结构和高效的运算

Unet改进34:添加KANConv2DLayer(2024最新改进方法)

Unet改进35:添加FastKANConv2DLayer(2024最新改进方法)

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐