📚 学习资源站
首页
视频课程
学习专栏
电子书库
← 返回专栏列表
RT-DETR改进入门篇手把手讲解改进模块如何实现高效涨点,以SimAM注意力模块为例-
共 146 篇文章
#1
论文必备-绘制RT-DETR模型在训练过程中,精准率,召回率,mAP_0.5,mAP_0.50.95,以及各种损失的变化
阅读
#2
RT-DETR改进策略【模型轻量化】替换轻量化骨干网络:ShuffleNetV1_rtdetr轻量化改进-
阅读
#3
RT-DETR改进策略【模型轻量化】替换骨干网络为EfficientNetv1高效的移动倒置瓶颈结构-
阅读
#4
RT-DETR改进策略【模型轻量化】替换骨干网络为GhostNetV1基于GhostModule和GhostBottle
阅读
#5
RT-DETR改进策略【模型轻量化】替换骨干网络为MobileViTv1高效的信息编码与融合模块,获取局部和全局信息_使
阅读
#6
RT-DETR改进策略【模型轻量化】替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络-
阅读
#7
RT-DETR目标检测模型性能评价指标详解,涉及混淆矩阵、F1-Score、IoU、mAP、参数量、计算量等,一文打尽所
阅读
#8
RT-DETR改进策略【模型轻量化】GhostNetV2:利用远距离注意力增强廉价操作_rtdetr轻量化改进-
阅读
#9
RT-DETR改进策略【模型轻量化】ShufflenetV2,通过通道划分构建高效网络-
阅读
#10
RT-DETR改进策略【模型轻量化】替换骨干网络为EfficientNetv2,加速训练,快速收敛-
阅读
#11
RT-DETR改进策略【模型轻量化】替换骨干网络为MoblieNetV2,含模型详解和完整配置步骤-
阅读
#12
RT-DETR改进策略【注意力机制篇】SENetV2优化SE注意力机制,聚合通道和全局信息-
阅读
#13
RT-DETR改进策略【独家融合改进】 U-Net V2 + 小目标检测头,加强跨尺度的上下文特征融合,提高小目标检测能
阅读
#14
RT-DETR改进策略【损失函数篇】WIoUv3:针对低质量样本的边界框回归损失函数_rt-detrv3-
阅读
#15
RT-DETR改进策略【模型轻量化】MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型-
阅读
#16
RT-DETR改进策略【卷积层】利用MobileNetv4中的UIB、ExtraDW优化ResNetLayer-
阅读
#17
RT-DETR改进策略【注意力机制篇】引入MobileNetv4中的MobileMQA,轻量化注意力模块提高模型效率-
阅读
#18
RT-DETR改进策略【独家融合改进】MobileNetV4+BiFPN,轻量化+加权特征融合,轻松实现降参涨点-
阅读
#19
RT-DETR改进策略【损失函数篇】替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU
阅读
#20
论文必备-RT-DETR训练前一键扩充数据集,支持9种扩充方法,支持图像和标签同步扩充_rtdetr怎么增加数据预处理-
阅读
#21
论文必备-RT-DETR热力图可视化,支持指定模型,指定显示层,设置置信度,以及10种可视化实现方式_rtdetr热力图
阅读
#22
RT-DETR模型结构详解,在Ultralytics项目中配置rtdetr-resnet18、rtdetr-resnet
阅读
#23
RT-DETR改进策略【卷积层】CVPR-2020StripPooling空间池化模块处理不规则形状的对象含二次创新_s
阅读
#24
RT-DETR改进策略【Conv和Transformer】CVPR-2021BottleneckTransformers
阅读
#25
RT-DETR改进策略【卷积层】CVPR-2021多样分支块DBB,替换下采样模块并二次创新ResNetLayer-
阅读
#26
RT-DETR改进策略【注意力机制篇】WACV-2021TripletAttention三重注意力模块-跨维度交互注意力
阅读
#27
RT-DETR改进策略【Conv和Transformer】CVPR-2022DeformableAttentionTra
阅读
#28
RT-DETR改进策略【SPPF】NeuralPS-2022FocalModulation使用焦点调制模块优化空间金字塔
阅读
#29
RT-DETR改进策略【卷积层】NeurIPS-2022ParNet即插即用模块二次创新ResNetLayer-
阅读
#30
RT-DETR改进策略【Backbone主干网络】2023U-NetV2替换骨干网络,加强细节特征的提取和融合_rtde
阅读
#31
RT-DETR改进策略【Backbone主干网络】ICLR-2023替换骨干网络为:RevCol一种新型神经网络设计范式
阅读
#32
RT-DETR改进策略【Backbone主干网络】替换骨干网络为2023-CVPRConvNeXtV2(附网络详解和完整
阅读
#33
RT-DETR改进策略【Backbone主干网络】替换骨干网络为2023-CVPRLSKNet(附网络详解和完整配置步骤
阅读
#34
RT-DETR改进策略【Conv和Transformer】2023引入CloFormer中的Cloblock双分支结构,
阅读
#35
RT-DETR改进策略【Conv和Transformer】CVPR-2023BiFormer稀疏自注意力,减少内存占用_
阅读
#36
RT-DETR改进策略【Conv和Transformer】ICCV-2023iRMB倒置残差移动块轻量化的注意力模块-
阅读
#37
RT-DETR改进策略【Neck】2023显式视觉中心EVC优化特征提取金字塔,对密集预测任务非常有效_rt-detr颈
阅读
#38
RT-DETR改进策略【Neck】ArXiv2023,基于U-Netv2中的的高效特征融合模块:SDI(Semantic
阅读
#39
RT-DETR改进策略【Neck】NeurIPS2023融合GOLD-YOLO颈部结构,强化小目标检测能力-
阅读
#40
RT-DETR改进策略【Neck】PRCV2023,SBA(SelectiveBoundaryAggregation):
阅读
#41
RT-DETR改进策略【卷积层】CVPR-2023SCConv空间和通道重建卷积:即插即用,减少冗余计算并提升特征学习_
阅读
#42
RT-DETR改进策略【卷积层】CVPR-2023部分卷积PConv轻量化卷积,降低内存占用_rtdetr轻量化改进-
阅读
#43
RT-DETR改进策略【卷积层】ICCV-2023LSK大核选择模块包含ResNetLayer二次独家创新-
阅读
#44
RT-DETR改进策略【卷积层】ICCV-2023SAFM空间自适应特征调制模块对ResNetLayer进行二次创新-
阅读
#45
RT-DETR改进策略【卷积层】ICCV-2023引入DynamicSnakeConvolution动态蛇形卷积,改进R
阅读
#46
RT-DETR改进策略【模型轻量化】EMO:ICCV2023,结构简洁的轻量化自注意力模型-
阅读
#47
RT-DETR改进策略【模型轻量化】替换骨干网络CVPR-2023FasterNet高效快速的部分卷积块_rtdetr轻
阅读
#48
RT-DETR改进策略【模型轻量化】替换骨干网络为ICCV2023的EfficientViT用于高分辨率密集预测的多尺度
阅读
#49
RT-DETR改进策略【注意力机制篇】2023MCAttention多尺度交叉轴注意力获取多尺度特征和全局上下文信息-
阅读
#50
RT-DETR改进策略【注意力机制篇】CVPR-2023FSAS基于频域的自注意力求解器结合频域计算和卷积操作降低噪声影
阅读
#51
RT-DETR改进策略【注意力机制篇】ICCV2023聚焦线性注意力模块FocusedLinearAttention聚焦
阅读
#52
RT-DETR改进策略【注意力机制篇】ICLR2023高效计算与全局局部信息融合的Sea_Attention模块(含HG
阅读
#53
RT-DETR改进策略【Backbone主干网络】 CVPR 2024 替换骨干为InceptionNeXt,将大核深度
阅读
#54
RT-DETR改进策略【Backbone主干网络】CVPR2024替换骨干网络为RMT,增强空间信息的感知能力-
阅读
#55
RT-DETR改进策略【Backbone主干网络】CVPR2024替换骨干网络为UniRepLKNet,解决大核Conv
阅读
#56
RT-DETR改进策略【Backbone主干网络】替换骨干网络为CVPR-2024PKINet获取多尺度纹理特征,适应尺
阅读
#57
RT-DETR改进策略【Conv和Transformer】 IJCAI 2024 利用FreqFormer中的SFA 空
阅读
#58
RT-DETR改进策略【Conv和Transformer】2024AssemFormer结合卷积与Transformer
阅读
#59
RT-DETR改进策略【Conv和Transformer】CVPR-2024Single-HeadSelf-Attent
阅读
#60
RT-DETR改进策略【Conv和Transformer】ECCV-2024HistogramTransformer直方
阅读
#61
RT-DETR改进策略【Conv和Transformer】GRSL-2024最新模块卷积和自注意力融合模块CAFM减少图
阅读
#62
RT-DETR改进策略【Conv和Transformer】TPAMI-2024Conv2Former利用卷积调制操作和大
阅读
#63
RT-DETR改进策略【Neck】 ACMMM 2024 WFU:小波特征上采样 通过小波变换的频率分解与跨尺度融合机
阅读
#64
RT-DETR改进策略【Neck】ECCV-2024RCM矩形自校准模块优化颈部网络_tbr.b222.tlk-
阅读
#65
RT-DETR改进策略【Neck】TPAMI2024FreqFusion频域感知特征融合模块解决密集图像预测问题-
阅读
#66
RT-DETR改进策略【卷积层】2024最新轻量级自适应提取模块LAE即插即用保留局部信息和全局信息_全局特征提取模块2
阅读
#67
RT-DETR改进策略【卷积层】CVPR-2024PKIModule获取多尺度纹理特征,适应尺度变化大的目标-
阅读
#68
RT-DETR改进策略【卷积层】CVPR-2024利用DynamicConv动态卷积结合ResNetLayer进行二次创
阅读
#69
RT-DETR改进策略【卷积层】ECCV-2024小波卷积WTConv增大感受野,降低参数量计算量,独家创新助力涨点-
阅读
#70
RT-DETR改进策略【小目标改进】2024-TOP自适应阈值焦点损失(ATFL)提升对小目标的检测能力_提升detr在
阅读
#71
RT-DETR改进策略【损失函数篇】2024引进Focaler-IoU损失函数加强边界框回归(Focaler-DIoU、
阅读
#72
RT-DETR改进策略【模型轻量化】替换骨干网络CVPR-2024RepViT轻量级的VisionTransformer
阅读
#73
RT-DETR改进策略【模型轻量化】替换骨干网络CVPR-2024StarNet,超级精简高效的轻量化模块_rtdetr
阅读
#74
RT-DETR改进策略【模型轻量化】替换骨干网络为2024轻量化网络MoblieNetV4:移动生态系统的通用模型_20
阅读
#75
RT-DETR改进策略【注意力机制篇】2024PPA并行补丁感知注意模块,提高小目标关注度-
阅读
#76
RT-DETR改进策略【注意力机制篇】2024SCITOPFCAttention即插即用注意力模块,增强局部和全局特征信
阅读
#77
RT-DETR改进策略【注意力机制篇】2024SCSA-CBAM空间和通道的协同注意模块(含HGBlock二次创新)_r
阅读
#78
RT-DETR改进策略【注意力机制篇】2024蒙特卡罗注意力(MCAttn)模块,提高小目标的关注度-
阅读
#79
RT-DETR改进策略【注意力机制篇】CVPR2024CAA上下文锚点注意力机制-
阅读
#80
RT-DETR改进策略【注意力机制篇】CVPRW-2024分层互补注意力混合层H-RAMi针对低质量图像的特征提取模块-
阅读
#81
RT-DETR改进策略【注意力机制篇】WACV-2024D-LKA可变形的大核注意针对大尺度、不规则的目标图像-
阅读
#82
RT-DETR改进策略【Backbone主干网络】 CVPR 2025 替换骨干为MambaOut,去除冗余结构,挖掘视
阅读
#83
RT-DETR改进策略【卷积层】 AAAI 2025 FBRT-YOLO 应用RT-DETR 加强跨层特征融合能力与多尺
阅读
#84
RT-DETR改进策略【卷积层】 AAAI 2025 风车状卷积PConv,实现感受野的高效扩张-
阅读
#85
RT-DETR改进策略【损失函数篇】 AAAI 2025 SD Loss,基于目标尺度动态调整尺度损失和位置损失的影响系
阅读
#86
RT-DETR改进策略【模型轻量化】替换骨干网络为GhostNetV32024华为的重参数轻量化模型-
阅读
#87
RT-DETR改进入门篇手把手讲解改进模块如何实现高效涨点,以SimAM注意力模块为例-
阅读
#88
RT-DETR改进策略【Backbone主干网络】 替换骨干为PoolFormer,基于平均池化的Token混合器,通过
阅读
#89
RT-DETR改进策略【Backbone主干网络】替换骨干网络为:SwinTransformer,提高多尺度特征提取能力
阅读
#90
RT-DETR改进策略【Conv和Transformer】 HiLo注意力机制 通过分离处理图像的高频和低频信息,高效处
阅读
#91
RT-DETR改进策略【Conv和Transformer】ACmix卷积和自注意力的结合,充分发挥两者优势-
阅读
#92
RT-DETR改进策略【Conv和Transformer】上下文转换器CoT结合静态和动态上下文信息的注意力机制(含二次
阅读
#93
RT-DETR改进策略【Head】增加针对大目标的检测层(四个检测头)_rt-detr检测头改进-
阅读
#94
RT-DETR改进策略【Neck】 SEAM:分离和增强注意模块,解决复杂场景下的小目标遮挡问题-
阅读
#95
RT-DETR改进策略【Neck】ASF-YOLO注意力尺度序列融合模块改进颈部网络,提高小目标检测精度_rtdetr小
阅读
#96
RT-DETR改进策略【Neck】BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合_bifpn改进rtdetr-
阅读
#97
RT-DETR改进策略【Neck】GFPN超越BiFPN通过跳层连接和跨尺度连接改进RT-DETR颈部网络-
阅读
#98
RT-DETR改进策略【Neck】GSConv+SlimNeck:混合深度可分离卷积和标准卷积的轻量化网络设计_rt-d
阅读
#99
RT-DETR改进策略【Neck】HS-FPN:高级筛选特征融合金字塔,加强细微特征的检测_特征筛选融合-
阅读
#100
RT-DETR改进策略【Neck】使用CARAFE轻量级通用上采样算子_carafe上采样代码-
阅读
#101
RT-DETR改进策略【Neck】有效且轻量的动态上采样算子:DySample-
阅读
#102
RT-DETR改进策略【RT-DETR和Mamba】MLLA:Mamba-LikeLinearAttention,融合M
阅读
#103
RT-DETR改进策略【RT-DETR和Mamba】替换骨干Mamba-RT-DETR-B!!!最新的发文热点-
阅读
#104
RT-DETR改进策略【RT-DETR和Mamba】替换骨干Mamba-RT-DETR-L!!!最新的发文热点_detr
阅读
#105
RT-DETR改进策略【RT-DETR和Mamba】替换骨干Mamba-RT-DETR-T!!!最新的发文热点_rtde
阅读
#106
RT-DETR改进策略【SPPF】SimSPPF,简化空间金字塔池化设计,提高计算效率_simsppf模块-
阅读
#107
RT-DETR改进策略【SPPF】将特征金字塔池化修改为:SPPCSPC,提升模型的特征提取能力和计算效率。-
阅读
#108
RT-DETR改进策略【SPPF】将特征金字塔池化修改为:SPPELAN,多尺度特征提取与高效特征融合-
阅读
#109
RT-DETR改进策略【卷积层】 RFEM:感受野增强模块, 解决多尺度目标检测中因感受野不足导致的小目标信息丢失问题-
阅读
#110
RT-DETR改进策略【卷积层】AKConv:具有任意采样形状和任意参数数量的卷积核-
阅读
#111
RT-DETR改进策略【卷积层】CGblock内容引导网络利用不同层次信息,提高多类别分类能力(含二次创新)_cgblo
阅读
#112
RT-DETR改进策略【卷积层】GnConv:一种通过门控卷积和递归设计来实现高效、可扩展、平移等变的高阶空间交互操作-
阅读
#113
RT-DETR改进策略【卷积层】HWD,引入`Haar小波变换`到下采样模块中,减少信息丢失_小波下采样-
阅读
#114
RT-DETR改进策略【卷积层】RCS-OSA通道混洗的重参数化卷积二次创新ResNetLayer_rcsosa-
阅读
#115
RT-DETR改进策略【卷积层】SAConv可切换的空洞卷积二次创新ResNetLayer-
阅读
#116
RT-DETR改进策略【卷积层】SPD-Conv针对小目标和低分辨率图像的检测任务_spdconvrtdetr-
阅读
#117
RT-DETR改进策略【卷积层】引入注意力卷积模块RFAConv,关注感受野空间特征助力RT-DETR精度提升-
阅读
#118
RT-DETR改进策略【小目标改进】Shape-NWD:融合改进,结合Shape-IoU和NWD更好地适应小目标特性_s
阅读
#119
RT-DETR改进策略【小目标改进】添加专用于小目标的检测层附YOLO系列的检测头变化详解_rtdetr小目标-
阅读
#120
RT-DETR改进策略【损失函数篇】NWD损失函数,提高小目标检测精度_detr损失函数-
阅读
#121
RT-DETR改进策略【损失函数篇】Shape-IoU:考虑边界框形状和尺度的更精确度量_,shapeiou-
阅读
#122
RT-DETR改进策略【损失函数篇】SlideLoss,解决简单样本和困难样本之间的不平衡问题_slideloss原理-
阅读
#123
RT-DETR改进策略【损失函数篇】利用MPDIoU,加强边界框回归的准确性_rt-detr损失函数-
阅读
#124
RT-DETR改进策略【损失函数篇】将激活函数替换为带有注意力机制的激活函数ARelu-
阅读
#125
RT-DETR改进策略【损失函数篇】通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、I
阅读
#126
RT-DETR改进策略【模型轻量化】PP-LCNet:轻量级的CPU卷积神经网络_ppstructrt-detr-
阅读
#127
RT-DETR改进策略【模型轻量化】替换华为的极简主义骨干网络:VanillaNet-
阅读
#128
RT-DETR改进策略【注意力机制篇】EMA即插即用模块,提高远距离建模依赖(含二次创新)-
阅读
#129
RT-DETR改进策略【注意力机制篇】GAM全局注意力机制:保留信息以增强通道与空间的相互作用-
阅读
#130
RT-DETR改进策略【注意力机制篇】LargeSeparableKernelAttention(LSKA)大核可分离卷
阅读
#131
RT-DETR改进策略【注意力机制篇】MixedLocalChannelAttention(MLCA)同时融合通道、空间
阅读
#132
RT-DETR改进策略【注意力机制篇】NAM即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)_detr
阅读
#133
RT-DETR改进策略【注意力机制篇】引入ShuffleAttention注意力模块,增强特征图的语义表示_rtdetr
阅读
#134
RT-DETR改进策略【注意力机制篇】添加SE、CBAM、ECA、CA、SwinTransformer等注意力和多头注意
阅读
#135
RT-DETR改进策略【独家融合改进】 AssemFormer + HS-FPN 减少目标尺度变化影响,增加多尺度的学习
阅读
#136
RT-DETR改进策略【独家融合改进】Mamba-YOLO+SDI增强长距离依赖,聚焦目标特征-
阅读
#137
RT-DETR改进策略【独家融合改进】RepVit+ASF-YOLO,轻量提点,适用专栏内所有的骨干替换-
阅读
#138
RT-DETR改进策略【独家融合改进】SPD-Conv+PPA再次提升模型针对小目标的特征提取能力-
阅读
#139
RT-DETR改进策略【独家融合改进】模型轻量化二次改进:StarNet+FreqFusion,极限降参,适用专栏内所有
阅读
#140
RT-DETR模型应用过程中的报错处理及疑问解答,涉及环境搭建、模型训练、模块改进、论文写作-
阅读
#141
RT-DETR计算COCO指标和TIDE指标,小目标检测必备,更全面的评估和指导模型性能,包含完整步骤和代码-
阅读
#142
RT-DETR训练前的准备,将数据集划分成训练集、测试集验证集(附完整脚本及使用说明)-
阅读
#143
RT-DETR训练自己的数据集(从代码下载到实例测试)-
阅读
#144
使用AutoDL训练RT-DETR等计算机视觉网络模型(AutoDL+Xftp+VSCode),附详细操作步骤_使用vs
阅读
#145
论文必备-RT-DETR统计数据集中大、中、小目标数量,附完整代码和详细使用步骤_rt-detr小目标大目标-
阅读
#146
论文必备-RT-DETR输出模型每一层的耗时和GFLOPs,深入比较每一层模块的改进效果_rt-detr的gflops-
阅读