说明:收录90万 73个行业的国家标准 支持批量下载
(19)国家知识产权局 (12)发明 专利 (10)授权公告 号 (45)授权公告日 (21)申请 号 202210819539.4 (22)申请日 2022.07.13 (65)同一申请的已公布的文献号 申请公布号 CN 114897941 A (43)申请公布日 2022.08.12 (73)专利权人 长沙超创电子科技有限公司 地址 410000 湖南省长 沙市高新 开发区麓 景路2号长沙科技 成果转化基地孵化、 培训楼306房 (72)发明人 余知音 向北海 邹融 陈远益  (74)专利代理 机构 长沙大珂知识产权代理事务 所(普通合伙) 4323 6 专利代理师 伍志祥 (51)Int.Cl. G06T 7/246(2017.01)G06V 10/25(2022.01) G06V 10/74(2022.01) G06V 10/82(2022.01) G06N 3/04(2006.01) 审查员 沈怡然 (54)发明名称 基于Transformer和CN N的目标跟踪方法 (57)摘要 本发明公开了基于Transformer和CNN的目 标跟踪方法, 包括以下步骤: 根据初始目标位置, 对目标和搜索区域进行裁剪; 根据已知目标, 使 用图像增广手段, 生成在线模板库; 通过CNN网络 进行目标特征提取; 对目标特征分析, 得到相应 帧得分图; 将两目标进行相似度计算, 若相似度 高于一定阈值, 经过简单处理输出; 若相似度低 于阈值, 对漏检的成因进行判断, 若仅单一网络 出现漏检, 则使用当前正确目标对模板库进行更 新, 并对相应网络进行校正; 若两网络同时漏检 尝试找回目标。 本发明保证对形变、 模糊目标跟 踪鲁棒性; 确保跟踪时对目标尺度变化的自适应 力; 保证对目标进行长期跟踪的稳定性; 确保对 遮挡, 形变目标跟踪鲁棒 性。 权利要求书2页 说明书8页 附图2页 CN 114897941 B 2022.09.30 CN 114897941 B 1.基于Transformer和CN N的目标跟踪方法, 其特 征在于, 包括以下步骤: 初始目标 载入: 根据初始目标位置, 对目标和搜索区域进行裁 剪; 在线目标模板库生成: 根据已知目标, 使用图像增广手段, 生成在线模板库; 特征提取: 通过CN N网络进行目标 特征提取; 目标预测: 同时使用两种不同结构的深度学习 网络通过对目标特征分析, 得到相应帧 得分图, 并通过角点回归网络, 将两种预测网络的得分图转换成目标在图幅中的相对位置; 相似度判断: 为减少计算参数, 提高跟踪算法实时性, 将目标预测步骤所得两目标将先 进行相似度计算, 若相似度 高于一定阈值Γs, 则认为两算法均稳定跟踪, 经过简单处理直 接输出; 漏检校正: 若相似度低于阈值Γs, 则证明漏检情况出现, 对漏检的成因进行判断, 若仅 单一网络出现漏检, 则使用当前正确目标对 模板库进行 更新, 并对相应网络进行 校正; 目标重找回: 若两网络同时漏检, 目标已丢失, 停止跟踪, 扩大搜索范围, 尝试找回目 标; 所述目标 预测使用卷积跟踪网络和Transformer 跟踪网络; 所述卷积跟踪网络由卷积层和线性全连接层组成, 通过在线学习目标模板库 特征的方 式, 对卷积分类器进 行更新; 为加快分类模型的收敛速度, 在更新过程中采用高斯—牛顿迭 代法对模型权重进行优化, 更新后的分类器, 将被用于在搜索区域中对当前帧目标进行定 位, 得到相应得分图; 所述Transformer跟踪网络由注意力模块和线性全连接层组成, 为了进一步加强 Transformer网络的局部信息感知能力, 使用卷积层将ResNet提取到的图片特征展平、 映射 为Attention计算所需的 分量; 当前搜索区域与目标模板特征经注意力计算后, 通过线性全连接层MLP, 得到搜索区域 特征F相应得分; Transformer网络得分计算式由下式表示: 其中 由对ResNet提取的特 征进行映射得到分量, 为数据维度; 为保证长效跟踪能力, 使用交叉熵损失函数Lcross和三元损失函数LTriplet进行加权平 均, 如下式所示: 其中 和 分别表示相应损失函数的权重, 为一个训练阈值常数, dmcp和dmcn分别表示 当前结果与正, 负 样本间的马氏距离, cL为常数。 2.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 所述裁 剪的方法如下:权 利 要 求 书 1/2 页 2 CN 114897941 B 2其中sw, sh表示最终剪切目标模板长宽, tw, th表示初始目标长宽, α 为搜索范围自适应放 大因子, 根据目标 大小变化。 3.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 所述图 像增广手段包括图像旋转、 图像尺寸变换和运动模糊, 所述图像尺寸变换包括: 通过高斯金 字塔和双线性插值分别对模板图像进行缩放处理, 得到不同当前目标 的不同尺度特征, 所 述运动模糊使用均值滤波对图像进行模糊处 理。 4.根据权利要求3所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 所述高 斯金字塔公式如下: 其中w(m, n)为高斯卷积核, Gn为原始模板图像, Gn+1为缩小四分之一后的模板图像。 5.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 使用基 于CNN的残差网络ResNet作为骨干网络, 实现对目标模板库以及搜索区域的特 征提取。 6.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 为了获 取更为精准的目标尺度估计, 使用角点回归网络, 所述角点回归网络为多层卷积加角点池 化层的结构, 将两种预测网络的得分图转换为相应的跟踪框以及网络 置信度。 7.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 两预测 目标相似性由图像结构相似度S SIM表示, S SIM指标计算公式如下式所示: 其中l(γc, γt)代表卷积网络和Transformer网络预测目标的亮度相似度, c(γc, γt) 分别代表卷积网络和Transformer网络预测目标的对比度, s(γc, γt)代表两预测目标的结 构相似度, 以及 分别表示相应相似度分类权 重, cSSIM为常数。 8.根据权利要求1所述的基于Transformer和CNN的目标跟踪方法, 其特征在于, 所述对 相应网络进行 校正包括: 对于卷积跟踪网络, 使用当前目标重构一个临时模板库, 使用与目标预测步骤中的在 线更新方法, 对分类 器权重进行优化; 对于Transformer网络, 使用当前正确目标位置作为正样本, Transformer漏检结果作 为负样本, 计算对比损失Lcompare 其中 为训练阈值常数, mij为输入样本间的马氏距离 。权 利 要 求 书 2/2 页 3 CN 114897941 B 3

PDF文档 专利 基于Transformer和CNN的目标跟踪方法

文档预览
中文文档 13 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共13页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于Transformer和CNN的目标跟踪方法 第 1 页 专利 基于Transformer和CNN的目标跟踪方法 第 2 页 专利 基于Transformer和CNN的目标跟踪方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-02-18 22:32:07上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。