最新刊期

    2024 39 2

      图像分割

    • 刘腊梅,杜宝昌,黄惠玲,章永鉴,韩军
      2024, 39(2): 121-130. DOI: 10.37188/CJLCD.2023-0036
      摘要:针对编解码语义分割网络计算量大、解码结构复杂的问题,提出一种高效无解码的二值语义分割模型DFNet。该模型首先去除主流分割网络中复杂的解码结构和跳跃连接,采用卷积重塑上采样方法重塑特征编码直接得到分割结果,简化网络模型结构;其次在编码器中融合轻量双重注意力机制EC&SA,提高特征编码的通道及空间信息交互,增强网络的编码能力;最后使用PolyCE损失替代常规分割损失,解决正负样本不均衡问题,提高模型的分割精度。在DeepGlobe道路分割和CrackForest缺陷检测等二值分割数据集上的实验结果表明,本文模型的分割精度F1均值和IoU均值分别达到84.69%和73.95%,且分割速度高达94 FPS,远超主流语义分割模型,极大地提高了分割任务效率。  
      关键词:二值分割;卷积重塑上采样;EC&SA;PolyCE;道路分割;缺陷检测   
      233
      |
      11
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36411265 false
      发布时间:2024-02-27
    • 吕欢欢,黄煜铖,张辉,王雅莉
      2024, 39(2): 131-145. DOI: 10.37188/CJLCD.2023-0054
      摘要:为充分利用高光谱影像中蕴含的空谱特征,提出了一种半监督空谱局部判别分析的高光谱影像特征提取算法(S4LFDA)。鉴于高光谱数据集具有空间一致性,首先将像元进行空间重构,保存高光谱数据的近邻关系;其次引入光谱信息散度重构像元间的相似度;为了充分利用大量无标签样本提高算法性能,采用模糊C均值聚类算法对样本进行聚类分析得到伪标签;然后通过增加规范化项到局部力导引算法(FDA)的类内散度矩阵和类间散度矩阵中,以此保持无标签样本的聚类结构一致性;最后通过局部FDA算法来保持有标签样本类间散度最大化和类内散度最小化并求解最佳投影向量。S4LFDA算法既保持了数据集在光谱域的可分性,又保持了像元在空间区域内的近邻关系,合理利用有标签样本及无标签样本,提高了算法的分类性能。在Pavia University和Indian Pines数据集上进行实验,总体分类精度达到95.60%和94.38%。与其他维数约简算法相比,该算法有效提高了地物分类性能。  
      关键词:高光谱影像;半监督;空谱;判别分析;特征提取;地物分类   
      223
      |
      0
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36013648 false
      发布时间:2024-02-27
    • 张换换,王慧琴,王可,王展,甄刚,贺章
      2024, 39(2): 146-156. DOI: 10.37188/CJLCD.2023-0110
      摘要:使用现有边缘检测方法提取古代壁画的线稿,存在噪声干扰大且丢失信息较多的问题。本文提出一种融合像素差卷积的壁画最优波段线稿提取方法,利用最小噪声分离方法将壁画多光谱数据的有效信息和噪声分离,选择最优主成分波段进行线稿的提取。针对传统卷积提取图像梯度信息的问题,引入像素差卷积提高边缘检测的图像梯度信息。在侧输出网络加入尺度增强模块(SEM)丰富多尺度特征,同时针对像素级别不平衡引起的像素错误分类问题,设计了基于图像相似度的Dice损失函数策略,逐级最小化像素距离获得清晰图像边缘,并利用壁画数据集先验知识微调模型解决数据集不足的问题。实验结果表明,本文方法可以在壁画褪色和噪声较多的场景下提取出较为清晰的线稿,线稿图像的SSIM和RMSE均优于其他算法,分别提高了2%~10%和2%~4%;在公开数据集BIPED上对模型进行验证,所提方法的ODS和OIS较PiDiNet分别提高0.005和0.007。该方法对褪色及具有病害的壁画可以提取出清晰完整的线稿图像。  
      关键词:线稿提取;光谱成像;像素差卷积;像素级平衡;壁画   
      221
      |
      6
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36411361 false
      发布时间:2024-02-27
    • 彭晏飞,王静,刘晓轩,巩胜杰
      2024, 39(2): 157-167. DOI: 10.37188/CJLCD.2023-0104
      摘要:针对现有图像重定向方法视觉效果差和处理速度慢的问题,提出一种基于主成分分析法和分块的内容感知图像重定向方法。首先,利用主成分分析法融合梯度图和显著图来提取更加丰富的图像特征,避免主体信息失真;其次,相邻裁缝线由均值代替,避免像素不连贯;最后,根据能量图中列能量值的大小将图像分为显著区域和非显著区域,并行缩放分块,更加注重图像特征并提高运行效率。在MIT RetargetMe、DUT-OMRON和NJU2000数据集上进行实验分析,以主观感受和客观因子运行时间、SIFT-flow作为评价指标,与几种常用算法对比。实验结果表明,该方法保证了图像主体信息的完整性,平均运行时间为线裁剪算法的1/3。本文提出的方法不仅具有较优的视觉效果,而且可降低运算量。  
      关键词:主成分分析法;能量图;分块;裁缝线;缩放   
      236
      |
      3
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36013800 false
      发布时间:2024-02-27

      图像增强

    • 赵泽纬,车进,吕文涵
      2024, 39(2): 168-179. DOI: 10.37188/CJLCD.2023-0076
      摘要:针对文本生成图像任务中的文本编码器不能深度挖掘文本信息,导致后续生成的图像存在语义不一致的问题,本文提出了一种改进DMGAN模型的文本生成图像方法。首先使用XLnet的预训练模型对文本进行编码,该模型在大规模语料库的预训练之下能够捕获大量文本的先验知识,实现对上下文信息的深度挖掘;然后在DMGAN模型生成图像的初始阶段和图像细化阶段均加入通道注意力模块,突出重要的特征通道,进一步提升生成图像的语义一致性和空间布局合理性,以及模型的收敛速度和稳定性。实验结果表明,所提出模型在CUB数据集上生成的图像相比原DMGAN模型,IS指标提升了0.47,FID指标降低了2.78,充分说明该模型具有更好的跨模态生成能力。  
      关键词:文本生成图像;XLnet模型;生成对抗网络;通道注意力   
      228
      |
      1
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36015293 false
      发布时间:2024-02-27
    • 廖涌卉,张海涛,金海波
      2024, 39(2): 180-191. DOI: 10.37188/CJLCD.2023-0107
      摘要:现有的层级式文本生成图像的方法在初始图像生成阶段仅使用上采样进行特征提取,上采样过程本质是卷积运算,卷积运算的局限性会造成全局信息被忽略并且远程语义无法交互。虽然已经有方法在模型中加入自注意力机制,但依然存在图像细节缺失、图像结构性错误等问题。针对上述存在的问题,提出一种基于自监督注意和图像特征融合的生成对抗网络模型SAF-GAN。将基于ContNet的自监督模块加入到初始特征生成阶段,利用注意机制进行图像特征之间的自主映射学习,通过特征的上下文关系引导动态注意矩阵,实现上下文挖掘和自注意学习的高度结合,提高低分辨率图像特征的生成效果,后续通过不同阶段网络的交替训练实现高分辨率图像的细化生成。同时加入了特征融合增强模块,通过将模型上一阶段的低分辨率特征与当前阶段的特征进行融合,生成网络可以充分利用低层特征的高语义信息和高层特征的高分辨率信息,更加保证了不同分辨率特征图的语义一致性,从而实现高分辨率的逼真的图像生成。实验结果表明,相较于基准模型(AttnGAN),SAF-GAN模型在IS和FID指标上均有改善,在CUB数据集上的IS分数提升了0.31,FID指标降低了3.45;在COCO数据集上的IS分数提升了2.68,FID指标降低了5.18。SAF-GAN模型能够有效生成更加真实的图像,证明了该方法的有效性。  
      关键词:计算机视觉;生成对抗网络;文本生成图像;CotNet;图像特征融合   
      253
      |
      15
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36012686 false
      发布时间:2024-02-27

      目标跟踪与识别

    • 贺泽民,曾俊涛,袁宝玺,梁德建,苗宗成
      2024, 39(2): 192-204. DOI: 10.37188/CJLCD.2023-0113
      摘要:在计算机视觉领域中,基于孪生网络的跟踪算法相比于传统算法提高了精度和速度,但是仍会受到目标遮挡、变形、环境变化等影响,导致孪生网络的跟踪算法的性能降低。为了深入了解基于孪生网络的单目标跟踪算法,本文对现有基于孪生网络目标跟踪算法进行了总结和分析,主要包括在孪生网络中引入注意力机制方法、超参数推理方法和模板更新方法,对这3种方法的目标跟踪算法进行了综述,详细介绍了国内外近几年基于孪生网络的算法研究和发展现状。对3个方面的代表算法采用VOT2016、VOT2017、VOT2018和OTB-2015数据集进行实验对比,获得了多种基于孪生网络的目标跟踪算法的性能。最后对基于孪生网络的目标跟踪算法进行了总结,并对未来的发展方向进行了展望。  
      关键词:计算机视觉;目标跟踪;孪生网络;深度学习   
      243
      |
      4
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36209241 false
      发布时间:2024-02-27
    • 杨云,王静,姜佳乐
      2024, 39(2): 205-216. DOI: 10.37188/CJLCD.2023-0123
      摘要:针对雾霾天气下车牌识别存在的精确度低、漏检等问题,提出了一种基于深度学习的雾霾天气下的车牌号码识别方法。首先用AOD-Net算法对车辆图像进行去雾预处理。然后,基于YOLOv5网络设计一种车牌检测网络ACG_YOLOv5s。ACG_YOLOv5s是在YOLOv5s网络的基础上,融入CBAM注意力机制,提高模型的抗干扰能力;引入自适应特征融合网络ASFF,根据模型自适应学习到的权重赋予网络不同特征层不同比重的权值,从而突出重要特征信息;使用Ghost卷积模块替换传统卷积,在保证模型效果的同时减少了网络训练过程中的参数量。最后通过LPRNet对检测到的车牌图像进行识别。实验结果表明,改进后的ACG_YOLOv5s网络车牌检测准确率达到99.6%,LPRNet识别准确率达96%且内存占比小。实验证明AOD-Net算法和YOLO算法结合可更加有效地检测雾霾天气下车牌图像中的车牌号码。  
      关键词:车牌号码识别;AOD-Net算法;YOLOv5网络;注意力机制   
      258
      |
      7
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36411415 false
      发布时间:2024-02-27
    • 付惠琛,高军伟,车鲁阳
      2024, 39(2): 217-227. DOI: 10.37188/CJLCD.2023-0127
      摘要:人体姿态估计和动作识别在安防、医疗和运动等领域有着重要的应用价值。为了解决不同背景及角度下各类运动动作的人体姿态估计和动作识别问题,本文提出了一种改进的YOLOv7-POSE算法,并自行拍摄制作各种拍摄角度的数据集进行训练。此算法以YOLOv7为基础,对原始网络模型添加了分类的功能,在Backbone主干网络中引入CA卷积注意力机制,提升了网络在对人体骨骼关节点和动作的分类的重要特征的识别能力。用HorNet网络结构代替原模型的CBS卷积核,提高了模型的人体关键点检测精度和动作分类的准确度。将Head层的空间金字塔池化结构替换为空洞空间金字塔池化结构,提升了检测精度并且加快了模型收敛。将目标检测框的回归函数由CIOU替换为EIOU,提高了坐标回归的精度。设计了两组对照实验,实验结果证明,改进后的YOLOv7-POSE在验证集上的mAP为95.7%,相比于原始YOLOv7算法提高了4%,各类运动动作识别准确率显著上升,在实际推理中的关键点错检、漏检等情况明显减少,关键点位置估计误差明显降低。  
      关键词:图像处理;关键点检测;姿态估计;注意力机制;空洞空间金字塔池化   
      228
      |
      7
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36411152 false
      发布时间:2024-02-27
    • 汪崟,蒋峥,刘斌
      2024, 39(2): 228-236. DOI: 10.37188/CJLCD.2023-0085
      摘要:针对传统SIFT匹配算法复杂、特征冗余点多、难以满足实时性等问题,本文提出了一种具有局部自适应阈值的SIFT快速图像匹配算法。首先,所提方法在SIFT算法的基础上,对构建的高斯金字塔进行了优化,通过减少金字塔层数来消除冗余特征点以提高检测效率,并根据图像局部对比度来自适应提取FAST算法中的阈值从而实现高质量的特征点检测,筛选出鲁棒性较强的特征点进行更准确的匹配;其次,采用高斯圆形窗口建立32维降维特征向量,提高算法运行效率;最后,根据匹配特征点对之间的几何一致性对特征点进行提纯,有效减少误匹配。实验结果表明,本文方法在匹配精度和运算效率方面的综合表现均优于SIFT算法及其他对比匹配算法,相比传统的SIFT算法,匹配精度提高了约10%,算法运行时间缩短了约49%。在图像发生尺度、旋转以及光照变化的情况下,正确匹配率在93%以上。  
      关键词:SIFT算法;高斯金字塔;自适应阈值;特征描述符;图像匹配   
      242
      |
      5
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 36015248 false
      发布时间:2024-02-27

      目标检测

    • 彭雪玲,林珊玲,林志贤,郭太良
      2024, 39(2): 237-247. DOI: 10.37188/CJLCD.2023-0249
      摘要:针对太阳能电池片缺陷检测方法存在精度低的问题,提出一种基于改进的YOLOv5s太阳能电池片表面缺陷检测算法。首先,为了解决电池片小目标缺陷检测问题,提出了上下文Transformer网络(CoT),可以为小目标提供全局上下文信息,帮助模型更好地预测小目标。其次,将CBAM注意力加入到Head部分的C3模块,能够更好地捕捉输入特征图的重要通道和空间位置,提高模型的性能和鲁棒性。接着,使用轻量级的通用上采样算子CARAFE减少上采样过程中特征信息的损失,保证了特征信息的完整性。最后,使用WIoU作为边界框损失函数,大幅提升了回归的准确性,并且有助于快速实现模型的收敛。实验结果显示,改进后的YOLOv5s相较于原始算法在Precision、Recall、mAP@0.5三个指标上分别提高了5.5%、4.1%、3.3%,检测速度达到了76 FPS,满足太阳能电池片缺陷检测要求。  
      关键词:太阳能电池片;YOLOv5s;上下文Transformer网络;CARAFE;损失函数   
      22
      |
      0
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 43464517 false
      发布时间:2024-02-27
    • 祁昊,董健,赵楠,余毅
      2024, 39(2): 248-256. DOI: 10.37188/CJLCD.2023-0136
      摘要:为了实现对微小物体的高精度三维测量,本文构建了一套基于结构光照明的三维形貌测量系统,对该系统所使用的相位编码算法、远心相机标定算法和投影仪标定算法进行了研究。首先,通过边缘提取算法获得二维平面标靶的特征点坐标,使用改进的张氏标定算法完成远心相机标定,通过相位编码结构光得到相机像素与投影仪像素之间的映射关系。然后,由映射关系使投影仪也能捕获特征点的位置信息,进而完成投影仪标定。最后,基于立体视觉模型对被测物体进行三维重建。实验结果表明,标定后的测量系统视场大于2 000 mm2,全视场的测量精度约为32 μm,中心视场的测量精度为10 μm。该系统具有良好的稳定性和重复性,能够满足大多数工业检测的应用需求,展示出广阔的应用前景。  
      关键词:结构光;三维测量;远心镜头;高精度   
      189
      |
      5
      |
      0
      <HTML>
      <网络PDF><WORD><Meta-XML>
      <引用本文> <批量引用> 37326204 false
      发布时间:2024-02-27
    0