基于奇异值分解的机器人视觉图像显著目标自动提取方法研究
基于奇异值分解的机器人视觉图像显著
目标自动提取方法研究
孙百康 李艳军 周茂辉
器人视觉图像进行超像素分割,在完成分割后,基于奇异值分解进行机器人视
觉图像显著性处理,以减少图像中的不平衡性,最后利用显著性实现目标自动
提取。设计对比实验,实验结果表明,该研究方法在提取机器人视觉图像显著
目标方面效果更优。
Key:奇异值分解;机器人视觉;目标提取;提取方法
:TP391.41 文献标志码:A :1671-0797(2024)07-0049-03
DOI:10.19514/j.cnki.cn32-1628/tm.2024.07.013
0 引言
在当今的机器人视觉应用中,机器人视觉图像显著目标提取是一个关键问题。
它旨在从复杂的机器人视觉图像背景中突出显示最重要的信息,以便机器人可
以更有效地理解和处理环境[1]。然而,这一问题具有极大的挑战性,因为需要
在大量的机器人视觉图像数据中找到具有显著性的目标,这需要复杂的计算和
准确的算法。
在过去几十年中,许多研究者致力于解决这个问题,提出了许多方法,包括基
于色彩的显著性检测、基于频域的显著性检测、基于机器学习的显著性检测等
等[2]。这些方法在一定程度上取得了成功,但仍存在一些问题,如对复杂背景
的鲁棒性、对不同光照条件的适应性以及对计算资源的需求等。
近年来,基于奇异值分解(SVD)的方法在机器人视觉图像处理中受到了广泛关
注。SVD 是一种强大的矩阵分析工具,它可以提供机器人视觉图像的重要统计
信息,并且对机器人视觉图像的旋转、缩放和错位等变换具有不变性[3]。因
此,它在机器人视觉图像识别、机器人视觉图像恢复和机器人视觉图像压缩等
领域应用广泛。然而,将SVD 应用于机器人视觉图像显著目标提取的研究还相
对较少。
本文将深入研究基于SVD 的机器人视觉图像显著目标自动提取方法,希望通过
这种方法,能够提高机器人在处理大量机器人视觉图像数据时的效率和准确
性,从而推动机器人在实际生活中的应用。
1 基于奇异值分解的机器人视觉图像显著目标自动提取方法设计
1.1 机器人视觉图像超像素分割
首先,利用简单的线性分类迭代算法对机器人视觉图像进行分割,将其划分成
若干个超像素,以形成机器人视觉图像的超像素集合[4]。以下是超像素分割的
具体流程:
为了实现初步的机器人视觉图像分组核心,需要根据特定分类的数目将种子点
分散在机器人视觉图像中。如果输入机器人视觉图像包含N 个像素并且被划分
为K 个超像素,那么每个超像素将包含的像素数量为:
Q=■(1)
如果Q 是一个超像素大小,那么计算邻近节点实际距离S 的公式为:
S=sqrt■(2)
利用像素梯度值计算对应每个单元最近区域,获得最小值位置。为避免机器人
视觉图像中的节点不存在于目标边缘并影响分割结果,需要在该位置动态配置
节点[5]。
在周围划分节点25×25 的范围存储像素。在每个像素中,计算该像素所在位置
与相邻种子节点之间的距离。然后,根据这些距离将像素划分为相应的种子节
点。计算如下:
Ds=dlab+■dxy,dlab=■,dxy=■(3)
式中:Ds 为该像素所在位置与相邻种子节点之间的距离;dlab 为l、a、b 中三
个颜色空间的欧几里得距离;m 为表面复形的实际调整系数;dxy 反映了欧几里
得空间层次中的距离;lj 和li 为l 中的二维坐标;aj 和ai 为a 中的二维坐
标;bj 和bi 为b 中的二维坐标;xj 和xi 构成了二维坐标空间的水平轴;yj
和yi 构成了二维坐标系统的垂直轴。
在迭代过程中,如果将超像素重新划分成几个超像素,并且这些超像素的大小
过小,那么需要对这些超像素进行再次合并[6]。需要持续更新那些数量不足的
超像素集,直到形成一组类似且包含相同数量N 个超像素的正确、最终的超像
素组合。
1.2 基于奇异值分解的机器人视觉图像显著性处理
在完成机器人视觉图像的超像素分割后,需要采取措施来减少机器人视觉图像
中的有效不平衡。奇异值分解方法是线性代数中一种重要的矩阵分解方法,可
以用于平衡机器人视觉图像的有效性,即平衡机器人视觉图像中具有相同有效
值的相应有效超像素值。以下是基于奇异值分解实现机器人视觉图像显著性均
衡的具体步骤:
机器人视觉图像的超像素分类采用了奇异值分解算法,将机器人视觉图像分割
成k 类超像素。假设k 包含M 个超像素,对于每个超像素i,计算其在k 组中
的剩余超像素Si ′(k)。具体计算过程如下:
Si ′(k)=μ1Si (k)+μ2∑θijSi (k),θij=■∑■(4)
式中:μ1、μ2 为第一子段的加权系数;Si (k)为等式后第i 个超像素对应
的有效值;θij 为超像素的总体加权平均值;d(ci,cj)为两个超像素ci、
cj 之间的距离。
在这项研究中,开发了一个实质性的调和过程,在背景推断方法中使用奇异值
分解来揭示机器人视觉图像。利用奇异值分解对机器人视觉图像进行显著性平
滑处理,具体计算过程如下:
Sal(x,y)=S″(x,y)G′(x,y),G′(x,y)=exp-p■+■(5)
式中:Sal(x,y)表示基本平衡機器人视觉图像;S″(x,y)表示原始机器
人视觉图像;G′(x,y)表示奇异值分解;p 表示比较阈值;w 表示横轴比较
值;h 表示纵轴比较值;x 和y 表示原始机器人视觉图像的二维坐标;d′x、
d′y 表示输入机器人视觉图像对象的对应中心坐标。
为了避免实质上干扰机器人视觉图像,利用奇异值分解对机器人视觉图像进行
显著性平滑处理的过程中,选择x 和y 方向上的中心值的坐标作为高斯模型的
左右中心坐标的二维,对机器人视觉图像进行显著性处理。
1.3 显著性目标自动提取
在进一步评估信息的基础上,通过机器人视觉图像区域层次的分类,实现显著
性目标自动提取。
具体步骤如下:
步骤1,通过结合深度图和RGB 机器人视觉图像信息,执行平滑降噪过程。
步骤2,将点云数据转换为深度地图。
步骤3,对云区域中的场景平面进行分割,并提取主平面位置。
步骤4,对平面进行分类。
对于机器人视觉图像分割对区域层次组采取的措施如下:
步骤1,处理深度机器人视觉图像和RGB 机器人视觉图像。
步骤2,分割深度机器人视觉图像和RGB 机器人视觉图像,获得分割的超像
素。
步骤3,将层次区域集成为分段的超像素。
基于奇异值分解以有效分割机器人视觉图像目标的具体措施如下:
步骤1,使用奇异值分解算法,并将像素指定为框内带有背景标签的像素。
步骤2,在背景像素中使用奇异值分解算法,在Z 类像素的相应样本集的基础
上计算包含Z 背景和背景分量的6 个维度。
步骤3,更新各像素进行最大概率分配。
步骤4,为边界框中的所有像素设置适当的框架,并实现最小机器人视觉图像
分割。
步骤5,重复步骤3、步骤4,直到收敛。
通过以上措施获得的分割后的机器人视觉图像即为显著性目标自动提取结果。
2 实验论证
为检验本文设计方法的实际应用效果,将本文方法与传统方法1[3]和传统方法
2[4]进行比较,设计如下对比实验。
2.1 对比实验
实验数据来自五个公共机器人视觉图像数据库,具体如表1 所示。
将上述实验数据随机分为三组,分别用A1、A2、A3 表示,将本文设计方法用于
实验数据中,获得显著性目标自动提取结果,并将提取结果与实际结果进行拟
合,提取过程中机器人视觉图像分辨率范围为45.5~65.5 PPI。对于拟合值F
的计算过程如下:
F=■(6)
式中:F 表示显著性目标自动提取拟合结果;q2 表示调和阈值;precision 表
示平均准确度。
为增强本实验结果的可靠性和对比性,采用传统方法1 和传统方法2 进行对比
实验。在机器人视觉图像分辨率为45.5~65.5 PPI 的范围内,获取了这三种方
法的拟合度数据作为对比实验数据,并将结果整理成如表2 所示的表格。
2.2 实验结果分析
从表2 中可以看出,本文方法机器人视觉图像显著目标自动提取多项式函数拟
合计算结果与实际结果具有较高的拟合度,并且拟合度在0.998 以上,高于传
统方法1 和传统方法2 的拟合度,在提取机器人视觉图像显著目标方面效果较
好,具有优势。
3 结束语
本文对基于奇异值分解的机器人视觉图像显著目标自动提取方法进行了深入研
究。通过介绍SVD 的基本原理及其在机器人视觉图像处理中的应用,展示了该
方法在提取机器人视觉图像显著目标方面的优势。通过对实验结果的分析,验
证了该方法目标提取的拟合度较高。
[Reference]
[1] 刘文清,王任华,刘晓文,等.基于显著目标提取和泊松重建的红外与可见
光图像融合方法[J].激光与光电子学进展,2023,60(16):183-192.
[2] 魯海枰,孙永荣,赵伟,等.基于视觉显著性的机场跑道异物检测技术[J].
现代电子技术,2022,45(11):41-45.
[3] 李春华,郝娜娜,刘玉坤.时空对比度引导的视频显著目标提取模型[J].河
北科技大学学报,2022,43(2):144-153.
[4] 毕洪波,朱徽徽,杨丽娜,等.多层次特征融合的视频显著目标检测系统设
计[J].实验室研究与探索,2022,41(3):94-98.
[5] 章秀华,程鉴,洪汉玉,等.奇异值分解域差异性度量的低景深图像显著性
目标提取方法[J].电子与信息学报,2022,44(11):3987-3997.
[6] 南柄飞,郭志杰,王凯,等.基于视觉显著性的煤矿井下关键目标对象实时
感知研究[J].煤炭科学技术,2022,50(8):247-258.
-全文完-
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。
