一、图像反馈机器人视觉伺服系统理论与实验研究(论文文献综述)
梁松伟[1](2021)在《基于多源异构视觉的变电站机器人巡检技术研究》文中认为变电站是电力系统的基石与枢纽,其健康状况对电力系统的安全运行起到至关重要的作用,对国民经济发展与人民生命财产安全有着重大的影响。因此,对变电站设备进行工况监测与故障诊断具有重要的意义。由于变电站设备种类多、分布广和环境差异大,目前主要采用人工巡检的方式对变电站设备进行工况监测与故障诊断,但受到劳动强度、业务水平及天气环境等多种因素影响,这种方式易发生漏检、误检及检测人员人身安全难以保证等问题。随着机器人与视觉检测技术的发展,将两者有机融合实施的巡检技术可替代人工方式,具有明显的技术优势,成为了研究的热点之一。然而,已有的变电站机器人巡检主要依靠预置位模式获取图像,即机器人运动到预定位停止才能调整云台和相机参数完成基础图像获取,严重制约巡检效率。另外,单源视觉难以全面刻画变电站设备结构尺寸、形状组成和温度分布等不同特性的信息,且现有利用深度学习实施的视觉检测与识别方法,存在性能有限和通用性不强等问题。基于以上背景,提出开展基于多源异构视觉的变电站机器人巡检技术研究。在了解变电站机器人巡检相关技术研究现状及其发展趋势的基础上,确定变电站机器人巡检总体技术方案,重点解决机器人与云台一体化运动控制及多源异构视觉检测与目标识别等关键技术,完成轻量化云台的研发与系统的集成。同时,开展实验研究,以验证其可行性与有效性。主要研究工作体现在:第一章,论述了变电站运维及开展巡检技术研究的重要意义,总结了变电站机器人巡检相关技术的研究现状及发展趋势,分析了目前变电站机器人巡检技术所存在的问题与相应的对策,明确了论文的研究方向,同时,对论文的研究内容及各章节进行了安排。第二章,明确了多源异构机器视觉的技术框架,分析了可见光和红外的成像机理及其影响因素,介绍了数字图像处理与基于深度学习的图像分析方法,奠定了多源异构机器视觉的理论基础。同时,明确了面向变电站巡检的机器人系统功能目标,设计了机器人巡检系统的技术方案,并凝练了亟待解决的关键技术。第三章,开展巡检机器人与云台一体化运动控制技术研究。在明确三维空间位姿描述方法的基础上,完成了相机内外参数建模及参数标定,进行了机器人与云台运动学分析,建立了机器人与云台一体化运动学模型,实现了图像数据动态获取的视觉伺服控制。第四章,开展多源异构机器视觉检测与目标识别技术研究。利用可见光和红外相机采集变电站各类设备状态图像,完成了图像数据集制作与扩容。同时,采用YOLOv3构建了多源异构视觉通用化检测模型,并融合路径聚合网络和深度可分离卷积,不仅增强了特征的提取能力,而且降低了网络模型的规模,提高了检测实时性,从而实现了高性能多源异构视觉检测与目标识别。第五章,基于上述各章节所阐述的理论与技术成果,采用分布式体系与模块化设计,将多源异构视觉检测与移动机器人技术有机融合,在完成关键软硬件模块研发与系统集成的基础上,研发出一套变电站机器人巡检系统。同时,利用该系统进行运动控制、视觉检测等相关巡检实验研究,以证实系统的可行性和有效性。第六章,总结了本文研究内容及创新点,并对今后进一步研究进行展望。
武慧莹[2](2021)在《基于无模型自适应预测控制的机械臂视觉伺服控制研究》文中进行了进一步梳理随着计算机视觉的不断进步,视觉伺服技术被引入机械臂控制领域,成为机械臂控制领域研究的核心内容之一。机械臂在工作过程中通过摄像机获得图像信息,使得操作系统更加灵活,因此,机械臂视觉伺服控制系统具有非常重要的研究价值。本文以六自由度机械臂视觉伺服系统这种结构复杂的多入多出系统为研究对象,针对视觉模型参数和摄像机内部参数未知的问题,以多入多出紧格式无模型自适应控制算法为基础,对机械臂视觉伺服系统进行了研究,主要研究内容如下:首先,考虑到图像处理的结果直接影响到控制精度,研究了图像预处理、边缘检测和特征点提取方法,给出了基于图像处理的目标物体中心点像素坐标的确定方法。其次,为解决视觉伺服系统模型不确定性对控制系统性能的影响,提出了基于无模型自适应(Model Free Adaptive Control,MFAC)的机械臂视觉伺服控制方法。使用视觉伺服系统输入输出数据设计控制器,将目标物体的特征点信息和期望特征之间的差值作为反馈信息传递给控制器驱动机械臂运动,使得目标图像特征点像素坐标达到期望位置。仿真结果验证了无模型自适应视觉控制方法在视觉伺服系统模型不确定情况下的有效性。最后,为进一步提高系统的控制精度,本文提出了无模型自适应预测控制(Model Free Adaptive Predictive Control,MFAPC)的视觉伺服控制方法。通过在每一个时刻建立机械臂视觉伺服系统等价的动态线性化数据模型,利用机械臂视觉伺服系统输入输出数据估计系统的伪偏导数,同时应用预测控制算法计算最优控制量。仿真实验验证了无模型自适应视觉预测控制方法在无标定环境下和模型未知环境下的有效性。
程亮玮[3](2021)在《工业机械臂的无标定视觉伺服系统研究》文中指出近年来,机器视觉和机器人技术飞速发展,利用视觉信息进行机器人运动控制完成伺服任务,已然成为机器人研究领域的一个热点。视觉伺服是利用采集图像的特征信息作为系统的反馈信号,计算关节角的变化量并调整末端执行器到目标位姿,再进行图像采集,循环计算与调整操作,最终完成运动任务。传统的视觉伺服需要进行系统和模型标定,为了避免因标定过程的误差对系统控制精度的影响,便引出无标定视觉伺服系统的研究。无标定的视觉伺服系统不需要预先获得系统和相机等模型的标定信息,利用当前和期望图像的图像特征差值构建系统的目标函数,并设计合适的控制器,通过在线估计图像雅可比矩阵,求得关节角的变化量,调整末端执行器,使目标函数收敛到一个误差允许的范围,进而完成运动任务。本文主要研究工作包括:(1)调查了工业机器人视觉伺服研究的背景和意义,总结了无标定视觉伺服系统研究的国内外现状,分类对比了当前的视觉伺服系统,并指出本文基于单目“眼在手”无标定视觉伺服系统进行研究。(2)阐释了机械臂运动学及视觉伺服的原理性知识,提出了基于单目“眼在手”的无标定视觉伺服研究的系统模型,该模型的研究包括提取图像特征、构造目标函数、设计运动控制器、图像雅可比矩阵在线估计等研究内容,本文的创新工作部分是八参数构造目标函数和引进一种磷虾群优化粒子滤波算法进行图像雅可比矩阵在线估计。(3)针对图像特征提取,采用提取颜色特征的方式获取图像特征区域,并计算得到图像特征信息,利用该信息进行目标函数构造;针对目标函数构造,基于已有的六参数构建目标函数的方法,增加了图像特征区域的平均面积和平均周长两个参数形成图像特征的八参数法,利用该方法进行无标定视觉伺服系统的目标函数的构造;针对运动控制律的设计,采用基于非线性方差最小化思想进行设计,并引出控制器中进行雅可比矩阵在线估计的需求;针对图像雅克比在线估计的算法,非高斯噪声的存在影响卡尔曼滤波算法的在线估计的精度,粒子滤波算法具有对非高斯噪声处理的能力,但运算量较大,因此本文引进一种磷虾群优化粒子滤波算法进行雅可比矩阵的在线估计。(4)结合机器人控制系统,利用Qt等软件进行界面的设计,最终搭建了基于“眼在手”的无标定视觉伺服系统,实现对二维平面目标物定位的视觉伺服任务。
段嘉琪[4](2020)在《空间双臂机器人协调装配柔顺控制方法研究》文中提出随着世界各国对太空开发的不断深入,空间结构的大型化是未来航天事业发展的主要趋势。然而受到运载火箭整流罩尺寸的限制,这类大型空间结构需要由模块化的桁架在轨装配而成。双臂机器人具备操作能力强、作业范围大和装配稳定的优点被广泛应用于在轨装配领域。在装配过程中双臂机器人不可避免地需要完成大量对准和旋拧操作。对准操作中,传统伺服控制是在对模型精确标定基础上实现的,而在轨标定耗时、耗力、难度高,且受到空间恶劣环境的影响,已标定结果也会发生退化,造成对准精度差。旋拧操作中,机器人会与桁架结构发生直接的物理接触,接触力可能引起桁架的抖动或变形,导致装配操作失败。因此,针对双臂机器人对准和旋拧操作,开展协调装配柔顺控制方法的研究,对在轨装配技术的发展有着重要的理论意义及实际应用价值。本文瞄准在轨装配中的伺服对准和柔顺旋拧问题,开展空间双臂机器人协调装配柔顺控制方法研究,具体包括无标定视觉伺服对准控制方法、基于扭矩-转角法的双臂机器人协调旋拧柔顺控制和基于力反馈的旋拧位姿调整策略研究。首先,针对在轨装配过程中的对准问题,研究无标定视觉伺服对准控制方法。分析推导图像特征空间与机器人关节空间之间的映射关系,建立无标定视觉伺服系统模型。通过利用卡尔曼滤波方法完成对视觉伺服系统模型的在线辨识。在设计目标特征深度估计器的基础上,引入滑模控制方法实现对机器人运动状态的控制,解决负载惯性参数不定导致对准精度低的问题,使系统能够在复杂太空环境下精确的实现桁架的对准装配。其次,针对在轨装配过程中的旋拧问题,研究空间双臂机器人协调旋拧柔顺控制方法。分析旋拧装配过程中旋转角度、拧紧力矩与预紧力三者之间的关系,确定柔顺旋拧各个阶段主臂的控制输入。建立双臂机器人协调操作约束关系模型,在此基础上确定从臂的控制输入。设计空间双臂机器人协调旋拧力/位混合控制算法,通过对不同阶段拧紧力矩和转角的控制,实现装配过程中预紧力的稳定跟踪,提高所搭建桁架的工作性能。针对机器人系统参数不确定的情况,设计空间双臂机器人自适应柔顺控制算法,补偿由于系统参数误差引起的控制误差,保证旋拧装配在系统参数不确定情况下的控制精度。然后,针对旋拧过程中存在的振动、轴线错位和卡阻问题,研究基于力反馈的旋拧位姿调整策略。对旋拧过程中桁架与对应接口的接触状态进行建模,分析两者之间的约束关系,并在此基础上提出柔顺旋拧装配位姿调整方法。构建柔性桁架结构的简化模型并对其进行模态分析,利用ADAMS软件对位姿调整策略进行振动特性分析,得到振动最小化的位姿调整策略。在保证振动最小化的基础上有效解决旋拧过程中的卡阻问题,保证桁架与接口轴线的平行度。最后,针对空间双臂机器人协调装配柔顺控制方法开展实验研究。改造地面仿真实验平台,分别设计无标定视觉伺服对准实验和双臂协调旋拧柔顺控制实验。对实验采集的数据进行对比分析以验证所提出的相关算法的有效性与实用性。
赵航[5](2020)在《PSO-GA-BP神经网络在机器人无标定系统中的应用与研究》文中研究表明无标定视觉伺服根据目标特征在图像空间内的误差信息,通过视觉映射模型将平面图像误差映射到三维空间,引导机械臂实现空间定位。无标定视觉伺服在不确定的工作场景和执行较为复杂的工作任务时具有很强的适应性。本文通过分析无标定视觉伺服控制系统目前存在的问题,设计了基于粒子群遗传算法优化BP神经网络(PSO-GA-BP)的视觉伺服控制系统。本文对所采集图像进行了图像预处理,使用Canny算子检测特征边缘,并运用特征弦约束的随机Hough变换(RHT)椭圆检测算法提取了图像定位特征,在边界拟合前利用椭圆幂约束检测圆形特征中心的有效性,减少了投票累计次数,提高了特征检测效率和准确度。构建了Eye-in-hand结构的机器人视觉伺服方案,分析并推导了图像雅可比矩阵,建立了机械手运动空间和图像特征空间之间的微分映射关系。针对BP神经网络存在的收敛速度慢、训练时间长和易陷入局部极值等问题,运用本文提出的PSO-GA算法优化了BP神经网络的初始权值和阈值,在粒子群迭代时对粒子进行交叉和变异运算,保持了种群多样性,防止种群陷入局部极值,提高了种群的搜索能力。本文设计并建立了基于PSO-GA-BP神经网络视觉伺服控制器,实验结果表明,优化后的算法运算效率高,相比于传统使用雅克比矩阵控制算法,能使机器人末端执行器在更短的时间内达到预期位置,控制系统具有良好的收敛速度和控制精度且稳定有效。
缪成宗[6](2020)在《基于高速图像反馈的机器人视觉伺服控制研究》文中研究指明迄今为止,将视觉技术融入机器人系统的案例越来越多。本文以机器人系统为背景,针对视觉处理与机器人融合领域展开研究,通过建立机器人视觉伺服系统模型、构建高速视觉系统的硬件平台、设计机器人视觉伺服控制算法,开发了一套完整的基于高速图像反馈的机器人视觉伺服系统。首先,分析并且建立系统模型。本系统采用实验室的六轴埃夫特工业机器人作为研究平台,利用基于指数积公式的运动学建模方法建立机器人正运动学模型,然后利用运动旋量和位姿矩阵的关系,导出机器人的的雅克比矩阵以及机器人末端和相机速度关系。再结合相机的数学模型,选取适当的图像特征,建立基于位置和基于图像的机器人视觉伺服系统的模型。由此,可以建立图像中的特征速度与机器人末端相机速度之间的关系。通过微分运动学与速度转换关系,得到视觉伺服系统中的各个坐标系之间的关系,从而将机械臂末端的相机坐标系中的速度转换为机器人各个关节的运动速度。其次,对机器人视觉伺服高速图像系统进行搭建。选用Eo Sens MC1362高速工业相机、Xilinx Kinte X Ultra Scale+系列的高性能FPGA开发卡搭建图像处理系统,用Camera Link协议的Full模式进行图像数据的传输。基于SDSo C进行图像处理的硬件加速,通过HLS提供的Pipeline、Unroll和Dataflow等指令将任务进行流水线展开,利用行缓存和窗口缓存策略,实现对图像处理中的卷积运算的加速。用Ar Uco标记作为目标图像,通过四八邻域混合的轮廓跟踪方式,找出Ar Uco标记的外轮廓;通过轮廓角度的变化,找出外轮廓的四个角点;利用外轮廓的四个角点,给出一种易于在FPGA中实现的位姿估计算法,得出理论误差为0的相位位姿。此外,提出一种基于历史信息的外轮廓检测方式,实现图像处理的加速。最后,分析视觉伺服系统,设计视觉伺服控制器。通过分析基于位置的视觉伺服系统和基于图像的视觉伺服系统,设计高速图像反馈下的视觉伺服控制器,并利用Lyapunov函数分析了经典控制算法的稳定性。通过仿真验证经典算法的不足,结合高速图像反馈的特点,对相机运动进行速度前馈补偿,仿真验证了该方法的优越性。对视觉伺服系统图像特征信息反馈时延进行分析,给出时延的计算方式,对目标定位和目标跟踪控制中时延问题进行研究,给出对视觉特征的估计补偿方法,仿真验证该方法能提升时延下视觉伺服系统的性能。最终,经过C60机器人的视觉伺服定位实验,验证了方法的正确性。
徐壮[7](2020)在《基于视觉的轮式移动平台轨迹跟踪策略研究》文中研究表明视觉伺服(也称为视觉控制)是指利用视觉传感器获取图像信息,然后来控制移动机器人的运动使其到达期望位置/姿态或者跟踪上特定轨迹。该项技术将计算机视觉算法与机器人运动控制相结合,可以充分发挥视觉传感器的优点,进而使移动机器人的智能化程度大大提高。如今基于视觉的轮式移动平台轨迹跟踪领域已取得了一些研究成果,但移动机器人相对工业机器人而言,由于具有复杂的非完整约束条件的限制,使移动机器人视觉控制器的设计与分析成为自动控制领域中一个极具挑战性的难题。本文围绕基于视觉的轮式移动平台轨迹跟踪策略展开研究,为移动机器人视觉伺服轨迹跟踪系统提供了一些有效的解决方案,论文整体工作概括如下:(1)首先描述了非完整约束系统下移动机器人的视觉伺服原理。其次建立运动学模型以及针孔相机的成像模型,并介绍基于单应矩阵的视觉伺服方法。然后搭建了移动机器人视觉伺服轨迹跟踪系统硬件实验平台,并且阐述了实验程序代码中包含的内容。最后在实际程序设计的过程中根据高内聚低耦合的思想进行了抽象封装,并具有良好的可扩展性。(2)为了完成移动机器人视觉伺服轨迹跟踪任务,提出了一种轮式移动机器人视觉伺服轨迹跟踪策略,在不需要引入额外变量的情况下,可以准确地跟踪上期望运动轨迹。通过机器人的运动学模型分析、单应矩阵的估计以及分解,得到了定义系统误差所需要的比例平移向量、旋转角度等。之后通过自适应方法,设计了移动机器人的轨迹跟踪控制律,通过李雅普诺夫理论与芭芭拉定理证明了所提控制策略的稳定性。最后选择一种经典的视觉伺服方法来进行对比,仿真与对比实验证明了该方法的有效性。(3)为了在速度饱和约束条件下完成移动机器人视觉伺服轨迹跟踪任务,提出了一种视觉伺服控制策略,通过引入一系列连续有界被用作饱和输入控制的有界函数,然后对移动机器人的运动学模型以及对单应矩阵进行分解,根据分解得到的平移向量、旋转角度设计了轨迹跟踪误差,根据自适应方法设计了速度饱和输入约束的控制策略,根据李雅普诺夫理论与拉塞尔不变集原理证明了该控制策略的有效性,仿真和实验结果验证了该方法的可行性。
安旭曼[8](2019)在《基于图像矩的水下航行器视觉伺服控制》文中研究说明传统的水下航行器视觉伺服控制方法基于图像平面点特征的坐标直接设计控制器,系统图像雅可比矩阵是高度耦合和非线性的,并且存在因冗余点特征带来的局部极小的问题和对噪声敏感,容错性差等问题。本文以水下航行器为研究对象,采用图像矩特征,结合航行器姿态信息,研究混合.图像矩视觉伺服控制、基于图像矩的姿态角估计及视觉伺服控制,以及基于图像深度估计与图像雅可比矩阵估计的三图像矩混合视觉伺服控制等问题,主要研究成果如下:(1)基于三图像矩和四图像矩的水下航行器混合视觉伺服控制结合归一化图像中心点坐标,归一化面积及方向角四个矩特征与水下航行器的三个姿态角建立水下航行器的三图像矩和四图像矩混合视觉伺服模型,并设计视觉伺服控制器。通过仿真验证和理论分析,三图像矩混合视觉伺服系统对任意形状的目标物体均适用,且对平移自由度的运动具有解耦特性,从而可以优化三维运动轨迹;四图像矩混合视觉伺服系统在前者的基础上能够解决偏航角无法测量的问题,但该系统只适用于长轴和短轴长度不同的形状的目标物体。(2)基于图像矩的姿态角估计及视觉伺服控制针对水下航行器相对视觉目标平面的姿态角无法测量的情况,同时为了克服传统经验组合图像矩方法带来的摄像机绕x轴和y轴旋转运动的耦合性和对部分形状的目标物体的不适应性,采用神经网络方法根据六个组合图像矩估计航行器的俯仰角和横滚角。在四图像矩混合视觉伺服系统的基础上设计图像视觉伺服控制器。仿真结果证明了神经网络姿态角估计和水下航行器图像视觉伺服控制的有效性。(3)基于图像深度估计与图像雅可比矩阵估计的三图像矩混合视觉伺服控制在三图像矩混合视觉伺服系统的基础上,针对图像雅可比矩阵的实时在线求解问题进行研究。分别采用两种方法:1)在已知摄像机参数的情况下,通过零阶图像矩与图像深度的关系来估计图像雅可比矩阵中的未知参数——图像实时深度,在线估计图像雅可比矩阵;2)利用动态布洛伊德方法在线估计图像雅可比矩阵的数值解。仿真验证了两种方法能够对图像雅可比矩阵进行实时在线估计从而实现水下航行器的运动控制,并且达到了比常数近似法求解雅可比矩阵的系统更加快速、稳定、准确的性能。
王博[9](2019)在《基于无标定视觉伺服的定位研究》文中认为机器人视觉伺服系统是使用视觉图像作为输入信号控制机器人完成伺服任务。在基于图像的视觉伺服系统中,使用图像雅克比矩阵来描述图像平面内特征变化与机器人关节角度变化之间的非线性关系。用传统方法估计图像雅克比矩阵需要对机器人运动学参数和摄像机内外参数进行标定,但是在实际工厂条件下,复杂的工况常常使得无法进行有效的标定。因此,对于图像雅克比矩阵的无标定估计成为当今视觉伺服领域的热门研究方向。本文在查阅国内外无标定视觉伺服文献的基础上,首先对无标定视觉伺服进行了理论上的阐述,简单介绍了针孔成像模型和机器人运动学模型,这两者是视觉伺服模型的基础。而后对基于图像的无标定视觉伺服算法即非线性方差最小二乘法进行分析推导,得出伺服控制器的机器人关节角更新迭代算法。而后对于伺服系统中图像雅克比矩阵采用动态拟牛顿法进行在线估计,并基于迭代递推最小二乘法对于其发散性能进行了优化。接着详细叙述了视觉伺服系统的视觉输入端图像处理问题。先是分析了视觉系统的各种特征的优缺点,比较各种特征的特点和适用范围,决定采用点特征。然后运用常用的几种滤波方法和灰度处理对图像进行预处理工作。接下来使用边缘检测函数和直线检测算法检测中物体的边缘特征。最后经过筛选和顺序处理后得到所需要的点特征坐标。在matlab环境下使用Robotics和Machine Vision工具箱进行仿真。显示详细分析了任务空间内点的运动和图像平面内投影点坐标之间运动的定性关系。然后作为对比,在相机标定参数已知的情况下对视觉伺服系统进行了视觉伺服仿真实验,实验验证了图像雅克比矩阵理论上的正确性。最后基于无标定视觉伺服算法进行了仿真实验。实验分别在两个不同的初始位姿下进行,实验结果证明了无标定算法的有效性。最后本文利用普通单目摄像头和个人计算机等设备,搭建了无标定视觉伺服控制平台,设计视觉伺服软件系统,将无标定视觉伺服系统应用于UR机器人。通过相机实时获取目标物体图像,并对图像进行特征提取。通过设计好的视觉伺服控制算法,对获取到的特征信息和机器人关节角信息进行处理,控制机器人伺服运动。通过多次实验和程序调试,完成了一个初级的机器人视觉伺服系统的构建,使机器人的智能抓取免去了复杂的标定程序,克服了原视觉系统的不确定因素,提高了机器人视觉系统的鲁棒性,扩大了工业机器人的应用范围。
魏淼[10](2015)在《一种基于图像的双目视觉伺服实验系统开发与研究》文中指出机器人的视觉伺服是利用视觉传感器得到的图像作为反馈信息来构造机器人的位置闭环控制,使机器人的相对位姿达到期望的位姿,在此基础上实现机器人的识别抓取或者跟踪控制目的。它包含许多领域,诸如机械、电子、图像处理、传感器、信息处理以及通信等。目前国内采用的理论和实践上都有许多问题,在实现视觉伺服控制过程中必须克服系统模型中的不确定性因素,提高机器人的控制精度。本文的背景是针对装配流水线平台目标商标的打印为需要展开研究,开发设计了基于图像反馈的点位运动伺服控制实验平台。视觉伺服系统按摄像机数目可分为单目和双目视觉伺服,本文分别设计了单、双目的伺服实验跟踪平台。本系统最外环是图像控制环,固定在机械臂末端的CCD摄像机获取目标的实时图像信息反馈给带有PCI接口的工控机进行图像处理运算,PC工控机将处理的图像信息获得目标的位置信息结果输送到伺服运动控制系统,伺服运动控制系统将图像的特征点换算成坐标转换为伺服控制命令发送到驱动机,驱动机控制电机使机械臂进行点位运动,完成对目标的跟踪控制,从而达到实验目的。其次针对课题需要进行整体分析,确定系统的总体设计方案,对系统关键硬件进行选择,并采用面向对象技术(UML)对系统软件进行分析、设计、建模;在visualstudio平台用C#软件实现了图像处理和控制子系统软件处理及设计。图像处理阶段,证明了高斯滤波对噪音的处理较好,采用Canny边缘检测算法,并进行特征提取。采用切换伺服系统的实验控制平台是固高科技生产的GTS-400-PV(G)-PCI运动控制器,它可以实现三维坐标系的点位运动。在本课题中只研究对二维平面的物体跟踪定位,其核心由FPGA等软件组成,可以实现高精确的控制目的。基于上述研究和设计,在实验室搭建了应用视觉技术的伺服平台实验,实现了二维平面机械臂的点位运动,证明了所设计的伺服实验的可行性和有效性。
二、图像反馈机器人视觉伺服系统理论与实验研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、图像反馈机器人视觉伺服系统理论与实验研究(论文提纲范文)
(1)基于多源异构视觉的变电站机器人巡检技术研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 论文的研究背景及意义 |
1.2 变电站机器人巡检相关技术研究现状及其发展趋势 |
1.2.1 巡检机器人技术的研究现状及其发展趋势 |
1.2.2 变电站检测技术的研究现状及其发展趋势 |
1.2.3 变电站机器人巡检面临的挑战 |
1.3 本文研究内容和章节安排 |
第二章 机器视觉理论基础及变电站巡检技术方案 |
2.1 引言 |
2.2 机器视觉的理论基础 |
2.2.1 多源视觉成像的理论基础 |
2.2.2 数字图像处理的理论基础 |
2.3 变电站机器人巡检系统总体方案 |
2.3.1 巡检系统的技术方案 |
2.3.2 亟待解决的关键技术 |
2.4 本章小结 |
第三章 巡检机器人与云台一体化运动控制技术 |
3.1 引言 |
3.2 位姿描述方法与相机模型 |
3.2.1 三维空间位姿描述 |
3.2.2 相机建模与标定 |
3.3 巡检机器人与云台运动学分析 |
3.3.1 机器人运动学建模 |
3.3.2 云台运动学建模 |
3.3.3 机器人与云台一体化运动学建模 |
3.4 面向巡检数据动态获取的一体化控制技术 |
3.5 本章小结 |
第四章 多源异构视觉检测与目标识别技术 |
4.1 引言 |
4.2 变电站设备图像数据集制作与扩容 |
4.2.1 多源异构图像数据集的建立 |
4.2.2 多源异构图像数据集的增强 |
4.3 基于YOLOv3改进的视觉检测与识别算法 |
4.3.1 多源异构视觉检测与目标识别模型的建立 |
4.3.2 路径聚合网络和深度可分离卷积的融合 |
4.4 模型训练与评估 |
4.4.1 模型训练策略 |
4.4.2 算法评价指标 |
4.5 本章小结 |
第五章 变电站机器人巡检系统集成及实验研究 |
5.1 引言 |
5.2 云台研发 |
5.2.1 技术指标 |
5.2.2 云台硬件部分 |
5.2.3 云台软件部分 |
5.3 系统研发 |
5.3.1 硬件部分 |
5.3.2 软件部分 |
5.3.3 系统集成 |
5.4 实验研究 |
5.4.1 巡检机器人与云台一体化运动控制实验 |
5.4.2 多源异构视觉检测与目标识别实验 |
5.4.3 变电站机器人自动化巡检实验 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历 |
(2)基于无模型自适应预测控制的机械臂视觉伺服控制研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 研究背景和意义 |
1.2 机器人视觉伺服系统概述 |
1.3 基于图像的视觉伺服控制方法研究现状 |
1.4 主要研究内容和结构安排 |
2 六自由度机械臂视觉伺服系统理论研究 |
2.1 连杆坐标系 |
2.2 六自由度机械臂运动学问题分析 |
2.3 视觉伺服系统视觉模型 |
2.4 本章小结 |
3 基于无模型自适应控制的视觉伺服控制方法 |
3.1 目标物体中心点像素坐标提取 |
3.1.1 图像预处理 |
3.1.2 图像边缘检测方法 |
3.2 目标物体中心点坐标 |
3.2.1 目标物体角点检测 |
3.2.2 目标物体中心点像素坐标 |
3.3 无模型自适应控制系统设计 |
3.4 仿真结果验证 |
3.4.1 PUMA560机械臂视觉伺服定位 |
3.4.2 PUMA560机械臂视觉伺服轨迹跟踪 |
3.5 本章小结 |
4 基于无模型自适应预测控制的视觉伺服控制方法 |
4.1 无模型自适应预测控制系统设计 |
4.1.1 控制系统设计 |
4.1.2 控制算法 |
4.1.3 伪偏导数估计算法和预报算法 |
4.2 仿真结果验证 |
4.2.1 无扰动的PUMA560机械臂视觉伺服轨迹跟踪 |
4.2.2 有扰动的PUMA560机械臂视觉伺服轨迹跟踪 |
4.3 本章小节 |
5 总结与展望 |
5.1 本文总结 |
5.2 未来展望 |
参考文献 |
作者简历及攻读硕士学位期间取得的研究成果 |
学位论文数据集 |
(3)工业机械臂的无标定视觉伺服系统研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 机械臂机器人视觉伺服系统分类 |
1.2.1 根据物理结构分类 |
1.2.2 根据系统有无标定分类 |
1.2.3 根据反馈信号不同分类 |
1.2.4 根据相机数目分类 |
1.3 国内外的相关研究现状 |
1.3.1 目标函数的研究现状 |
1.3.2 无标定视觉伺服控制器的研究现状 |
1.4 本文研究内容及章节安排 |
第二章 机械臂运动学及视觉伺服 |
2.1 视觉伺服系统坐标关系 |
2.2 机械臂运动学 |
2.2.1 机械臂连杆描述与坐标系 |
2.2.2 机械臂运动学模型 |
2.2.3 机械臂的雅克比矩阵 |
2.3 视觉伺服系统雅可比矩阵 |
2.3.1 工业相机成像模型 |
2.3.2 图像特征 |
2.3.3 图像雅克比矩阵 |
2.3.4 复合雅克比矩阵 |
2.4 机械臂机器人建模 |
2.5 本章小结 |
第三章 基于图像的单目“眼在手”无标定视觉伺服系统 |
3.1 图像特征提取 |
3.2 目标函数构造 |
3.2.1 图像坐标信息法 |
3.2.2 八参数目标函数构造法 |
3.3 基于非线性方差最小化设计控制律 |
3.4 系统性能评价方法 |
3.5 本章小结 |
第四章 基于状态估计的雅可比矩阵在线估计 |
4.1 基于状态估计的雅可比矩阵的在线估计算法 |
4.1.1 卡尔曼滤波算法 |
4.1.2 粒子滤波算法 |
4.1.3 磷虾群优化粒子滤波算法 |
4.2 仿真实验及结果分析 |
4.2.1 磷虾群优化算法精度测试 |
4.2.2 磷虾群优化算法粒子多样性测试 |
4.2.3 算法对比实验仿真与分析 |
4.3 本章小结 |
第五章 无标定视觉伺服系统实验研究 |
5.1 视觉伺服系统平台搭建 |
5.1.1 视觉伺服系统硬件配置 |
5.1.2 视觉伺服系统软件设计 |
5.1.3 目标物体外形设计 |
5.2 无标定视觉定位实验 |
5.2.1 图像坐标法静止目标定位实验 |
5.2.2 八参数法静止目标定位实验 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 不足及展望 |
致谢 |
参考文献 |
攻读学位期间取得的主要成果 |
(4)空间双臂机器人协调装配柔顺控制方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 空间机器人在轨装配及协调操作柔顺控制研究现状 |
1.2.1 机器人在轨装配研究现状 |
1.2.2 无标定视觉伺服研究现状 |
1.2.3 双臂协调操作柔顺控制研究现状 |
1.2.4 基于力反馈的位姿调整研究现状 |
1.3 本文研究内容及结构安排 |
第二章 无标定视觉伺服对准控制方法 |
2.1 引言 |
2.2 无标定视觉伺服系统模型 |
2.3 基于卡尔曼滤波的模型在线辨识 |
2.4 机器人无标定视觉伺服滑模控制 |
2.4.1 深度估计器 |
2.4.2 视觉伺服滑模控制 |
2.4.3 无标定视觉伺服系统 |
2.5 数值仿真 |
2.6 本章小结 |
第三章 基于扭矩-转角法的双臂机器人协调旋拧柔顺控制 |
3.1 引言 |
3.2 旋拧装配过程及预紧力分析 |
3.2.1 旋拧装配过程分析 |
3.2.2 旋拧装配的预紧力分析 |
3.2.3 旋拧装配控制方法分析 |
3.3 双臂机器人协调操作约束关系建模 |
3.3.1 位置约束关系 |
3.3.2 速度约束关系 |
3.3.3 内力约束关系 |
3.4 空间双臂机器人协调旋拧力/位混合控制方法研究 |
3.5 系统参数不确定下空间双臂机器人自适应柔顺控制方法 |
3.6 数值仿真 |
3.6.1 协调旋拧力位混合控制仿真验证 |
3.6.2 系统参数不确定下自适应控制仿真验证 |
3.7 本章小结 |
第四章 考虑桁架振动的位姿调整策略研究 |
4.1 引言 |
4.2 旋拧装配接触建模 |
4.2.1 接触状态几何分析 |
4.2.2 接触状态力分析 |
4.3 旋拧装配位姿调整方法 |
4.4 柔性桁架旋拧装配振动特性分析 |
4.4.1 柔性桁架结构简化模型建立 |
4.4.2 柔性桁架结构的模态分析 |
4.4.3 考虑振动最小化的位姿调整策略优化 |
4.5 本章小结 |
第五章 空间双臂机器人协调装配柔顺控制实验研究 |
5.1 引言 |
5.2 实验平台与实验方案 |
5.2.1 实验平台 |
5.2.2 实验方案 |
5.3 实验结果与分析 |
5.3.1 无标定视觉伺服对准实验 |
5.3.2 双臂旋拧装配柔顺控制实验 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 研究展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文目录 |
(5)PSO-GA-BP神经网络在机器人无标定系统中的应用与研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题背景及研究的目的和意义 |
1.2 无标定视觉伺服系统综述 |
1.2.1 国内外研究现状 |
1.2.2 视觉伺服的分类 |
1.3 主要研究内容 |
第2章 视觉伺服系统的理论基础 |
2.1 摄像机模型和图像雅克比矩阵 |
2.1.1 摄像机模型 |
2.1.2 图像雅克比矩阵 |
2.2 机械臂位姿描述 |
2.3 机械臂运动学 |
2.4 BP神经网络概述 |
2.4.1 BP神经网络结构 |
2.4.2 BP神经网络学习算法 |
2.4.3 BP神经网络的优缺点 |
2.5 本章小结 |
第3章 机械臂视觉信息处理 |
3.1 图像预处理 |
3.1.1 图像灰度化 |
3.1.2 图像增强 |
3.1.3 图像滤波 |
3.1.4 图像二值化 |
3.2 边缘检测 |
3.3 目标特征信息提取 |
3.3.1 椭圆方程 |
3.3.2 基于特征弦约束的RHT椭圆检测算法 |
3.3.3 实验结果 |
3.4 本章小结 |
第4章 基于PSO-GA优化的BP神经网络 |
4.1 粒子群遗传算法介绍 |
4.1.1 粒子群算法概述 |
4.1.2 遗传算法概述 |
4.2 PSO-GA-BP算法整体设计 |
4.3 PSO-GA实现过程 |
4.4 参数设置 |
4.4.1 适应度函数设计 |
4.4.2 遗传算子设计 |
4.4.3 粒子群参数设计 |
4.5 仿真验证 |
4.6 本章小结 |
第5章 视觉伺服控制器设计与仿真 |
5.1 视觉伺服控制系统 |
5.1.1 视觉伺服控制系统结构 |
5.1.2 视觉控制器的设计 |
5.1.3 视觉伺服控制系统稳定性分析 |
5.2 基于PSO-GA-BP神经网络的机器人视觉伺服控制系统 |
5.2.1 视觉伺服控制系统平台搭建 |
5.2.2 BP神经网络预测模型设计 |
5.2.3 数据采集 |
5.3 神经网络训练和仿真结果分析 |
5.3.1 PSO-GA-BP算法参数设计 |
5.3.2 神经网络训练 |
5.4 机器人视觉伺服控制系统实验 |
5.5 本章小结 |
第6章 结论 |
6.1 结论 |
6.2 展望 |
致谢 |
参考文献 |
作者简介 |
攻读硕士学位期间研究成果 |
(6)基于高速图像反馈的机器人视觉伺服控制研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题来源及研究的背景和意义 |
1.1.1 课题来源 |
1.1.2 课题研究的背景和意义 |
1.2 国内外研究现状 |
1.2.1 视觉伺服的发展和研究现状 |
1.2.2 高速视觉系统的研究现状 |
1.3 现有研究的不足以及亟待解决的问题 |
1.4 本文的主要研究内容 |
1.4.1 机器人视觉伺服模型的建立 |
1.4.2 高速视觉系统的构建 |
1.4.3 机器人视觉伺服控制算法的设计与稳定性分析 |
第2章 机器人视觉伺服的运动学模型建立 |
2.1 引言 |
2.2 三维空间中刚体运动的数学基础 |
2.2.1 三维空间中刚体的位姿描述 |
2.2.2 刚体的运动旋量和伴随变换 |
2.3 机器人正向运动学模型建立 |
2.3.1 基于指数积公式的机器人正向运动学建模方法 |
2.3.2 C60机器人正向运动学模型 |
2.4 机器人微分运动学模型建立 |
2.4.1 机器人微分运动学的推导 |
2.4.2 相机速度与机器人末端速度关系 |
2.5 本章小结 |
第3章 机器人视觉伺服高速图像处理系统及算法 |
3.1 引言 |
3.2 高速图像处理系统的硬件构成 |
3.2.1 高速工业摄像机 |
3.2.2 Camera Link图像传输协议 |
3.2.3 Xilinx KINTEX Ultra SCALE+高性能开发板 |
3.3 基于SDSo C的 FPGA的硬件加速策略 |
3.3.1 SDSoC简介 |
3.3.2 HLS加速方法 |
3.3.3 行缓存和窗口缓存策略 |
3.4 相机模型的建立 |
3.4.1 相机坐标系与图像坐标系的关系 |
3.4.2 图像坐标系与像素坐标系的关系 |
3.4.3 相机坐标系与世界坐标系的关系 |
3.5 视觉系统的图像处理策略 |
3.5.1 ArUco标记轮廓跟踪算法 |
3.5.2 ArUco标记顶点检测算法 |
3.5.3 基于历史信息的图像检测方法 |
3.5.4 基于ArUco标记的位姿估计 |
3.6 本章小结 |
第4章 视觉伺服系统的标定与模型建立 |
4.1 引言 |
4.2 机器人视觉伺服系统的手眼标定 |
4.3 视觉伺服系统模型建立 |
4.4 视觉伺服系统中的速度关系 |
4.4.1 基于位置的视觉伺服系统 |
4.4.2 基于图像的视觉伺服系统 |
4.5 本章小结 |
第5章 高速图像反馈下的视觉伺服控制 |
5.1 引言 |
5.2 视觉伺服经典控制算法的设计与性能分析 |
5.2.1 基于位置的视觉伺服控制器设计与分析 |
5.2.2 基于图像的视觉伺服控制器设计与分析 |
5.3 高速图像反馈下的视觉伺服的速度补偿与分析 |
5.4 考虑视觉反馈时滞的视觉伺服 |
5.4.1 视觉伺服系统图像信息反馈时延计算 |
5.4.2 考虑图像信息反馈时延的视觉伺服目标定位控制 |
5.4.3 考虑图像信息反馈时延的视觉伺服目标跟踪控制 |
5.5 高速视觉反馈下的视觉伺服定位实验 |
5.6 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的论文及其他成果 |
致谢 |
(7)基于视觉的轮式移动平台轨迹跟踪策略研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题背景与发展意义 |
1.2 轮式移动机器人的国内外视觉伺服研究现状 |
1.2.1 移动机器人系统 |
1.2.2 视觉伺服系统分类 |
1.3 目前主要存在的问题 |
1.3.1 深度信息缺失 |
1.3.2 移动机器人是典型的非完整约束系统 |
1.3.3 目标特征脱离相机视野 |
1.3.4 摄像机内外参数以及图像噪声 |
1.3.5 输入受限的控制 |
1.4 论文主要内容与结构 |
第二章 轮式移动机器人视觉伺服模型和实验平台介绍 |
2.1 引言 |
2.2 轮式移动机器人视觉伺服原理 |
2.2.1 非完整约束的移动机器人 |
2.2.2 运动学模型与非完整分析 |
2.2.3 单目相机的针孔成像模型 |
2.2.4 基于单应矩阵的视觉伺服 |
2.3 轮式移动机器人实验平台介绍 |
2.3.1 移动机器人视觉伺服硬件实验平台简介 |
2.3.2 移动机器人视觉伺服软件平台搭建 |
2.4 本章小结 |
第三章 基于单应矩阵分解的轮式移动机器人视觉伺服轨迹跟踪 |
3.1 引言 |
3.2 机器人模型以及问题描述 |
3.2.1 系统描述 |
3.2.2 视觉模型 |
3.2.3 机器人运动学模型 |
3.2.4 单应矩阵的估计及分解 |
3.3 自适应控制器设计 |
3.3.1 控制器设计 |
3.3.2 稳定性分析 |
3.4 仿真结果以及仿真结果分析 |
3.4.1 仿真结果 |
3.4.2 仿真结果分析 |
3.5 实验结果以及实验结果分析 |
3.5.1 实验一(对本章所提方法进行实验验证) |
3.5.2 实验二(与经典轨迹跟踪控制方法进行对比) |
3.6 本章小结 |
第四章 基于速度饱和输入的移动机器人视觉伺服轨迹跟踪 |
4.1 引言 |
4.2 移动机器人系统模型描述 |
4.2.1 系统模型描述 |
4.2.2 机器人运动学模型以及视觉模型 |
4.2.3 相对位姿关系以及单应矩阵的估计以及分解 |
4.3 控制器的设计以及稳定性证明 |
4.3.1 开环误差方程 |
4.3.2 速度饱和控制器的设计 |
4.3.3 稳定性分析 |
4.4 仿真结果以及仿真结果分析 |
4.4.1 仿真结果 |
4.4.2 仿真结果分析 |
4.5 实验结果以及实验结果分析 |
4.5.1 实验结果 |
4.5.2 实验结果分析 |
4.6 本章小结 |
第五章 总结与展望 |
5.1 本文工作总结 |
5.2 后续工作展望 |
参考文献 |
发表论文和参加科研情况说明 |
致谢 |
(8)基于图像矩的水下航行器视觉伺服控制(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景和意义 |
1.1.1 研究背景 |
1.1.2 研究目的与意义 |
1.2 研究现状 |
1.2.1 视觉伺服概述 |
1.2.2 视觉伺服控制的应用 |
1.2.3 水下航行器视觉伺服控制 |
1.2.4 图像矩视觉伺服控制的研究现状 |
1.3 本文研究内容与结构安排 |
第二章 水下航行器视觉伺服建模与图像矩特性分析 |
2.1 引言 |
2.2 水下航行器坐标系及参数定义 |
2.3 水下航行器模型 |
2.3.1 运动学模型 |
2.3.2 动力学模型 |
2.4 摄像机成像模型 |
2.4.1 针孔模型 |
2.4.2 外参数模型 |
2.4.3 内参数模型 |
2.5 图像矩及其图像雅可比矩阵 |
2.5.1 图像矩介绍 |
2.5.2 图像矩的图像雅可比矩阵 |
2.6 图像矩特性分析 |
2.6.1 图像矩物理意义分析 |
2.6.2 水下环境对图像矩的影响分析 |
2.7 本章小结 |
第三章 水下航行器混合图像矩视觉伺服控制 |
3.1 引言 |
3.2 水下航行器混合视觉伺服控制原理 |
3.3 三图像矩混合视觉伺服控制系统 |
3.4 四图像矩混合视觉伺服控制系统 |
3.5 速度跟踪控制 |
3.5.1 动态逆系统理论 |
3.5.2 单隐层神经网络 |
3.5.3 基于神经网络动态逆的速度跟踪控制律设计 |
3.6 仿真实验 |
3.6.1 水下航行器混合视觉伺服控制系统仿真模型 |
3.6.2 三图像矩混合视觉伺服控制系统仿真实验 |
3.6.3 四图像矩混合视觉伺服控制系统仿真实验 |
3.7 本章小结 |
第四章 基于图像矩的姿态角估计及视觉伺服控制 |
4.1 引言 |
4.2 基于图像的水下航行器视觉伺服控制原理 |
4.3 水下航行器俯仰角和横滚角的估计 |
4.4 俯仰角和横滚角估计值的图像雅可比矩阵 |
4.5 仿真实验 |
4.5.1 俯仰角和横滚角估计器有效性验证 |
4.5.2 基于图像矩的水下航行器视觉伺服控制器有效性验证 |
4.6 本章小结 |
第五章 图像深度估计和图像雅可比矩阵估计 |
5.1 引言 |
5.2 图像深度估计 |
5.3 基于动态布洛伊德法的雅可比矩阵在线估计 |
5.3.1 动态布洛伊德法 |
5.3.2 改进的动态布洛伊德法 |
5.4 仿真验证 |
5.4.1 图像深度估计算法验证 |
5.4.2 动态布洛伊德法验证 |
5.5 本章小结 |
第六章 论文总结与研究展望 |
6.1 论文总结 |
6.2 研究展望 |
参考文献 |
攻读硕士学位期间参与的竞赛与科研项目情况 |
致谢 |
(9)基于无标定视觉伺服的定位研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 引言 |
1.2 视觉伺服的分类 |
1.2.1 根据物理结构分类 |
1.2.2 根据控制结构分类 |
1.2.3 根据视觉反馈信号的数据类型分类 |
1.3 无标定视觉伺服的研究现状 |
1.3.1 国外研究现状 |
1.3.2 国内研究现状 |
1.4 本文所做的工作 |
第二章 无标定视觉伺服控制算法 |
2.1 视觉伺服手眼关系 |
2.1.1 相机模型 |
2.1.2 机器人运动学模型 |
2.2 图像雅克比矩阵 |
2.3 非线性方差最小化 |
2.4 图像雅克比矩阵的估计和改进 |
2.4.1 动态拟牛顿法 |
2.4.2 迭代递推最小二乘法 |
2.5 算法控制流程 |
2.6 本章小结 |
第三章 视觉伺服系统中的图像处理 |
3.1 特征选取 |
3.2 图像的预处理 |
3.2.1 颜色通道与灰度处理 |
3.2.2 颜色空间转化 |
3.2.3 图像滤波 |
3.2.4 腐蚀与膨胀 |
3.3 边缘检测与轮廓提取 |
3.3.1 边缘检测 |
3.3.2 轮廓提取 |
3.4 直线检测与特征点提取 |
3.4.1 直线检测 |
3.4.2 特征提取 |
3.5 本章小结 |
第四章 无标定视觉伺服系统仿真 |
4.1 相机运动与图像平面内特征运动的关系 |
4.2 有标定情况下IBVS仿真 |
4.3 无标定视觉伺服算法仿真 |
4.4 本章小结 |
第五章 无标定视觉伺服实验研究 |
5.1 实验硬件平台介绍 |
5.1.1 UR机器人远程控制 |
5.1.2 摄像头与固定装置 |
5.1.3 目标物体选取 |
5.1.4 实验场景介绍 |
5.2 实验软件平台介绍 |
5.2.1 软件架构流程 |
5.2.2 软件界面展示 |
5.3 实验结果分析 |
5.4 本章小结 |
第六章 总结与展望 |
参考文献 |
致谢 |
攻读硕士学位期间已发表或录用的论文 |
(10)一种基于图像的双目视觉伺服实验系统开发与研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 背景和意义 |
1.2 机器视觉伺服技术国内外发展现状和分类 |
1.2.1 国内外发展现状 |
1.2.2 视觉伺服的分类 |
1.3 论文主要研究的内容和结构 |
第2章 视觉伺服系统基础 |
2.1 视觉伺服系统的组成 |
2.2 机器人视觉伺服的基本概念 |
2.3 机器人视觉伺服的分类 |
2.3.1 基于图像的视觉伺服控制结构 |
2.3.2 基于图像的视觉伺服控制结构 |
2.4 视觉伺服控制算法 |
2.4.1 基于逆雅可比矩阵的控制 |
2.4.2 PID控制 |
2.4.3 任务函数法 |
2.4.4 自适应控制 |
2.5 本章小结 |
第3章 视觉伺服系统总体设计 |
3.1 视觉伺服系统的总体设计 |
3.2 视觉伺服子系统 |
3.2.1 单双目相机及其安装 |
3.2.2 图像处理 |
3.3 运动控制子系统 |
3.4 关键硬件设备选择 |
3.4.1 相机型号的选择 |
3.4.2 通用计算机 |
3.4.3 运动控制卡 |
3.5 系统软件设计 |
3.5.1 系统软件设计的基本思想 |
3.5.2 系统软件的结构 |
3.5.3 系统软件开发平台与相关技术 |
3.6 系统软件建模 |
3.6.1 系统用例建模 |
3.6.2 系统静态建模 |
3.6.3 系统动态建模 |
3.7 本章小结 |
第4章 视觉伺服的图像处理 |
4.1 图像采集 |
4.2 图像预处理 |
4.2.1 图像的缩放处理 |
4.2.2 图像增强 |
4.2.3 图像边缘检测 |
4.2.4 图像的中值滤波 |
4.3 目标的定位 |
4.4 本章小节 |
第5章 基于双目视觉伺服系统仿真 |
5.1 图像雅可比矩阵原理 |
5.2 基于全局视觉的手眼协调控制 |
5.2.1 固定相机图像雅可比矩阵计算 |
5.2.2 固定相机的最优控制算法设计 |
5.3 眼在手上相机的雅可比矩阵计算 |
5.3.1 眼在手上相机的雅可比矩阵计算 |
5.3.2 眼在手上的PI控制算法设计 |
5.4 基于切换系统的机器人视觉伺服系统仿真 |
5.4.1 切换规则的设计 |
5.4.2 切换系统仿真 |
5.5 双目视觉伺服二维实验 |
5.5.1 实验系统的目的 |
5.5.2 实验步骤 |
5.5.3 实验系统组成 |
5.5.4 实验目标图像采集 |
5.5.5 实验方案 |
5.5.6 实验结果分析 |
5.6 实验误差分析 |
5.7 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
四、图像反馈机器人视觉伺服系统理论与实验研究(论文参考文献)
- [1]基于多源异构视觉的变电站机器人巡检技术研究[D]. 梁松伟. 浙江大学, 2021(02)
- [2]基于无模型自适应预测控制的机械臂视觉伺服控制研究[D]. 武慧莹. 北京交通大学, 2021(02)
- [3]工业机械臂的无标定视觉伺服系统研究[D]. 程亮玮. 西南科技大学, 2021(08)
- [4]空间双臂机器人协调装配柔顺控制方法研究[D]. 段嘉琪. 北京邮电大学, 2020(04)
- [5]PSO-GA-BP神经网络在机器人无标定系统中的应用与研究[D]. 赵航. 长春工业大学, 2020(01)
- [6]基于高速图像反馈的机器人视觉伺服控制研究[D]. 缪成宗. 哈尔滨工业大学, 2020(01)
- [7]基于视觉的轮式移动平台轨迹跟踪策略研究[D]. 徐壮. 天津工业大学, 2020(02)
- [8]基于图像矩的水下航行器视觉伺服控制[D]. 安旭曼. 西北工业大学, 2019(07)
- [9]基于无标定视觉伺服的定位研究[D]. 王博. 上海交通大学, 2019(06)
- [10]一种基于图像的双目视觉伺服实验系统开发与研究[D]. 魏淼. 东北大学, 2015(06)