自主机器人视觉行为模型及避障研究

自主机器人视觉行为模型及避障研究

一、自主机器人视觉与行为模型及避障研究(论文文献综述)

迟明善[1](2021)在《家用轮椅机械臂示教任务学习与轨迹自主生成方法研究》文中认为家用轮椅机械臂式助老助残机器人是一种为应对当今日益严峻的老龄化社会而为老年人和残疾人开发的服务机器人,可辅助用户完成各种日常家居任务,从而帮助用户即使在无看护的情况下也能独立自主地生活。该类机器人因其同时兼顾了轮椅的快速移动性以及机械臂的灵活操作性,极大地拓展了老年人和残疾人的活动空间,而格外受到广大用户的青睐。但老年人和残疾人受限于身体机能或认知方面的缺陷,导致灵活地操控这类机器人为自己服务成为一个难题。他们迫切希望机器人能自主提供“快捷易用”且“符合用户操作规划”的辅助帮助,并且自己仍掌握操控的主动权。因此,本文以满足老年人和残疾人的使用需求为出发点,研究面向日常家居任务的示教任务学习与轨迹自主生成方法,从而控制机器人自主地完成各种任务。在此研究基础上,本文还开发相应的机器人实验平台并开展典型的日常家居任务实验。成功获取日常家居任务的示教信息是开展基于示教的任务学习方法的前提条件。为此,本文在对日常家居任务分析的基础上,确定了亟需助老助残机器人辅助完成的典型家居任务及其完成动作序列;同时,针对以往获取的示教信息包含过多冗余操作或误操作的问题,本文提出基于关键点的示教信息记录方法来获取示教信息并设计专用的界面来降低操作的难度。此外,本文还从示教轨迹的质量和示教过程两个方面提出示教信息获取方法的评价指标并开展典型家居任务的对比实验。实验结果表明,与传统的示教信息直接记录法相比,本文提出的方法能显着降低用户的操作难度和精神负担,特别适合于完成复杂繁琐、多步骤的日常家居任务的示教。日常家居任务的运动轨迹往往因其动作复杂且繁琐而无法直接用一个运动策略来表示,这就需要对示教轨迹进行分割从而提取其中的基本动作。针对人工分割示教轨迹时面临的操作繁琐、费时且难以准确分割等问题,本文提出采用非参贝叶斯方法中的贝塔过程自回归隐式马尔科夫模型(BP-AR-HMM)来对家居任务的示教轨迹进行自动分割,具体为在对示教轨迹依次进行欧拉角突变处理、改进版递推平滑滤波处理、多条示教轨迹对齐处理和标准化处理的基础上,采用BP-AR-HMM算法对示教轨迹进行分割,从而提取轨迹中所含的基本动作并为后续的动作学习与泛化奠定基础;同时,本文还对分割获得的基本动作进行属性判断并建立该机器人的示教任务库。拿水杯实验的分割结果证明本文提出的示教轨迹自动分割方法的有效性与准确性。在新环境下再现示教任务是助老助残机器人能成功辅助老年人和残疾人完成各种日常家居任务的关键。为了使机器人能在新环境下生成符合用户操作习惯的任务完成轨迹,本文提出基于改进版动态运动基元与动态人工势场(改进版DMPs-DPF方法)的轨迹自主拼接生成方法,即对任务完成序列中的技巧性动作直接依据目标物体位置的改变进行坐标平移变换;而对其中的转移性动作,本文则采用改进版DMPs-DPF方法来进行学习表述并在新环境下进行泛化,同时还考虑泛化路径上存在各种不同形状、大小障碍物的情况;在上述处理的基础上,本文将泛化的转移性动作与平移的技巧性动作按示教动作次序进行拼接,从而生成新环境下示教任务的完整运动轨迹。在上述研究的基础上,本文搭建轮椅机械臂式助老助残机器人实验平台。该平台由JACO机械臂、Xtion摄像头、Express电动轮椅和笔记本电脑组成,可根据用户的指令读取指定任务的示教信息并借助视觉系统获取新环境下目标物体的位置信息,同时自动生成该任务的完整再现运动轨迹。基于该实验平台,本文开展“进餐”和“拿水杯”两个典型的日常家居任务的示教实验,对本文提出的示教任务学习与轨迹自主生成方法进行验证与评价。实验结果表明,该方法不仅可以辅助机器人快速完成各种日常家居任务,还能降低任务操作的难度并节省操作时间。相比于手动操作方式,该自主操作完成复杂的、多步骤的进餐任务能节省约45%的时间;即使是对于简单的拿水杯任务,该方式也能节省约10%的时间。这就说明自主操作方式适合于应用在家居环境中用于完成各种复杂、多步骤的家居任务。

张健[2](2021)在《六自由度机器人工作空间三维重建及运动规划研究》文中研究表明六自由度机器人装配技术是一项具有广泛应用前景的前沿技术,面对现代生产制造模式定制化、小批量的特点及市场多元化需求,传统的示教型工业机器人装配已经不能适应这种复杂未知的装配环境,需要实现机器人智能装配、协作装配,赋予机器人感知、决策、执行一体化功能。本文将以六自由度操作机器人轴孔装配为研究对象,基于单目相机、深度相机传感器,从环境感知视觉系统的搭建与标定、基于环境感知视觉系统的相机位姿估计及三维重建、六自由度操作机器人运动规划三方面来展开研究。1.环境感知视觉系统的搭建与标定。首先,针对半封闭空间内部轴孔装配此类场景,将Kinect v2云台视觉系统和EIH(Eye-in-Hand)单目视觉系统结合,搭建环境感知视觉系统;其次,对两种视觉系统进行标定,得到Kinec v2相机坐标系相对于机器人基坐标系、单目相机相对于六自由度操作机器人第六轴坐标系的变换矩阵;最后,对Kinect v2相机、单目相机两种相机传感器进行标定,结果表明,Kinect v2相机的彩色镜头相对于红外镜头的变换矩阵在x方向上的相对误差为0.53%,单目相机内参的平均相对误差为1.66%。2.基于环境感知视觉系统的三维重建。本章方法如下:将三维重建方法运用到半封闭空间内部轴孔装配此类场景,为机器人提供障碍物和装配目标三维位姿信息。首先,基于 SLAM(Simultaneous Localization And Mapping)框架和 Kinect v2 云台视觉系统,完成半封闭空间外部三维点云的构建;其次,以单目视觉SLAM算法和SFM(Structure From Motion)算法相结合的方式,解决深度相机无法进入半封闭狭小空间内部的问题,完成单目相机的定位,避免机器人在获取半封闭空间内部环境时与其发生碰撞,并完成半封闭空间内部三维点云的构建;最后,通过实验验证本文三维重建方法可行有效。3.六自由度操作机器人运动规划算法研究。所提方法如下:首先,基于行为动力学理论,建立机器人末端执行器位置、姿态动力学模型,并针对模型中的速度项进行改进,仿真对比结果表明,改进后可以实现速度的自适应变化且更加平滑;其次,在机器人关节和连杆上分别设置固定控制点和浮动控制点,保证连杆和关节不和障碍物发生碰撞;最后,将行为动力学模型和碰撞检测算法融合,仿真和实验结果表明,本文提出的运动规划方法在给定起始位姿和目标位姿时,可以生成一条无碰撞路径,且实现了末端执行器速度自适应变化。4.模拟半封闭空间轴孔装配实验。首先,利用环境感知视觉系统的标定结果和三维重建结果,完成坐标转换,求解得到了模拟半封闭空间外部的局部目标点和目标孔中心点相对于机器人基座标系的位姿转换矩阵;其次,设计实验方案,搭建模拟半封闭空间内轴孔装配的实验平台;最后,利用本文提出的六自由度操作机器人运动规划算法,完成半封闭空间内部的轴孔装配实验。

刘旭颖[3](2021)在《基于机器视觉的割草机自主导航方法研究》文中研究指明随着机器视觉技术的不断发展与完善,基于机器视觉的导航系统在农业、工业、无人驾驶、服务业等领域都得到了广泛应用。由于城市化的发展,近年来割草机应用的越来越广泛,然而传统的割草机需要人工操作,劳动强度大,工作效率低。随着嵌入式处理器速度的提高以及机器视觉技术的进步,将机器视觉与嵌入式结合,用于对割草机进行自主导航成为可能。因此研究基于机器视觉的割草机自主导航与智能化控制具有重要的理论意义与实际应用价值。本文研究基于嵌入平台的机器视觉处理方法,并应用于对割草机的自主导航,具体研究内容分为以下几部分:(1)本文根据视觉导航的功能需求完成对硬件平台的搭建,主要包括视觉传感器、超声波传感器、Raspberry Pi 3B+、驱动模块的硬件连接,并完成对硬件平台的系统配置。(2)根据视觉导航的需要实现内外边界识别,并基于此提出不同的算法。对于外部边界识别,本文提出一种基于HSI与CIE Lab颜色空间分割融合的方法。利用改进的Otsu算法对颜色空间分量图像进行阈值分割并运用逻辑运算进行融合,该方法能有效处理相机抖动或光照影响下的部分模糊情况。对于内部边界识别,本文提出了一种基于纹理特征与颜色特征分割融合的方法。利用分块处理优化纹理特征的提取,使用SVM实现基于纹理特征的分割并与基于CIE Lab颜色空间的阈值分割进行融合,完成整体分割。利用边缘检测算子完成对内外边界的提取并做出相应行为判断。(3)根据视觉导航需要实现的内部障碍物识别,本文提出了一种基于颜色与纹理特征组合的识别方法。本文不区分障碍物种类,从摄像头视角考虑选取子图像并求取颜色特征,根据颜色特征差异将所有障碍物分为两类处理,分别进行基于颜色特征与基于纹理特征的识别,并根据识别结果启动超声波模块进行实时测距与反馈信息。小车依据测距结果做出判断,执行相应指令动作。(4)最后,将上述功能放入基于Linux系统的树莓派上进行测试,实验证明本文研究算法有良好的识别效果。

周娟婷[4](2021)在《基于视觉的移动机器人目标检测及路径规划研究》文中进行了进一步梳理随着科技水平的不断提升,智能机器人的自主作业能力逐渐成为各行各业的研究热点。移动机器人的路径规划和动态避障是实现机器人自主作业的一项重要研究内容,在机器人移动过程中利用传感器对机器人作业环境感知,为机器人提供一条安全路径,帮助机器人达到目标终点。本文以复杂环境下基于视觉的移动机器人路径规划为研究点,针对机器人路径规划中涉及的关键技术进行研究,主要研究内容为:(1)基于改进光流法的移动机器人动态障碍物检测研究。机器人路径规划过程中,运行环境发生变化可能导致机器人不能顺利抵达目标终点。因此,本文通过机器人的视觉传感器采集周围环境信息,先利用三帧差法获取机器人的前方障碍物的运动区域,过滤复杂的背景环境,再通过改进光流法检测出前方动态障碍物,并利用光流深度信息计算出机器人与障碍物特征点的碰撞时间,以此为依据判断出机器人与动态障碍物之间的距离,提高动态障碍物检测精度。(2)机器人静态路径规划算法研究。移动机器人的静态路径规划是机器人在复杂环境下顺利抵达目标终点的基础,但传统萤火虫算法在路径选择的过程中可能陷入局部最优,出现早熟现象而不能寻求路径最优解。因此,针对萤火虫的吸引特性,对萤火虫的最大吸引系数进行自适应控制,并对影响寻优的萤火虫步长因子进行改进,提高了改进萤火虫算法在机器人静态路径规划时的寻优能力。(3)光流平衡法避障研究。本文以萤火虫算法规划的静态路径和改进光流法的动态障碍物检测为基础,基于光流场检测出前进方向上障碍物与机器人之间的相对距离,并利用光流平衡水平避障法实现动态避障,提高路径规划的准确性和安全性。

张睿[5](2021)在《自重构球形机器人对接的导航控制研究》文中研究表明球形机器人具有稳定防倾覆以及全向快速移动的能力,近年来其相关研究一直是移动机器人研究中的热点和难点课题。本文所基于的球形机器人“BYQ-CG”面对地质灾害探测、预防巡检为主的任务时可以采取“化整为零”的策略,由单个球形机器人执行任务;面对排险救援、增强通过性为主的任务则采取“合零为整”的策略进行重构,因此如何帮助球形机器人实现准确对接是重构任务执行的关键也是本文研究的方向。面向球形机器人自重构技术研究,最基础和重要的协同工作便是球形机器人的对接,而通过设计适用于球形机器人的定位导航算法以及动态目标检测等实现位姿估计,准确完成面向球形机器人自重构的对接任务虽然挑战重重但确实具有可行性,这也是本文研究的意义所在。本论文以自重构球形机器人为研究对象,以准确实现自重构球形机器人的外部对接任务为研究目标,结合多传感器融合的优势对自重构球形机器人导航定位算法以及相对动态目标检测和位姿估计方法展开研究,确保自重构球形机器人在球壳闭合和球壳打开的运动工况中均能获得鲁棒的全局定位,并能基于此进行对接路径规划和导航,进一步地,在“粗对准”和“准确对接”的子任务阶段能获得稳定的运动目标检测以及相对位姿估计。本文研究取得成果如下:1.进行了自重构球形机器人定位导航与检测系统设计。通过分析自重构球形机器人以室外为主的应用场景和自身携带传感器的特性,以及现有的定位导航和目标识别、检测的方法,进行了自重构球形机器人BYQ-CG面向重构对接的导航检测系统设计。根据球形机器人运动中球壳是否打开分为两种定位工况,分别设计全球卫星导航系统松耦合惯性系统设计方案以及差分GNSS融合IMU以及双目视觉的全局定位方案;针对重构对接任务分为两个目标检测子任务,分别设计目标检测识别方案。通过与需求分析对比以及传感器实测,验证了本文所提方案及传感器选型的合理性。2.进行了面向自重构球形机器人对接的导航定位算法研究。为实现自重构球形机器人在室外场景下高精度和鲁棒性的全局定位,从而为重构对接任务提供导航支持,本文针对球壳闭合的工况提出一种全球卫星导航系统松耦合惯性系统(GNSS/INS)的强化自适应组合导航方法。针对球壳打开的复杂工况提出一种视觉惯性里程计融合GNSS的全局定位算法,将视觉惯性里程计(VIO)位姿信息和GNSS定位信息进行融合,从而实现局部精确和全局无漂移的实时联合位姿估计,为自重构球形机器人提供实时和鲁棒的全局位姿信息,并在其中加入了前端特征管理优化设计,以及将全局位姿信息加入紧耦合的基于非线性优化的后端中,与视觉残差和IMU残差一起优化,添加全局位姿残差,提升融合定位系统的计算速度和鲁棒性,在实际场景中目标定位误差在0.5m以内。最后通过基于安全优化A*和DWA融合的路径规划算法,为自重构球形机器人对接提供导航路径。3.本文面向球形机器人“粗对准”子任务阶段设计了一种轻量化的快速目标检测算法。通过使用ResBlock-D特征提取模块代替了部分CSPBlock特征提取模块,并加入残差辅助模块,在进一步轻量化目标检测算法的同时保证了目标检测识别的精度,同时通过融合所使用的深度相机的深度测量信息,使得该目标检测子系统具备了检测同时测得与目标距离的能力;面向“准确对接”子任务阶段,本文研究以特定的ArUco二维码作为靶标,间接解算外参,辅助机器人获得准确的对接接口位姿,实现相对位姿估计,为对接姿态控制提供反馈。4.基于自重构球形机器人的应用场景,面向自重构球形机器人的实际对接任务,对导航定位算法和目标检测识别算法进行了实验研究,并将上述的算法和系统集成,在BYQ-CG机器人平台上进行对接实验测试,以完整验证本文研究的可行性和有效性。

张营[6](2021)在《面向家庭服务机器人任务执行的环境建模问题研究》文中进行了进一步梳理在社会需求增长和技术发展的持续推动下,移动机器人正逐步走入家庭,为用户提供家政服务。环境建模作为机器人执行家政作业的基础,综合了环境感知、理解和表征等核心技术。然而,机器人作业在开放、动态、非结构化的家庭环境中,仍面临着导航安全性、任务执行高效性、长期自治性等多方面的挑战。如何对复杂家庭环境建立准确的模型,以支持机器人安全、高效、长期自主地执行家政作业,是推动移动机器人进入家庭和实现机器人智能化服务的关键。本文以移动机器人在家庭环境中进行家政作业的需求为导向,深入研究了面向家庭服务机器人任务执行的环境建模问题,并获得了如下研究成果:(1)为使机器人安全有效地执行家政作业,研究了机器人与环境中空间障碍物的碰撞问题,提出了一种面向机器人三维空间避障的二维栅格地图构建方法。首先,引入视觉传感器来检测激光传感器不完全可见的空间障碍物(如桌子、椅子等),并设计了一种将视觉信息转换为二维伪激光数据表示的方法。该伪激光数据有效地描述环境中的空间障碍物。然后,基于激光和伪激光数据,开发了一种栅格地图融合算法,以生成改进的、可全面表征障碍物信息的二维栅格地图,解决了传统栅格地图对障碍物表征不准确的问题。在此基础上,通过权衡激光和伪激光数据,提出了一种机器人三维空间避障策略,以避免机器人与环境中空间障碍物发生碰撞。实验结果表明,改进的栅格地图连同避障策略不仅允许机器人规划出“真正”无碰撞路径,而且还实现了在静态和动态场景下安全、稳定、可靠地导航,显着提高了机器人运行的安全性和鲁棒性。(2)为使机器人高效地完成家政作业,研究了先验知识引导下的目标物品快速定位问题,提出了一种面向物品搜索的度量-拓扑地图构建方法。首先,以环境中的物品为参考,构建了一种新颖的度量-拓扑地图,其中拓扑节点表示了环境中与物品相关的位置。所构建的地图不仅去除了与物品无关的冗余节点,还利于移动机器人定位目标物品。为有效创建地图上拓扑节点,设计了一种机器人视角快速调节方法。然后,受人类搜索物品的行为启发,通过考虑机器人的当前位置和其到最可能找到目标物品位置的距离关系,提出了一种基于先验知识的物品搜索策略,以允许机器人优先搜索最可能找到目标物品的位置,进而提高搜索效率。实验结果表明,所提出的方法能够使机器人高效、可靠地找到目标物品。(3)为高效地支持机器人执行物品操作,研究了三维环境表征中计算效率低和内存需求大的问题,提出了一种面向机器人操作的局部三维表征方法。首先,基于激光数据,建立用于机器人导航的二维栅格地图。其次,基于修剪的视觉观测数据,开发了一种面向任务的环境三维表征方法,用于物品操作时的碰撞检测。然后,通过创新性地集成二维地图和局部实时三维环境表征实现面向机器人操作的环境建模,以使机器人仅在需要操作物品时才实时构建环境的局部三维模型,从而减少冗余场景的三维表征。接着,提出了一种面向任务的物品姿态估计方法,用于指导局部三维模型的构建和实现面向任务的物品操作。最后,从内存需求、计算时间、碰撞检测和物品姿态估计方面评估了所提出的方法,并通过实际应用场景验证了其有效性和效率。(4)为使机器人能够长时间在开放、动态家庭环境下有效地执行家政作业,研究了动态不确定环境下的机器人长期适应性问题,提出了一种面向机器人长期自治的多层次多粒度语义环境建模方法。首先,通过典型的物品与房间之间的空间位置关系,建立了具有普适性的概率模型和语义模型,以提高机器人对家庭环境的适应性。其次,设计了一种交互式关联方法,用于维护概率模型与实际场景之间的映射关系。在此基础上,基于贝叶斯定理,设计了任务驱动下的目标物品位置推理与更新机制,以引导机器人优先搜索最可能放置目标物品的空间。然后,采用层次化、不同粒度的表征方法实现多层次多粒度语义环境模型的构建。此外,所构建的环境模型可以与其它机器人共享,以执行家政作业。大量的实验结果表明,所提出的方法允许机器人长期自治地、高效地找到目标物品,并实现了类人的搜索性能。

陈广大[7](2021)在《复杂动态行人场景下的机器人导航》文中研究说明机器人导航是移动机器人非常重要的基础能力。随着人工智能、机器人技术和传感器技术的快速发展,越来越多的移动机器人被应用到开放的人群环境中。为了应对如此复杂的动态场景,机器人配备了越来越多的传感器来完成环境感知任务,传感器的精确标定是机器人能够成功导航的前提。基于动作捕获系统的通用批量标定框架可以解决多传感器标定问题,但目前该系统仅限于激光与机器人标定且核心外参标定方法准确度不高。在本研究中,我们基于通用批量标定框架和动作捕获系统提出了可靠精确的RGB-D相机标定方法,使通用批量标定框架扩展到彩色或深度相机标定领域。在传感器外参标定中,我们充分利用运动捕捉系统的精准特性来定制手眼标定的全局优化步骤,进一步提高了外参标定的准确性。此外,我们提出了一种非递归的新颖数据获取方法来计算深度图像中每个像素的真实值,并采用一种无模型的单步深度校准方法来获得深度校准模型集的参数。与现有的深度校准技术相比,我们的方法可以同时估计不同测量距离处深度误差的均值和方差。实验结果表明我们的标定方法大大提高了彩色点云的匹配与测量精度。移动机器人的自主移动导航依靠安全高效的避障算法。近年来的大量研究工作开始探索深度强化学习在动态环境下的机器人导航应用,已经开发了基于原始传感器数据输入或智能体位置信息输入的端到端动态环境导航。在本文中,我们首先提出了一种在无通信环境中基于栅格地图和深度强化学习的异质多机器人避障算法,其中以自我为中心的局部栅格图用于表示机器人周围的环境信息和机器人自身形状大小,环境信息可以通过使用多个传感器或传感器融合轻松地生成。与其他方法相比,基于栅格图的方法对嘈杂的传感器数据具有更强的鲁棒性,不需要机器人的运动状态数据,并且考虑了相关机器人的大小和形状,从而使其更高效且更易于部署到实体机器人上。我们首先使用分布式近端策略优化算法在包含多个移动机器人的定制仿真器中训练神经网络,其中使用针对多种场景的多阶段课程学习策略来提高性能,然后我们将训练后的模型直接部署到现实的机器人上而无需进行繁琐的参数调整。我们在多种仿真和现实场景中评估了该方法。定性和定量实验均表明,我们的方法是有效的,并且在许多指标上都优于现有的传统的和基于深度强化学习的避障方法。然而,在人群密集的场景中,如果避障算法把行人也视为普通的障碍物或机器人,可能会导致近距离的避障效果,给行人带来不适。同时行人的行走策略与机器人的避障策略一般不同,机器人在人群中的避障不完全符合同策略多机器人避障算法适用条件。因此我们扩展了基于栅格地图的深度强化学习多机器人避障方法,在传感器栅格地图中添加了由多传感器行人感知追踪模块生成的行人地图通道,设计了新的远离行人的回报函数部分和多种行人仿真策略训练环境,实验结果表明我们的方法进一步提升了机器人在不同行人策略环境中的避障成功率。同时在动态行人环境中,机器人还会遇到更严重的定位丢失问题。因此我们提出基于行人感知过滤的动态行人环境定位方法,改善了机器人定位的准确性。然而被动定位方法仍不能完全解决大量动态人腿遮挡问题,因此我们提出了基于二维码激光联合主动重定位方法。当机器人定位误差较大时,机器人自主移动到二维码恢复区校准自身定位信息。实验结果显示我们的重定位方法可以在定位完全丢失时仍能非常准确地重新定位机器人全局位姿。最后,根据上述研究成果和“封闭性准则”,本文提出了试图解决开放人群环境下的机器人长期自主导航的具体部署方案,并成功在成都大熊猫研究繁育基地的博物馆导览机器人上进行了大规模长时间测试。

郭小沛[8](2021)在《基于蝗虫视觉神经的微型机器人避障方法研究》文中研究说明微型机器人是近年来研究的热点,在群体机器人,环境勘探,搜寻搜救等领域应用广泛。避障是微型机器人自治控制的重要能力,目前的避障主要依赖红外线,超声波和雷达,然而这些系统对于环境条件要求苛刻,所以极大地限制了微型机器人的自主性能。针对上述局限性,本文将视觉传感器应用于微型移动机器人以提升避障自主性。另外,视觉传感器软硬件结构复杂,耗费的经济成本和时间成本高,而微型机器人结构简单、计算资源有限,为了解决这一矛盾,借鉴蝗虫视觉神经的生理学研究成果,构造复杂环境下的避障神经网络,以此为导向实现微型机器人复杂环境下的避障感知。本文的主要工作有:(1)针对CDNN(Collision Detection Neural Network)网络对背景杂波抗干扰能力差的问题,基于碰撞检测神经网络的结构特性,借助HSV彩色分割方法,构建由彩色图像输入的径向运动模式识别神经网络模型CDNN-SV(Collision Detection Neural Network with Saturation and Value),并提出相应的神经网络算法。理论分析表明,该算法的计算复杂度由输入视频图像的分辨率决定;基于不同视觉刺激下的数值实验结果显示,该神经网络不仅能揭示径向敏感神经元的特定视觉感知特性,而且能有效预警复杂环境下的碰撞。(2)针对微机器人资源受限以及自主性不强的问题,采用由整体到细节的思路对微型自主轮式机器人的仿生视觉系统进行软硬件设计,充分考虑算法复杂度以及机器人自身资源的压力,均衡二者最大化机器人的自主性能。结果表明,相较于已有的视觉微机器人,本文微机器人仅采用一个MCU(Microcontroller Unit)进行视觉模块和运动模块控制,耗费更少的能源及成本。(3)针对微型机器人现实环境下的避障问题,设计实物实验,搭建运行平台,借助现有设备对神经网络响应以及机器人避障轨迹进行分析,并重复10组对照实验统计避障成功率。实验结果表明,仿生视觉方法不仅能最大化微型机器人的资源利用率,而且能有效提升微型机器人避障的实时性与自主性。

何昊洋[9](2021)在《人机共存环境中基于多视传感网络的机械臂避碰方法研究》文中提出确保人机安全是人机交互和人机协作过程中需要解决的首要问题,其中关于多自由度机械臂的实时避障一直是该领域的研究热点之一。现有的多自由度机械臂的防碰撞算法对对环境先验知识的依赖性较大,缺少对工作环境智能感知和自适应的能力,无法在非结构化、动态的场景中对人体或者其他障碍的运动状态变化做出及时有效的回避。同时,随着视觉传感和图像技术的快速发展,基于视觉检测的避障系统逐渐兴起。对于单视角障碍检测系统,往往存在视野受限和人体自遮挡等问题,并不能完整重建机械臂工作空间环境,也就不能为实时避障算法提供精确的环境信息反馈。为此本文针对人机交互协作的动态场景,提出了一种改进人工势场法的机械臂避障算法,并通过多视角检测系统对工作环境中出现的动态目标进行实时检测和融合处理,以达到高效和安全的避障效果。本文的主要研究内容如下:1)本文提出一种自适应规划步长、空间位置采样与速度斥力函数评估结合的人工势场路径规划方法。首先对机械臂下一时刻的位置点进行空间路径采样,以达到对局部极小值区域的提前判断,并结合势场法的势场特性,对采样位置点设定合适的评价函数进行评判,以选择最优位置点。其次,针对动态场景,引入改进型速度斥力函数,通过速度和距离影响因子动态调节速度斥力,使得算法可根据障碍运动状态选择不同的避障策略。最后,通过实时环境信息反馈,引入环境复杂度因子,提出自适应规划步长机制。与其它经典解决方案相比,改进后的算法保证避障安全的同时提高了路径规划效率,减少了路径振荡等问题。本文对算法分别进行了仿真验证和Tiago实物平台验证,结果证明所提出的避障算法在路径规划选择方面具有更好的安全性和高效性。2)针对人机交互过程中的人体姿态估计问题,本文以视觉深度传感器为基础,搭建分布式多视角人体姿态检测系统,提出了基于交互多模型的分布式人体姿态估计方法。首先,各相机节点通过现有的人体姿态估计检测方法进行独立检测,不同传感节点的结果通过信息权重一致性滤波(ICF)算法实现数据信息融合,解决了单视角视觉范围受限等问题。其次,为解决多视角融合过程中,由不同视角估计误差所引起的信息波动,本文对融合之后的人体骨架关节估计结果使用交互多模型(IMM)进行滤波改进,提高了检测结果的稳定性。最后,本文通过使用相同的人体动作识别方式对两组不同的骨骼关节点数据集进行行为分类对比实验,实验结果表明基于ICF+IMM算法的行为识别准确率更高,证明了该方法有更高的人体姿态检测精度。3)本文搭建了基于多视角传感网络的机械臂避障实验环境。实验系统中各视觉传感节点独立估计人体姿态,并利用手眼标定结果进行坐标系转换,最后在机械臂的基坐标系中进行信息融合和滤波处理,作为后续机械臂避障算法的输入,从而实现机械臂避障路径规划。实验的最终结果证明了该复合系统的有效性、安全性和准确性。

朱坤岩[10](2021)在《基于多角度相机感知的机器人导航方法研究与实现》文中提出机器人导航是机器人领域中一项重要的技术,广泛应用于自动驾驶、国防航天、物流配送、巡逻安检等各个领域当中。近年来人工智能技术的发展,尤其是深度学习和计算机视觉等技术的发展为该领域的研究发展带来了新的契机,众多工业和学术界的研究人员针对该领域开展了丰富的研究。虽然目前该领域已经有了诸多经典的工作,但是一方面系统设计的复杂性,对数据样本的需求以及模型的可解释性一直是不同技术框架中难以平衡的问题。另一方面大多数工作中单视觉传感器的设置限制了机器人的感知范围,这为导航任务带来了安全隐患。在本文中,我们提出使用多个相机传感器来进行场景感知,但是简单的多相机特征融合会存在信息因果混淆从而导致模型过于依赖某一视角信息的问题。基于此我们提出将不同相机来源的视觉信息作为单独的通道进行处理,并提出了一种多任务视觉感知网络,该网络分别接收不同相机的图像数据并用来预测导航相关任务。为了实现机器人室外全局导航功能,我们利用第三方地图API根据起始点和目标点得到带有规划路径信息的2D地图并利用GPS信息来定位车辆所在位置,根据该地图我们利用神经网络来预测机器人下一个路口的前进方向。我们的整体算法综合了多种技术框架,一方面我们利用了端到端模仿学习的思路来降低了系统设计的复杂性,另一方面根据上述神经网络的输出结果我们提出了一系列导航指标来作为环境的低维表示,我们利用基于规则的方法根据这些导航指标来设计机器人的控制器,从而为机器人提供更具有可解释性的,安全的控制命令。本文对上述提出的神经网络在验证集上进行了实验分析并将算法运用到了真实的机器人平台上。我们在现实场景中测试该算法的导航性能,并将将我们的算法性能与一些经典算法进行了比较。最终证明无论是在局部避障还是全局导航方面,我们的算法都具有较好的性能。

二、自主机器人视觉与行为模型及避障研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、自主机器人视觉与行为模型及避障研究(论文提纲范文)

(1)家用轮椅机械臂示教任务学习与轨迹自主生成方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究的目的和意义
    1.2 家用轮椅机械臂式助老助残机器人研究现状
        1.2.1 家用轮椅机械臂国外研究现状
        1.2.2 家用轮椅机械臂国内研究现状
    1.3 机器人示教编程方法研究现状
        1.3.1 示教轨迹自动分割方法的研究现状
        1.3.2 技能学习与轨迹自主生成方法的研究现状
    1.4 目前研究存在的问题
    1.5 课题来源与本文主要研究内容
        1.5.1 课题来源
        1.5.2 本文主要研究内容
第2章 日常家居任务的示教与信息获取
    2.1 引言
    2.2 日常家居任务的分析
        2.2.1 日常家居任务的确定与分类
        2.2.2 日常家居任务的分析
    2.3 日常家居任务的示教
        2.3.1 助老助残机器人机械臂的介绍
        2.3.2 机械臂示教方式的选取
        2.3.3 基于关键点的示教信息记录方法
        2.3.4 机械臂示教界面的设计
    2.4 示教信息获取方法的评价
        2.4.1 示教轨迹的评价
        2.4.2 示教过程的评价
    2.5 实验研究与分析
        2.5.1 实验任务描述
        2.5.2 实验结果及分析
    2.6 本章小结
第3章 基于非参贝叶斯方法的示教轨迹分割
    3.1 引言
    3.2 相关符号的规定
    3.3 示教轨迹的预处理
        3.3.1 示教轨迹欧拉角突变的处理
        3.3.2 示教轨迹的滤波处理
        3.3.3 多条示教轨迹的对齐处理
        3.3.4 示教轨迹的标准化处理
    3.4 基于BP-AR-HMM算法的示教轨迹分割
        3.4.1 家居任务示教轨迹分割方法的分析
        3.4.2 BP-AR-HMM时间序列分割算法
        3.4.3 后验分布参数的计算
    3.5 助老助残机器人示教任务库的建立
        3.5.1 基本动作属性的确定
        3.5.2 示教任务库的建立
    3.6 实验研究与分析
        3.6.1 示教轨迹的获取
        3.6.2 示教轨迹的预处理
        3.6.3 示教轨迹的分割结果与分析
        3.6.4 分割精度的评价
        3.6.5 与原始BP-AR-HMM算法分割效果的对比
    3.7 本章小结
第4章 面向家居环境的轨迹自主拼接生成方法
    4.1 引言
    4.2 改进版DMPs示教动作学习再现方法
        4.2.1 动态运动基元理论
        4.2.2 DMPs的学习和泛化过程
    4.3 基于改进版DMPs-DPF方法的转移性动作轨迹生成方法
        4.3.1 改进版DMPs-DPF方法
        4.3.2 避障耦合项的设计
    4.4 改进版DMPs-DPF方法的稳定性分析
    4.5 任务再现轨迹的拼接
    4.6 实验研究与分析
        4.6.1 转移性动作示教轨迹的获取
        4.6.2 无障碍物时拿水杯任务再现实验
        4.6.3 存在小型障碍物时拿水杯任务再现实验
        4.6.4 存在大型障碍物时拿水杯任务再现实验
    4.7 本章小结
第5章 轮椅机械臂式助老助残机器人实验研究
    5.1 引言
    5.2 实验平台的搭建
        5.2.1 实验平台的硬件结构
        5.2.2 助老助残机器人实验平台的视觉系统
        5.2.3 助老助残机器人实验平台的软件系统
    5.3 日常家居任务的实验研究与分析
        5.3.1 进餐实验
        5.3.2 拿水杯实验
    5.4 本章小结
结论
参考文献
附录
攻读博士学位期间发表的论文及其它成果
致谢
个人简历

(2)六自由度机器人工作空间三维重建及运动规划研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 三维重建研究现状
        1.2.2 机器人运动规划研究现状
    1.3 研究内容与论文结构框架
2 环境感知视觉系统的搭建与标定
    2.1 引言
    2.2 环境感知视觉系统的搭建
        2.2.1 环境感知系统理论基础
        2.2.2 环境感知视觉系统的搭建
        2.2.3 相机位姿估计的必要性分析
    2.3 Kinect v2 云台视觉系统的标定
        2.3.1 针孔相机模型
        2.3.2 Kinect v2相机标定实验
        2.3.3 Kinect v2云台视觉系统的标定
    2.4 EIH单目视觉系统的标定
        2.4.1 单目相机标定实验
        2.4.2 EIH单目视觉系统的标定
    2.5 本章小结
3 基于环境感知视觉系统的相机位姿估计及三维重建
    3.1 引言
    3.2 图像特征点的检测与匹配
        3.2.1 ORB算法
        3.2.2 特征点检测与匹配算法对比实验
    3.3 基于Kinect v2云台视觉系统的三维重建
        3.3.1 四元数
        3.3.2 基于数据集的Kinect v2相机位姿估计
        3.3.3 基于数据集的Kinect v2相机的三维点云构建
        3.3.4 实验平台下Kinect v2相机三维点云的构建
    3.4 基于EIH单目视觉系统的相机位姿估计及三维重建
        3.4.1 基于数据集的单目相机位姿估计
        3.4.2 基于数据集的单目相机的三维点云构建
        3.4.3 实验平台下单目相机三维点云的构建
    3.5 本章小结
4 六自由度操作机器人运动规划算法研究
    4.1 引言
    4.2 行为动力学模型基础理论
    4.3 六自由度操作机器人末端执行器行为动力学模型的建立
        4.3.1 位置行为动力学建模
        4.3.2 姿态行为动力学建模
        4.3.3 整体行为协调
        4.3.4 行为动力学模型仿真
    4.4 考虑机器人连杆和关节的六自由度操作机器人运动规划算法
        4.4.1 碰撞检测算法原理
        4.4.2 行为动力学模型行为变量的坐标转换
        4.4.3 整体的运动规划算法
    4.5 六自由度操作机器人运动规划算法仿真实验
        4.5.1 基于MATLAB的仿真平台的搭建
        4.5.2 仿真平台下的运动规划及分析
    4.6 六自由度操作机器人运动规划实验
        4.6.1 上位机和机器人之间的通讯
        4.6.2 实验方案
        4.6.3 实验过程及结果分析
    4.7 本章小结
5 模拟半封闭空间轴孔装配实验
    5.1 引言
    5.2 三维点云的坐标转换
        5.2.1 模拟半封闭空间外部局部目标位姿的获取及坐标转换
        5.2.2 装配目标孔位姿的获取及坐标转换
    5.3 模拟半封闭空间轴孔装配实验
        5.3.1 实验方案
        5.3.2 实验过程及结果
    5.4 本章小结
6 结论与展望
    6.1 结论
    6.2 展望
致谢
参考文献

(3)基于机器视觉的割草机自主导航方法研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 机器视觉的研究现状
        1.2.2 视觉导航的研究现状
        1.2.3 智能割草机的研究现状
        1.2.4 割草机自主导航研究现状
    1.3 论文研究内容和章节安排
第二章 自主导航方法的总体设计
    2.1 总体方案
    2.2 硬件组成
        2.2.1 树莓派3B+开发板
        2.2.2 摄像头模块
        2.2.3 超声波模块
        2.2.4 驱动模块
    2.3 开发环境配置
        2.3.1 开发板系统烧写
        2.3.2 开发板中Open CV的安装
        2.3.3 开发板中wiring Pi的安装
        2.3.4 远程桌面的安装
    2.4 本章小结
第三章 草地边界的识别
    3.1 外部边界的识别设计
        3.1.1 草地外部边界的识别方法
        3.1.2 外部边界图像预处理
        3.1.3 基于改进的Otsu阈值分割
        3.1.4 图像后续处理
        3.1.5 外部边界提取
        3.1.6 外部边界行走判断
    3.2 内部边界的识别设计
        3.2.1 草地内部边界的识别方法
        3.2.2 内部边界图像预处理
        3.2.3 灰度共生矩阵的计算与特征提取
        3.2.4 SVM算法原理与工作过程
        3.2.5 图像融合
        3.2.6 图像后续处理与边界提取
        3.2.7 在内部边界的行走判断
    3.3 本章小结
第四章 草地内部障碍物的识别
    4.1 传统避障方法
    4.2 障碍物识别方案选择
        4.2.1 基于颜色特征的判断
    4.3 基于颜色特征的识别
        4.3.1 基于颜色特征识别的预处理
        4.3.2 掩膜操作
        4.3.3 基于颜色特征识别效果
    4.4 基于纹理特征的识别
        4.4.1 基于纹理特征识别的预处理
        4.4.2 计算特征图像
        4.4.3 阈值分割
        4.4.4 基于纹理特征识别效果
    4.5 障碍物识别测试
    4.6 超声波辅助识别
    4.7 本章小结
第五章 嵌入式平台的功能测试
    5.1 硬件平台功能
    5.2 功能测试
        5.2.1 视觉导航规则说明
        5.2.2 超声波模块测试
        5.2.3 外部边界识别测试
        5.2.4 内部边界识别测试
        5.2.5 内部障碍物的识别测试
    5.3 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
作者简介

(4)基于视觉的移动机器人目标检测及路径规划研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景分析
    1.2 国内外研究动态
        1.2.1 基于视觉的动态障碍物检测研究概况
        1.2.2 移动机器人路径规划研究概况
    1.3 论文主要研究内容及章节安排
第2章 移动机器人运行环境地图构建
    2.1 环境地图研究
    2.2 环境地图的构建方式
        2.2.1 栅格法
        2.2.2 Voronoi图法
        2.2.3 可视图法
    2.3 本章小结
第3章 基于视觉的动态障碍物检测
    3.1 帧间差分法
        3.1.1 传统帧间差分法
        3.1.2 三帧差分法
    3.2 光流法
        3.2.1 光流法分类
        3.2.2 光流法工作原理
        3.2.3 两种经典算法及存在的问题
        3.2.4 Lucas-Kanade金字塔光流计算方法
    3.3 基于光流的三维场景信息计算
        3.3.1 光流延伸焦点计算
        3.3.2 实时碰撞时间计算
    3.4 障碍物检测优化算法流程及仿真结果
        3.4.1 障碍物检测优化算法流程
        3.4.2 仿真研究
    3.5 本章小结
第4章 移动机器人的静态路径规划
    4.1 蚁群算法
        4.1.1 蚁群算法的基本原理
        4.1.2 蚁群算法的基本模型
    4.2 遗传算法
        4.2.1 遗传算法的基本原理
        4.2.2 遗传算法的基本流程
    4.3 萤火虫算法
        4.3.1 萤火虫算法的原理
        4.3.2 萤火虫算法的数学描述
        4.3.3 萤火虫算法的改进
        4.3.4 改进萤火虫算法的实施步骤
        4.3.5 路径描述
    4.4 实验结果分析
    4.5 本章小结
第5章 基于视觉的移动机器人路径规划研究
    5.1 光流平衡法水平避障
    5.2 基于视觉的机器人路径规划系统流程
    5.3 实验仿真结果与分析
    5.4 本章小结
第6章 总结与展望
    6.1 全文工作总结
    6.2 未来研究工作展望
参考文献
致谢
在学期间主要科研成果

(5)自重构球形机器人对接的导航控制研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景和意义
    1.2 国内外研究现状
        1.2.1 球形机器人及其导航定位研究现状
        1.2.2 移动机器人多传感器融合定位及导航的研究现状
        1.2.3 自重构机器人自主对接的研究现状
    1.3 本文主要研究内容
第二章 自重构球形机器人导航识别系统设计
    2.1 引言
    2.2 自重构球形机器人BYQ-CG对接重构相关机械结构设计介绍
    2.3 自重构球形机器人导航识别方法分析
        2.3.1 自重构球形机器人导航定位方法分析
        2.3.2 自重构球形机器人目标检测及准确姿态估计方法分析
    2.4 自重构球形机器人导航识别系统总体设计
        2.4.1 系统需求分析
        2.4.2 重构球形机器人导航识别系统设计
        2.4.3 定位导航子系统设计
        2.4.4 目标检测识别子系统设计
    2.5 导航识别相关传感器及其选型测试
        2.5.1 系统处理器选型
        2.5.2 GNSS/INS组合定位系统传感器选型及测试
        2.5.3 视觉定位及检测传感器选型
        2.5.4 视觉传感器的标定及性能测试
    2.6 本章小结
第三章 面向对接的自重构球形机器人定位导航算法研究
    3.1 引言
    3.2 GNSS/INS融合定位算法研究
        3.2.1 导航系统坐标系及转换
        3.2.2 GNSS/INS松耦合自适应卡曼滤波算法
    3.3 GNSS融合双目视觉惯性里程计定位算法研究
        3.3.1 基于滑动窗口优化的全局位姿估计框架
        3.3.2 前端追踪及特征管理的优化设计
        3.3.3 基于滑窗的紧耦合VIO后端优化
    3.4 自重构球形机器人改进后的融合定位算法实验验证
    3.5 自重构球形机器人路径规划研究与实现
        3.5.1 面向自重构球形机器人对接规划的A*算法和DWA算法优化
        3.5.2 面向自重构球形机器人对接规划的融合路径规划方法
        3.5.3 路径规划实验验证
    3.6 本章小结
第四章 自重构球形机器人对接目标检测及准确识别研究
    4.1 引言
    4.2 自重构球形机器人粗对接阶段目标检测算法研究
    4.3 目标检测调用深度相机实现实时距离输出
    4.4 基于ArUco靶标的准确相对位姿解算
    4.5 实验分析
        4.5.1 针对自重构球形机器人的数据集制作和训练
        4.5.2 自重构球形机器人目标检测实验
        4.5.3 目标检测结合测距功能的实现
        4.5.4 自重构球形机器人准确对接阶段实验
    4.6 小结
第五章 自重构球形机器人对接的导航及检测实验研究
    5.1 引言
    5.2 实验平台与实验方案
        5.2.1 硬件平台
    5.3 实验结果与分析
        5.3.1 面向自重构球形机器人对接任务的系统实验测试
    5.4 本章小结
第六章 总结与展望
    6.1 主要研究工作总结
    6.2 展望
参考文献
致谢
作者攻读学位期间发表的学术成果

(6)面向家庭服务机器人任务执行的环境建模问题研究(论文提纲范文)

摘要
ABSTRACT
缩略语注释表
第一章 绪论
    1.1 研究背景及意义
    1.2 环境建模的研究现状
        1.2.1 面向机器人定位的环境建模
        1.2.2 面向机器人导航的环境建模
        1.2.3 面向机器人操作的环境建模
        1.2.4 面向机器人长期自治的环境建模
    1.3 环境建模的现状分析
    1.4 研究内容和章节安排
        1.4.1 主要研究内容及创新点
        1.4.2 论文章节安排
第二章 预备知识与准备工作
    2.1 引言
    2.2 面向机器人导航的栅格地图构建
    2.3 面向机器人的知识表征
    2.4 面向任务执行的物品检测
    2.5 本章小结
第三章 面向机器人三维空间避障的二维地图构建
    3.1 引言
    3.2 基于伪激光数据的机器人避障总体方案
    3.3 改进的二维栅格地图构建策略
        3.3.1 伪激光数据生成
        3.3.2 基于伪激光的栅格地图构建
        3.3.3 地图融合方法
    3.4 机器人三维空间避障策略
    3.5 实验验证与结果分析
        3.5.1 实验设置
        3.5.2 场景1—小范围室内场景
        3.5.3 场景2—大范围室内场景
    3.6 本章小结
第四章 面向物品搜索的度量-拓扑地图构建
    4.1 引言
    4.2 度量-拓扑地图构建整体方案
    4.3 以物品为参考的拓扑地图构建
        4.3.1 拓扑节点的创建
        4.3.2 联接关系的确定
    4.4 基于先验知识的物品搜索策略
        4.4.1 先验知识获取
        4.4.2 物品搜索策略
    4.5 实验验证与结果分析
        4.5.1 实验设置
        4.5.2 调节方法评估
        4.5.3 仿真场景实验
        4.5.4 真实场景实验
    4.6 本章小结
第五章 面向机器人操作的局部三维表征
    5.1 引言
    5.2 环境建模系统架构
    5.3 面向任务的环境建模方法
    5.4 面向任务的物品姿态估计方法
        5.4.1 基于ArUco的物品姿态估计
        5.4.2 属性驱动的物品姿态估计
    5.5 实验验证与结果分析
        5.5.1 实验设置
        5.5.2 实验评估
        5.5.3 应用场景
    5.6 本章小结
第六章 面向机器人长期自治的多层次多粒度语义环境建模
    6.1 引言
    6.2 多层次多粒度语义环境模型架构
    6.3 交互式关联方法
    6.4 支持不确定推理的概率模型
        6.4.1 SLR的概率模型构建
        6.4.2 目标物品的位置推理与更新
    6.5 基于本体技术的语义模型
    6.6 实验验证与结果分析
        6.6.1 实验设置
        6.6.2 Case 1:未知物品布局场景下的性能评估
        6.6.3 Case 2:基于Case1布局场景下的性能评估
        6.6.4 Case 3:长期自治性评估
        6.6.5 Case 4:可共享性评估
    6.7 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
博士期间研究成果
参与项目
学位论文评阅及答辩情况表

(7)复杂动态行人场景下的机器人导航(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景
    1.2 面临的困难与挑战
    1.3 本文主要工作和贡献
    1.4 文章组织及章节安排
第2章 基于动作捕获系统的精确深度相机标定
    2.1 深度相机标定研究背景
    2.2 测距传感器简介
        2.2.1 超声传感器
        2.2.2 激光测距仪
        2.2.3 飞行时间相机
        2.2.4 结构光相机
    2.3 系统框架
    2.4 标定过程
        2.4.1 内参标定
        2.4.2 外参标定
        2.4.3 深度校准
    2.5 实验及结果分析
        2.5.1 手眼标定测试
        2.5.2 深度校准测试
        2.5.3 视觉SLAM实验
        2.5.4 对比实验
    2.6 本章小结
第3章 基于栅格地图信息融合的多机器人导航
    3.1 多机器人避障研究背景
    3.2 传统机器人避障算法
        3.2.1 动态窗口法(DWA)
        3.2.2 速度障碍物法(VO)
    3.3 多机器人避障问题定义
    3.4 基于栅格地图的多机器人避障算法
        3.4.1 强化学习组件定义
        3.4.2 分布式近端策略优化算法
        3.4.3 多阶段课程学习
    3.5 仿真环境实验
        3.5.1 超参数设置
        3.5.2 实现细节
        3.5.3 泛化能力测试
        3.5.4 性能对比实验
        3.5.5 鲁棒性测试
    3.6 真实环境实验
        3.6.1 实验机器人硬件配置
        3.6.2 障碍物环境测试
        3.6.3 多机器人环境测试
        3.6.4 多传感器融合避障实验
        3.6.5 可佳机器人部署实验
    3.7 长距离导航系统
        3.7.1 系统框架
        3.7.2 长距离导航实验
        3.7.3 楼宇配送场景实验
    3.8 本章小结
第4章 动态行人环境下的机器人导航系统
    4.1 动态行人导航研究背景
    4.2 基于多传感器融合的行人感知追踪系统
        4.2.1 行人检测
        4.2.2 最近邻融合
        4.2.3 行人追踪
    4.3 动态行人环境下的机器人鲁棒定位方法
        4.3.1 二维码识别
        4.3.2 二维码激光重定位
        4.3.3 实体机器人测试
    4.4 动态行人环境下的强化学习避障算法
        4.4.1 行人仿真
        4.4.2 避障策略学习
        4.4.3 仿真实验
        4.4.4 实体实验
    4.5 本章小结
第5章 示范应用: 成都大熊猫博物馆导览机器人
    5.1 导览机器人研究背景
    5.2 应用挑战分析与解决方案设计
    5.3 大熊猫导览机器人应用
        5.3.1 项目背景与需求分析
        5.3.2 机器人软硬件系统
    5.4 部署过程与测试结果
        5.4.1 测试环境介绍
        5.4.2 机器人与多传感器标定
        5.4.3 地图构建
        5.4.4 二维码部署
        5.4.5 行人感知测试
        5.4.6 密集人群导航测试
    5.5 本章小结
第6章 总结与展望
    6.1 工作总结
    6.2 未来工作展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果

(8)基于蝗虫视觉神经的微型机器人避障方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题来源
    1.2 研究背景与意义
    1.3 国内外研究现状
    1.4 本文主要研究内容
    1.5 论文结构和章节安排
第2章 视觉避障理论基础
    2.1 图像处理基本理论
        2.1.1 图像坐标系
        2.1.2 颜色空间模型
        2.1.3 运动目标检测
    2.2 蝗虫视觉神经网络
        2.2.1 蝗虫视觉神经系统
        2.2.2 人工蝗虫视觉神经网络
        2.2.3 碰撞检测神经网络
    2.3 传统理论与仿生理论的对比结合
    2.4 本章小结
第3章 基于蝗虫视觉神经的避障算法研究
    3.1 研究思路与解决方案
        3.1.1 模型对比分析
        3.1.2 颜色分量统计学分析
    3.2 基于饱和度分量输入的碰撞检测神经网络模型
        3.2.1 模型描述
        3.2.2 算法描述
    3.3 算法复杂度优化
        3.3.1 时间复杂度
        3.3.2 空间复杂度
    3.4 数值实验
        3.4.1 实验环境及参数设置
        3.4.2 模拟视觉刺激下的碰撞感知
        3.4.3 现实视觉刺激下的碰撞感知
        3.4.4 主参数对CDNN-SV网络避障性能的影响
    3.5 本章小结
第4章 微型自主移动机器人仿生视觉系统设计与实现
    4.1 系统设计思路
    4.2 低成本仿生视觉系统硬件设计
        4.2.1 硬件设计思路
        4.2.2 硬件选型
        4.2.3 电路设计
        4.2.4 功耗特性分析
    4.3 低成本仿生视觉系统软件设计
        4.3.1 软件设计思路
        4.3.2 感知层
        4.3.3 控制层
        4.3.4 执行层
        4.3.5 交互层
        4.3.6 软件整体处理逻辑
    4.4 本章小结
第5章 实物实验设计与结果分析
    5.1 实物实验环境及平台介绍
    5.2 测试实验
    5.3 实物场景实验
    5.4 平台实验
        5.4.1 平台上的标定纸实验
        5.4.2 平台上的镜面实验
        5.4.3 平台上的多机器人避障实验
    5.5 实验结果分析
        5.5.1 避碰成功率
        5.5.2 实验结论
    5.6 本章小结
第6章 总结与展望
    6.1 论文工作总结
    6.2 论文工作展望
致谢
参考文献
附录1 攻读硕士学位期间发表的论文
附录2 攻读硕士学位期间参加的科研项目

(9)人机共存环境中基于多视传感网络的机械臂避碰方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 机械臂路径规划研究现状
        1.2.2 人体姿态估计检测研究现状
    1.3 论文主要研究内容
第2章 机械臂运动学和传统人工势场法研究
    2.1 机械臂运动学研究
        2.1.1 机械臂DH建模
        2.1.2 机械臂正向运动分析
        2.1.3 机械臂逆向运动分析
    2.2 人工势场法分析
        2.2.1 传统人工势场法基本原理
        2.2.2 传统人工势场法可行性验证实验
        2.2.3 传统人工势场法问题分析
    2.3 本章小结
第3章 改进型人工势场法的设计与实验
    3.1 改进型人工势场法原理
        3.1.1 改进斥力势场函数
        3.1.2 基于位置采样的人工势场法
        3.1.3 影响因子
        3.1.4 速度斥力势场的建立
    3.2 复杂静态场景下的单点仿真实验
        3.2.1 局部极小值仿真对比实验
        3.2.2 高效性对比仿真实验
    3.3 动态场景下机械臂规划实验
        3.3.1 ArUco Marker
        3.3.2 仿真实验与分析
    3.4 机械臂真实场景实验
    3.5 本章小结
第4章 基于交互多模型的多视角下三维人体姿态估计
    4.1 多视角分布式传感器网络系统
        4.1.1 传感器网络系统硬件平台
        4.1.2 信息权重一致性滤波算法
        4.1.3 数据集采集
    4.2 基于交互多模型的姿态估计
        4.2.1 交互多模型
        4.2.2 模型的选择
        4.2.3 实验对比与分析
    4.3 本章小结
第5章 基于多视角传感器网络的机械臂避障方案设计与实验
    5.1 复合系统实现
        5.1.1 系统架构
        5.1.2 手眼标定
    5.2 整体实验
    5.3 本章小结
第6章 结论与展望
    6.1 全文结论
    6.2 未来展望
参考文献
致谢
攻读学位期间发表的学术论文目录
硕士期间参加的科研工作
学位论文评阅及答辩情况表

(10)基于多角度相机感知的机器人导航方法研究与实现(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题的研究背景
    1.2 国内外研究现状
        1.2.1 基于深度学习的视觉导航算法
        1.2.2 基于多相机的视觉导航算法
    1.3 本文的主要研究内容与章节安排
        1.3.1 主要研究内容
        1.3.2 章节安排
第2章 深度学习相关理论基础
    2.1 卷积神经网络
        2.1.1 卷积神经网络的发展
        2.1.2 卷积神经网络基本原理
        2.1.3 ResNet网络
        2.1.4 Inception-ResNet-V2网络
        2.1.5 MobileNet-V2网络
    2.2 深度学习框架
        2.2.1 Tensorflow
        2.2.2 Pytorch
    2.3 本章小结
第3章 基于深度学习和多角度相机感知的视觉导航算法
    3.1 总体框架
    3.2 多任务视觉感知网络
    3.3 导航指令分类网络
    3.4 导航关键指标的设计
    3.5 导航控制器的设计
    3.6 本章小结
第4章 实验结果与分析
    4.1 实验细节
        4.1.1 SCOUT机器人平台
        4.1.2 数据集介绍
        4.1.3 参数设置和训练
    4.2 多任务视觉感知实验结果与分析
    4.3 导航指令分类实验结果与分析
    4.4 机器人导航性能实验结果与分析
        4.4.1 任务设置和评价指标
        4.4.2 真实场景实验结果
        4.4.3 定性分析
    4.5 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
致谢
硕士期间发表的论文成果
所获奖励与荣誉
学位论文评阅及答辩情况表

四、自主机器人视觉与行为模型及避障研究(论文参考文献)

  • [1]家用轮椅机械臂示教任务学习与轨迹自主生成方法研究[D]. 迟明善. 哈尔滨工业大学, 2021
  • [2]六自由度机器人工作空间三维重建及运动规划研究[D]. 张健. 西安理工大学, 2021(01)
  • [3]基于机器视觉的割草机自主导航方法研究[D]. 刘旭颖. 南京信息工程大学, 2021(01)
  • [4]基于视觉的移动机器人目标检测及路径规划研究[D]. 周娟婷. 齐鲁工业大学, 2021(10)
  • [5]自重构球形机器人对接的导航控制研究[D]. 张睿. 北京邮电大学, 2021(01)
  • [6]面向家庭服务机器人任务执行的环境建模问题研究[D]. 张营. 山东大学, 2021
  • [7]复杂动态行人场景下的机器人导航[D]. 陈广大. 中国科学技术大学, 2021(09)
  • [8]基于蝗虫视觉神经的微型机器人避障方法研究[D]. 郭小沛. 武汉科技大学, 2021
  • [9]人机共存环境中基于多视传感网络的机械臂避碰方法研究[D]. 何昊洋. 山东大学, 2021(12)
  • [10]基于多角度相机感知的机器人导航方法研究与实现[D]. 朱坤岩. 山东大学, 2021(12)

标签:;  ;  ;  ;  ;  

自主机器人视觉行为模型及避障研究
下载Doc文档

猜你喜欢