王永波[1]2017年在《机器人焊缝视觉跟踪与控制系统研究》文中提出当前,我国已进入高铁建设的黄金时代。轨道车辆车体表面一般由分块的构件通过拼接后焊接成形,焊接过程中会产生很大的焊接应力,存在较大焊接应力会使构件焊接部位的强度和抗疲劳强度降低。为了消除焊接应力,提高服役寿命和表面美观度,为后续工艺提供高质量的焊接表面,焊接结束后,一般需对焊缝进行磨抛处理以消除内应力和实现焊缝区域表面光滑一致。目前,绝大多数大型结构件焊缝磨抛处理都是靠人工磨抛完成的,对焊接后的焊缝采用手工磨抛处理,生产效率低、劳动强度大,对工人的技术水平要求高,加工精度一致性难以保证,还会经常磨伤基本表面。本文以焊缝磨抛处理为背景,基于移动式磨抛机器人机械本体,开发磨抛机器人的基于位置的视觉伺服控制系统。实现机器人的焊缝跟踪、焊缝特征点叁维测量和机器人自动作业控制功能。本文主要研究内容如下:(1)搭建了机器人双目视觉测量系统平台,对双目摄像机立体标定,建立特征点的叁维坐标视觉测量模型。为实现对机器人工具系统导航,需将特征点坐标转换到机器人坐标系中,设计了一种基于叁目标点的手眼变换关系标定方法,该标定方法可以简单、快速获取机器人手眼变换关系矩阵。(2)使用滤波片和滤波算法对图像处理,消除噪点干扰,得到高质量焊缝图像。提出一种基于灰度阈值提取的方法,实现对激光线区域的提取。对提取后激光区域使用形态学运算处理,填补了激光线区域的缺陷并平滑激光线区域边界。针对激光线中心线提取问题,应用区域骨架化处理算法提取激光中心线,获得准确、平滑的中心线,同时避免了中心线间断问题。对焊缝特征点搜寻方法改进,使搜寻路径沿中心线搜寻,提高双目特征点匹配的速度。对搜寻匹配到的特征点叁维坐标重构,实现机器人对焊缝的识别、跟踪、测量功能。(3)设计了机器人控制系统的结构,确定上、下位机二级分布式结构。其中PC机作为上位机,负责整个机器人系统管理、各轴运动量计算以及焊缝图像处理等。下位机由运动控制卡与图像采集卡组成,分别控制机器人的运动系统和视觉系统图像采集。这种结构能明显提高控制系统工作速度和控制性能。设计了机器人多模式控制策略,编写机器人控制软件,使软件具有工艺参数设置、手动模式、自动模式控制功能。实验研究证明机器人视觉伺服控制系统稳定性和精度较高,满足磨抛机器人样机要求,为后续磨抛工艺制定提供有力支撑。
赵栋杰[2]2017年在《对靶喷雾机器人视觉伺服控制系统研究》文中研究说明对靶喷雾技术对减少农药使用量、降低作物农药残留、保护环境和劳动者具有重要意义。本文针对温室作物对靶喷雾作业,提出了一种基于视觉伺服的喷雾机器人方案并构建了试验系统,研究了基于该方案的视觉伺服对靶控制算法。主要研究内容如下:(1)对靶喷雾机器人方案设计与试验系统构建。提出了一种基于单目场景/单目手眼混合视觉结构的对靶喷雾机器人方案;根据该方案选定了喷雾机械臂的结构形式,对喷雾机械臂进行了运动学位置正逆解、正逆向微分动力学及工作空间分析,并根据所需工作空间对其主要结构参数进行了优化,根据优化结果确定了机械臂型号;设计了喷雾机械臂在笛卡尔空间和关节空间的轨迹插值方法;构建了对靶喷雾机器人试验系统,完成了试验系统的软硬件设计。(2)作物图像背景分割与靶标信息提取方法研究。以定植初期的葫芦幼苗为研究对象,通过对比各颜色空间常用算子对样本图像的背景分割效果,发现RGB空间的CIVE与2G-R-B算子的分割效果最好;以样本图像灰度直方图的重迭区域占比、均值间距、标准偏差及算法耗时等为衡量指标,采用遗传算法在RGB空间内搜索,获得了性能更优的分割算子;鉴于该算子对作物占比较小的图像分割效果不理想,提出了一种该算子+ Ostu分割法与a分量固定阈值分割法相结合的组合分割策略;针对选取的作物形心、包围圆等对靶特征,设计了作物连通区域提取方法和包围圆特征提取算法。(3)喷雾机器人视觉伺服控制研究。针对喷雾机器人选用的速度控制器,设计了一组基于作物冠层包围圆特征计算的喷头位置偏差和一组期望值不随作业目标更换而变化的矩特征等两种反馈特征,室内试验证明,选用两种反馈特征的控制器均具有较好的对靶及跟踪控制性能。此外,针对喷雾机器人的连续运动作业模式,提出了一种基于改进势场法的喷雾机械臂运动规划对靶实时控制算法,该算法在传统势场法基础上引入了速度势场、视场约束和关节极限位置约束,可规划出更优的喷雾机械臂运动轨迹,有效提高喷雾机器人对靶控制的鲁棒性。针对喷雾机器人的间歇运动作业模式,在确定各目标作物喷雾点及各喷雾点两两间可行路径的基础上,采用枚举法与改进近邻法相结合的组合策略进行喷雾路径规划,并控制喷雾机械臂对靶,试验验证了该算法的可行性。
贾丙西, 刘山, 张凯祥, 陈剑[3]2015年在《机器人视觉伺服研究进展:视觉系统与控制策略》文中提出视觉伺服控制是机器人系统的重要控制手段.随着机器人应用需求的日益复杂多样,视觉伺服的研究面临着挑战.视觉伺服系统的设计主要包括视觉系统、控制策略和实现策略叁个方面.文中对视觉伺服中存在的主要问题进行了分析,重点介绍了视觉系统中改善动态性能和处理噪声的主要技术手段,阐述了处理模型不确定性和约束的控制策略的改进方案,总结了提高视觉伺服系统的可实现性和灵活性的实现策略.最后,基于当前的研究进展对未来的研究方向进行了展望.
陶波, 龚泽宇, 丁汉[4]2016年在《机器人无标定视觉伺服控制研究进展》文中研究指明视觉伺服控制是机器人系统重要的控制手段.相比传统的在标定条件下使用的视觉伺服系统,无标定视觉伺服系统具有更高的灵活性与适应性,是机器人伺服控制系统未来重要的发展方向和研究热点.本文从目标函数选择、控制器设计、运动轨迹规划叁方面综述了无标定视觉伺服控制系统近年来的主要研究进展.首先根据目标函数的形式,分析了基于位置的视觉伺服、基于图像的视觉伺服以及混合视觉伺服各自的特点与应用;在控制器设计方面,根据是否在设计过程中考虑机器人的非线性动力学特性,分别介绍了考虑机器人运动学与考虑机器人动力学的无标定视觉伺服控制器的设计,重点突出了雅克比矩阵的构造与估计方法;针对无标定视觉伺服系统运动轨迹可能存在的问题,从空间轨迹优化与障碍规避的角度,阐述了已有的可行解决方案.最后,基于当前的研究进展展望了无标定视觉伺服的未来研究方向.
李国栋[5]2007年在《基于图像雅可比矩阵的关节机器人视觉伺服控制系统研究》文中研究说明机器人视觉伺服问题是当今国内外研究的热点问题之一,其研究成果不仅能够应用于工业生产,如上料、下料、搬运、喷涂、点焊、精密装配、质量检验等,而且能够促进各项相关学科的发展。本文通过分析研究典型关节型机器人视觉伺服系统的结构,针对系统中的关键技术——图像矩特征提取及基于图像矩特征的视觉伺服控制器设计作了一定的理论研究和分析,并在此基础上构建了典型关节型机器人视觉伺服仿真系统模型,设计了相应的软件算法,具体内容如下:(1)介绍了当前机器人视觉伺服系统的分类和机器人视觉伺服技术的发展概况,并引入了机器人运动学模型和视觉系统成像模型;给出了不同坐标系间的位姿、位姿变化率的变换关系及机器人雅可比矩阵;在上述模型的基础上建立了眼在手上(eye in hand)构型典型关节型机器人视觉伺服仿真系统模型的框架。(2)本文采用近年来被国内外研究人员广泛采用的基于图像(image based)的视觉伺服方案进行机器人视觉伺服研究,使用全局特征描述子——图像矩作为图像特征信息,推导出了图像零阶矩和物体成像深度间的解析关系式,并在理论上推导出了基于图像矩特征的图像雅可比矩阵;证明了图像矩特征与图像点特征间映射为有界线性映射,并基于此论断将图像点特征空间的基本矩阵构造方法推广到了图像矩特征空间;设计了满足李雅普诺夫大范围渐进稳定性的非线性系统鲁棒比例控制器。(3)通过前面构建的眼在手上(eye in hand)构型机器人视觉伺服仿真系统,对静态目标和做平面四自由度运动的动态目标进行了静态目标定位与动态目标跟踪的仿真试验。试验结果验证了所构造的图像雅可比矩阵和基于此雅可比矩阵的伺服控制律的正确性。
王乐[6]2012年在《基于视觉伺服的工业机器人控制技术研究》文中研究说明在工业机器人的控制系统中嵌入机器视觉,可以提高工业机器人作业的智能化,拓宽工业机器人的应用领域。本文以MOTOMAN UP6机器人为基础,利用工业相机、图像采集卡、计算机、变位机等设备,构建了工业机器人视觉伺服控制系统。通过对场景图像的处理与分析,建立了基于图像的视觉伺服控制器,实现了UP6机器人对作业场景下的静态目标和圆周运动目标实时定位与跟踪拾取。本文首先对相机标定的算法进行研究,使用MATLAB工具实现了相机参数的求取,依据标定结果得出图像坐标系与机器人坐标系的映射关系。然后对相机拍摄的场景图像进行分析,通过实验建立起期望图像的特征矩阵。对场景中的目标进行边缘检测、模板匹配等算法处理,得出实时图像特征矩阵。利用图像间的特征信息建立起图像反馈控制模块,设计了静态场景和动态场景两种情况下的视觉伺服控制器。在运动目标跟踪方面,研究了目标作圆周运动的特征,建立了“两心一度”模型,通过实验验证了该算法的正确性。结合卡尔曼滤波算法和全局最近邻预测算法,对视觉伺服控制器的设计进行改进,使得机器人末端执行器实时跟踪定位、拾取作业场景中的目标。通过多次实验和程序调试,完成了一个初级的机器人视觉伺服控制系统的构建。联机实验证明了本文的研究成果。在研究的过程中发现UP6机器人运动控制过程中的不足之处,并提出了解决方法。该系统作为工业自动化的一个环节,在生产应用上有较好的实用意义和参考价值。
许鹏[7]2014年在《基于视觉伺服机理的遥操作机器人虚拟力反馈控制研究》文中研究说明目前,在人类合理开发利用太空、海底等资源的过程中,机器人发挥着巨大的作用。机器人正朝着智能化的方向发展,由于受控制、传感及人工智能等发展水平的制约,目前的智能机器人研究重点应从全自主技术转向交互技术。主从机器人控制过程中,仍然主要依赖从端系统传输的图像、力、声音等信息,由于机器人处在远端的工作环境,操作者距离机器人较远,因此无法亲身感知机器人与环境的相对位姿,现有的主从机器人系统仍存在作业效率低、安全性低等问题,此外,由于图像特征不全、图像中作业对象不可见等原因,传统的视觉伺服控制方法不可避免的会出现作业对象偏离相机视野的现象。针对此问题,本文采用一种基于视觉伺服机理的遥操作机器人虚拟力反馈控制方法,充分利用传统图像伺服局部强稳固性和高鲁棒性的优点,引入图像虚拟引导力的概念,将机器人的局部自主性同操作者的高级智能性融合,实时地调整机器人的末端位姿,以保证图像中的操作任务始终处于相机视野中,从而有效的避免操作者误操作的发生,本文将视觉伺服控制引入遥操作领域,利用传统的视觉伺服控制原理,并在人工势场的理论基础上,构建图像虚拟力,并将虚拟力信号反馈给操控人员予以力感指引。本文结合国家自然科学基金项目“基于动觉/力觉导航的机器人共享控制研究”和吉林省重点科技攻关项目“机器人的动觉引导共享控制”。依托于吉林大学机械电子系工程机器人实验室的四自由度机器人、双目摄像头以及操纵手柄,搭建了图像虚拟力反馈控制试验台。为构建图像虚拟力,本文从机器人的运动学和动力学、作业对象的特征提取、复合图像雅可比矩阵在线估计、图像虚拟力模型构建几个方面做了深入的研究。本文主要完成以下工作:1、采用HSI(Hue Saturation Intensity)图像分割算法、图像膨胀腐蚀算法以及轮廓多边形拟合算法,实现了机器人作业对象的特征信息提取;2、利用连杆齐次坐标矩阵变换的方法,建立了机器人运动学方程,并采用拉格朗日法建立了机器人动力学方程;3、将视觉伺服应用于机器人的遥操作,采用RLS(Recursive Least Square)算法在线估计复合图像雅可比矩阵,并基于人工势场理论,构建机器人的虚拟力;4、搭建了机器人图像虚拟力反馈控制平台,采用Visual Studio2008开发了遥操作机器人虚拟力反馈控制系统软件,进行了图像虚拟力反馈控制试验,验证了本控制方法的可行性与有效性。
张作楠[8]2012年在《机器人视觉伺服跟踪系统的研究》文中研究表明智能机器人的视觉伺服是利用视觉传感器得到的图像作为反馈信息来构造机器人的位置闭环控制,即利用视觉传感器来间接检测机器人当前位姿或者其相对于期望目标图像的当前特征,在此基础上实现机器人的定位控制或者轨迹跟踪。这一过程可以克服系统模型中的不确定性因素,提高机器人适应环境的能力,从而扩大工业机器人和服务型机器人的引用领域。视频跟踪作为计算机视觉研究的核心课题之一,是一门新兴的技术;视觉控制系统作为计算机视觉领域与控制领域的重要切合点,具有非常高的理论研究价值和实际应用价值。在图像处理阶段,通过从图像采集卡获取的实时图像进行处理,利用阈值分割法获得目标运动区域后,提出结合二次帧差和背景消除法相结合的运动检测算法,该算法同时考虑了帧差阈值更新和背景的更新。另外为了跟踪特定形状和运动状态的目标,设计了匹配图像矩特征和运动特征的目标识别算法,提高跟踪的准确性和抗干扰能力。获得实验平台上运动物体的位置和图像矩特征,然后进入图像跟踪阶段,为了提高伺服系统的实时性,对运动物体的位置,速度等状态参量利用线性和非线性的综合轨迹预测器,获得目标下一时刻的状态参数。实验结果表明,目标能够快速准确的提取出来,且带预测器的特征跟踪效果良好。针对Eye-in-hand结构的视觉系统,研究基于图像的视觉伺服控制,即将上一步目标检测和预测的图像特征用于伺服控制,完成机械手末端对运动物体的跟踪。在控制系统中,当前图像特征作为反馈控制量,特征反馈控制环路包括图像采集部分和特征提取部分。具体在伺服跟踪任务中,图像特征误差表现为预测的期望图像特征与当前特征的像素空间误差,结合图像特征雅克比矩阵,得出机器人运动空间的运动控制量。对于关节型机器人,特征雅克比矩阵的输出为各个关节的期望速度,再由机器人的运动控制器发出指令,控制机械臂完成跟踪任务。基于图像信息特征进行视觉伺服的过程中,通过分析摄像机和机器人构成的眼在手视觉伺服结构的系统模型,假设目标在平面内运动,推导了基于图像矩特征和目标预测特征的图像雅克比矩阵,并利用逆雅克比矩阵的IBVS伺服方法设计了视觉伺服控制器,在此基础上,考虑到图像处理系统和伺服控制算法的时延,提出了带预测补偿的雅克比PI图像反馈控制器,在不降低系统跟踪精度的情况下,提高了系统的响应速度。最后利用MATLAB视觉伺服工具箱进行了跟踪算法的仿真实验,在构建的MOTOMAN-UP6的机器人实验系统上进行了定位和跟踪实验,能够快速有效的跟踪平面内运动目标,系统响应速度和跟踪精度满足要求。
郭壮[9]2016年在《视觉伺服机器人动态目标抓取系统设计与研究》文中研究说明本文针对现阶段工业生产过程中示教型机器人对环境适应能力有限问题,提出加入视觉传感器,为机器人装上"眼睛和大脑",结合机器人视觉伺服控制研究与应用现状,以视觉伺服机器人抓取连续运动传送带上条烟为研究对象,完成了对条烟的分类识别与定位抓取。为实现这一目的,主要进行了以下研究:(1)动态条烟抓取系统总体方案设计。为满足项目需求,确定系统总体工作流程。根据精度要求和产品性价比,对方案中涉及到的软硬件进行选型,完成实验平台搭建。(2)条烟分类识别与定位研究。通过对条烟图像进行预处理、边缘检测与跟踪、创建模板、寻找模板等研究,获取条烟在图像上的精确位置。通过基于支持向量机的分类方法,实现条烟的准确分类。(3)基于Halcon的系统标定与抓取研究。进行相机标定、手眼标定,并对手眼标定进行校正,实现坐标系统一。对机械手末端进行路径轨迹规划,计算条烟在运动传送带上的抓取位置,实现对条烟的准确抓取。(4)系统外围电路整合设计。运用分层思路实现外围电路系统总体设计,对不同模块完成软硬件设计,并以光纤触发光源频闪为例介绍外围电路工作流程。(5)动态条烟抓取系统设计与开发。以Visual Studio为开发平台,结合Windows的MFC功能与消息映射机制,对系统进行基于对话框的设计。分模块实现上位机与机器人控制器串口通信、相机SDK开发功能,同时增加异常处理机制,最终完成条烟分类检测与定位抓取系统的设计与开发。
陈星[10]2014年在《多气囊柔性试衣机器人的视觉伺服控制系统的设计研究》文中进行了进一步梳理本文以仿人形多气囊柔性试衣机器人为研究背景,针对研究对象的特点,结合控制对象建模分析、软硬件系统设计及控制目标建模,提出了一种视觉伺服控制方法。传统的以气压参数作为反馈的控制方法难以解决实际应用复杂环境下的良好控制问题,而视觉伺服控制方法则直接控制目标外形的变化,控制效果更好。控制算法方面,无模型自适应控器的设计不依赖对被控系统建立精确的数学模型,算法可调参数少,对不同被控系统的兼容性强。主要研究工作如下:首先,介绍仿人形多气囊柔性试衣机器人的项目背景及系统结构,通过分析系统特点提出视觉伺服控制系统的设计方案。以工业摄像头作为传感器,以气囊充胀厚度参数作为控制过程的反馈变量,直接控制气囊充胀过程中外形的变化。其次,简要介绍了视觉伺服控制技术的应用现状,对仿人形多气囊柔性试衣机器人的视觉检测硬件系统进行选型并搭建,并通过使用M公司的LabVIEW为平台,设计了仿人形多气囊柔性试衣机器人的视觉检测程序。最后,使用仿人形多气囊柔性试衣机器人的视觉检测系统检测气囊充胀过程的系统阶跃响应,对气囊对象进行建模分析。简要介绍了无模型控制方法产生的背景,无模型自适应控制的基本原理及对其分析、无模型控制律及特征参量的辨识,随后又对无模型控制律性能进行了概述。最后通过LabVIEW与MATLAB混合编程的仿真试验比较MFAC与传统PID控制方法在系统中的表现,证明本方案能够得到稳定且适用于各种气囊的控制效果,有效避免充气过程超调对气囊形变精度的影响与气囊过量充气发生爆裂产生的安全隐患。
参考文献:
[1]. 机器人焊缝视觉跟踪与控制系统研究[D]. 王永波. 吉林大学. 2017
[2]. 对靶喷雾机器人视觉伺服控制系统研究[D]. 赵栋杰. 中国农业大学. 2017
[3]. 机器人视觉伺服研究进展:视觉系统与控制策略[J]. 贾丙西, 刘山, 张凯祥, 陈剑. 自动化学报. 2015
[4]. 机器人无标定视觉伺服控制研究进展[J]. 陶波, 龚泽宇, 丁汉. 力学学报. 2016
[5]. 基于图像雅可比矩阵的关节机器人视觉伺服控制系统研究[D]. 李国栋. 湘潭大学. 2007
[6]. 基于视觉伺服的工业机器人控制技术研究[D]. 王乐. 南京林业大学. 2012
[7]. 基于视觉伺服机理的遥操作机器人虚拟力反馈控制研究[D]. 许鹏. 吉林大学. 2014
[8]. 机器人视觉伺服跟踪系统的研究[D]. 张作楠. 江南大学. 2012
[9]. 视觉伺服机器人动态目标抓取系统设计与研究[D]. 郭壮. 南京理工大学. 2016
[10]. 多气囊柔性试衣机器人的视觉伺服控制系统的设计研究[D]. 陈星. 东华大学. 2014
标签:自动化技术论文; 机器人论文; 伺服控制论文; 伺服控制系统论文; 反馈控制论文; 图像融合论文; 相机标定论文; 虚拟技术论文;