导读:本文包含了视觉标定论文开题报告文献综述及选题提纲参考文献,主要关键词:立体视觉,视觉测量,视觉标定,大视场
视觉标定论文文献综述
余淑真,欧巧凤,熊邦书,陈垚锋[1](2019)在《基于散焦图像的大视场立体视觉标定方法》一文中研究指出针对传统大视场立体视觉标定方法存在操作不便、精度不高、稳定性差的问题,提出基于散焦图像的大视场立体视觉标定方法.首先,在立体视觉系统和大视场测量位置之间选定一个位置作为小视场散焦位置,利用在此位置处采集的靶标图像,实现摄像机内参标定;其次,利用大视场测量位置处采集的靶标图像,实现立体视觉外参标定;最后,通过实验室标定实验和直升机桨叶运动参数测量实验进行了验证.结果表明,该方法操作方便、精度高、稳定性好,在4.6 m×2.3 m的视场范围内,测量靶标上特征点间距为505.00 mm的两个点,平均误差为0.647 mm,均方根误差为0.780 mm,能够满足直升机桨叶运动参数测量的现场标定以及测量精度要求.(本文来源于《应用科学学报》期刊2019年06期)
马晓燕,张永胜[2](2019)在《基于视觉标定的包装搬运机器人定位方法》一文中研究指出目的为了提高包装搬运机器人的定位精度,提出一种基于机器视觉的末端执行器定位方法。方法基于OpenCV设计一种视觉标定算法,该算法包括摄像机标定和位姿标定,可实现待码放物体图像坐标和机械手坐标之间的变换。结合工控机和运动控制卡设计其控制系统,同时给出硬件设计和软件设计方法。最后进行实验研究,包括原点定位和重复定位。结果实验结果表明,所述控制方法能够提高搬运机器人的定位精度,原点定位误差约为0.14 mm,重复定位误差约为0.6 mm。结论该搬运机器人定位方法能够满足包装码垛要求。(本文来源于《包装工程》期刊2019年21期)
章晓峰,李光,肖帆,杨家超,马祺杰[3](2019)在《基于BP神经网络的包装分拣机器人视觉标定算法》一文中研究指出手眼标定确定了机器人基座坐标系和摄像机坐标系之间的非线性映射关系,在视觉伺服中起着重要作用。针对视觉伺服控制系统中的手眼标定问题,基于机器人工具箱和神经网络工具箱,在MATLAB/Simulink环境下,使用误差反向传播(BP)神经网络算法和径向基(RBF)神经网络算法进行仿真,拟合了6自由度分拣机器人和单目摄像机之间的映射关系,通过仿真结果分析了两种算法的精度。此外,在同一实验条件下使用BP神经网络与张氏法对机械臂进行手眼标定,通过在机械臂实际工作空间内抓取同一组随机取样本点进行实验,并对比随机样本点的抓取精度。仿真和实验结果表明BP神经网络在标定精度上优于RBF神经网络算法和张氏标定法,能够在实际应用中提高手眼标定的精确度,具有一定的工程意义。(本文来源于《包装学报》期刊2019年04期)
张勇,漆军[4](2019)在《基于Halcon的大视场视觉标定方法研究》一文中研究指出标定是机器视觉使用中必不可少的一个步骤,针对当前视觉点胶行业中对大视场加工要求,提出了一种基于Halcon的大视场视觉标定方法。通过采用Halcon相机畸变校正与画网格提取角点进行加工区域坐标标定相结合的方法,在进行点胶控制系统中机器视觉标定功能的同时,可快捷准确进行点胶加工轨迹的规划与转换,实现了大视场加工的全景标定功能。经过实际加工验证,该方法达到了控制系统标定需求,且提升了操作便捷性,提高了点胶加工效率。(本文来源于《机电工程技术》期刊2019年08期)
余淑真[5](2019)在《基于散焦图像的大视场立体视觉标定技术研究》一文中研究指出立体视觉系统具有非接触、自动化等特点,广泛应用于工业检测、国防等领域,立体视觉标定是其关键技术,标定精度直接影响系统的测量精度,因此,研究大视场环境下的高精度立体视觉标定方法,对提高测量精度具有重要的实际意义。针对传统大视场立体视觉标定方法存在操作不便、精度不高和稳定性不好的问题,本文利用散焦图像开展了大视场立体视觉标定技术研究。主要工作内容和研究成果如下:(1)改进了课题组研发基于四目立体视觉的直升机桨叶运动参数测量系统,系统的硬件组成主要包括:四个高速工业相机、倍频同步器、计算机、远程控制计算机和八个摄影灯;软件组成包括:设备管理模块、图像采集模块、立体视觉标定模块、全局标定模块、标记点叁维坐标计算模块和桨叶运动参数测量模块。本文主要针对原系统中的立体视觉标定模块进行界面优化和算法优化,将基于散焦图像的大视场立体视觉标定方法嵌入系统。经过测试,优化后的系统能够满足桨叶运动参数测量需求,提高了标定过程的可操作性和稳定性。(2)提出了基于散焦图像的大视场立体视觉标定方法。首先,在散焦位置,利用单个小尺寸二维靶标采集散焦图像,完成了单目摄像机标定;其次,在测量位置,通过对视场区域的划分,利用单个小尺寸二维靶标采集标定图像,完成了立体视觉外参数标定;最后,通过模拟实验和真实实验对本文方法进行验证,在5.1m的测量距离,4.8m?2.4m的视场范围内,归一化重投影误差和反投影误差均小于0.23mm,测量结果的均方根误差为0.858mm、相对误差小于0.3%,结果表明,本文方法标定精度高、操作方便和稳定性好,能够满足桨叶运动参数测量的现场标定以及测量精度要求。(3)分析了影响大视场摄像机标定精度的因素。首先,从理论上分别分析了散焦位置、靶标材质、靶标中标记点大小、靶标中标记点间距、散焦图像数量、噪声水平6个影响因素对标定精度的影响机理;然后,在5m的测量距离,4.6m?2.3m的视场范围下,开展了影响标定精度的因素验证实验,得出:1)散焦位置在1~2.2m的范围内,标定精度较高,散焦位置为1.4m时,标定精度和可操作性较好;2)选择碳纤维材质、标记点半径为18mm、标记点间距为48mm和标记点个数为9*10的靶标,可以获得较高的标定精度;3)本文方法抗噪性能较好:4)选用27张图像就能取得较高的标定精度,但是稳定性不好;选用40张图像,标定结果的精度和稳定性最符合要求。(本文来源于《南昌航空大学》期刊2019-06-01)
高胜彪[6](2019)在《基于消隐点的立体视觉标定及实验研究》一文中研究指出随着工业4.0以及中国智能制造2025的快速推进,视觉测量方法的应用越来越广泛,而摄像机的标定精度决定了测量的精度。传统的标定方法比较繁琐,需拍摄多幅图像才能实现测量精度要求。针对上述问题,本文提出一种基于消隐点的立体视觉标定方法,拍摄两幅图像即可完成同等精度摄像机标定,大大提高了摄像机标定速度。首先,对摄像机标定的原理及方法进行分析与研究。分析了摄像机的线性模型和非线性投影的原理模型,研究了叁大坐标系之间的矩阵转换关系以及双目立体视觉叁维测量原理。然后在上述原理基础上,研究基于消隐点的立体视觉标定方法,对消隐点的产生原理以及常用的模型进行分析,分析摄像机内参数与空间消隐点的约束关系,研究摄像机内参数的求解过程,获得摄像机内参数求解方程。随后进一步对摄像机内参数与平面单应矩阵的约束关系进行分析,研究外参数求解过程,获得摄像机外参数求解方程。通过仿真实验验证了基于空间消隐点的方法得到摄像机内参数的准确性。在此基础上分析了双目立体视觉系统和叁目立体视觉系统的结构参数相对于单目摄像机外参数的相对关系,并进行了理论推导,获得多目立体视觉系统结构参数的求解方程。最后对基于消隐点的立体视觉标定方法进行实验验证,即仅拍摄两幅图像即可完成标定。首先对单目视觉标定方法进行实验验证,并与Matlab自带的标定方法(张氏标定法)进行比较,其稳定性和精度基本一致。在此基础上利用双目立体视觉测距对双目立体视觉标定方法进行验证,然后利用像素点坐标的重投影误差来验证叁目立体视觉标定方法,标定结果表明,多数像素点坐标误差落在[-0.4,0.4]像素之间,在合理的误差范围内。本文通过空间消隐点的几何特性,实现了多目立体视觉系统的快速标定,并通过实验进行了验证,该方法为高精度多目立体视觉的快速检测提供了理论与技术支持。(本文来源于《哈尔滨理工大学》期刊2019-03-01)
王才东,李志航,王新杰,王辉[7](2019)在《机器人平面工具TCP的双目视觉标定方法》一文中研究指出工业机器人末端工具中心点(TCP)是机器人实际的运动轨迹,TCP的标定效率和精度直接影响机器人的作业质量。针对机器人平面式作业工具TCP的快速、准确标定需求,提出一种基于双目视觉的标定方法。通过改变机器人末端工具位置,结合双目视觉系统对靶标点进行测量,并进行坐标转换计算,从而求解出TCP。搭建机器人TCP标定实验平台,通过对比实验,验证了方法的正确性和有效性,满足实际机器人平面式末端工具的TCP标定要求,避免了传统接触式标定方法存在的碰撞风险。(本文来源于《机械设计与制造》期刊2019年01期)
华祺年,聂志水,刘建培[8](2018)在《成捆圆钢自动贴标机器人的视觉标定》一文中研究指出针对成捆圆钢人工贴标效率低、工人劳动强度大以及机器人贴标精度低等问题,提出了一种简单实用的贴标机器人视觉标定方法。通过控制机器人末端沿其基础坐标轴移动来确定世界坐标系与机器人基础坐标系的位置关系。采用Delanuay剖分叁角形内插值标定法获取摄像机像素坐标系和世界坐标系的关系,进而求得摄像机像素坐标系和机器人基础坐标系的关系。经过现场贴标试验,验证了该标定方法的可行性。试验结果表明:该方法可以保证贴标机器人能够准确地找出待贴标圆钢端面的中心位置,并快速地完成圆钢贴标工作。(本文来源于《河北冶金》期刊2018年11期)
谢丰隆,韩建海,李向攀[9](2018)在《一种快速的机器人固定视觉标定方法》一文中研究指出六自由度机械臂在实际工业生产中拥有广泛的应用,其中一个重要方向为基于视觉的零件分拣。为实现分拣,首先要进行机器视觉标定,通常需要繁琐的标定步骤,并调整机器人坐标系。为降低标定难度,提高标定效率,基于OpenCV算法库,介绍了一种快速的标定方法。该标定方法只需简单的标定板,配合霍夫变换和线性回归拟合,可获得准确的标定结果。通过测量标定结果精度以及实际抓取验证,该方法能够满足零件分拣作业需要,在工业生产中具有一定应用价值。(本文来源于《机械设计与制造》期刊2018年11期)
姜涛,程筱胜,崔海华,贾华宇,张逢骏[10](2018)在《基于单应性矩阵的变焦双目视觉标定方法》一文中研究指出针对现有变焦镜头标定方法难度大、动态精度低等问题,提出一种基于单应性矩阵的动态变焦双目内外参数估计方法和平面快速重建方法。利用双目图像匹配点及变焦前后的匹配点进行两类单应性矩阵估计;基于变焦数学模型和单应性矩阵,求解变焦后双目内外参数,实现畸变后双目参数动态估计与优化;通过双目图像单应性进行平面快速匹配和重建。实验结果表明,计算的内外参数与标定结果吻合较好;变焦后,推导的单应性矩阵归一化误差小于0.01,图像重投影误差小于1pixel;重建精度小于0.1mm。(本文来源于《光学学报》期刊2018年03期)
视觉标定论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
目的为了提高包装搬运机器人的定位精度,提出一种基于机器视觉的末端执行器定位方法。方法基于OpenCV设计一种视觉标定算法,该算法包括摄像机标定和位姿标定,可实现待码放物体图像坐标和机械手坐标之间的变换。结合工控机和运动控制卡设计其控制系统,同时给出硬件设计和软件设计方法。最后进行实验研究,包括原点定位和重复定位。结果实验结果表明,所述控制方法能够提高搬运机器人的定位精度,原点定位误差约为0.14 mm,重复定位误差约为0.6 mm。结论该搬运机器人定位方法能够满足包装码垛要求。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视觉标定论文参考文献
[1].余淑真,欧巧凤,熊邦书,陈垚锋.基于散焦图像的大视场立体视觉标定方法[J].应用科学学报.2019
[2].马晓燕,张永胜.基于视觉标定的包装搬运机器人定位方法[J].包装工程.2019
[3].章晓峰,李光,肖帆,杨家超,马祺杰.基于BP神经网络的包装分拣机器人视觉标定算法[J].包装学报.2019
[4].张勇,漆军.基于Halcon的大视场视觉标定方法研究[J].机电工程技术.2019
[5].余淑真.基于散焦图像的大视场立体视觉标定技术研究[D].南昌航空大学.2019
[6].高胜彪.基于消隐点的立体视觉标定及实验研究[D].哈尔滨理工大学.2019
[7].王才东,李志航,王新杰,王辉.机器人平面工具TCP的双目视觉标定方法[J].机械设计与制造.2019
[8].华祺年,聂志水,刘建培.成捆圆钢自动贴标机器人的视觉标定[J].河北冶金.2018
[9].谢丰隆,韩建海,李向攀.一种快速的机器人固定视觉标定方法[J].机械设计与制造.2018
[10].姜涛,程筱胜,崔海华,贾华宇,张逢骏.基于单应性矩阵的变焦双目视觉标定方法[J].光学学报.2018