键相器模块 FBM233
键相器模块 FBM233
键相器模块 FBM233
Ingersoll Rand 37152436
Kr 4308 751 307 030A
137-36-133
Asco 302-300
Asco EF8345G1MO
Tillquist SA253
Tillquist DA265
Fuji TK4C6579R0
Flowserve 150S8ACX1-K
N30056BR
Parker V5L72750 7-061-0006
Falk 725609
T700
Bellofram 961-070-00
Pentair 0510650 2-1/2in
Westinghouse 3A99165G50
Magmotor 070-MO2-25-111-000
Valenite SSYPR10CA3
Thermo Scientific 101288-00
Ingold 1220
Cci 1032033325200
Rosemount 1N04956G02
Silver Hawk Precision SH-1094
Adtran TSU 600E
Dynamation 7800-003 7800-010
Smc VP7-6-FG-S-1Z
Rota BL8 2BD
M&m DPN207STY00
A002412.0007A PT-170308-02
A002412.0007A PT-170308-03
Asco 67179-1
Rosemount Analytical 7001D
Aeg BLU 2-G
Trango Systems TL45-INT HW Tlink45
450568G-001
Expansion Seal P2-740F
Fanuc 9502-007
SP10134
Ingold 1220
Mapal 30158105
Love Controls MODEL 64
Rockwell-edward 875915 876120
Allen Bradley 837-A6 X510
Adtran ATLAS 830
Conval T7H-R
393.10-30-60-00-000
Magnetrol E6
Pascal DNA0750-160 N2
Fisher 2U223433272
PW13A
Drexelbrook 406-1000-001
Asco 162634
Gould 05132533
Mobrey MSL603
同步定位与地图构建(SimultaneousLocalizationandMapping,SLAM)是机器人领域的技术热点与难点,其解决的定位和建图问题被认为是机器人实现自主导航的关键。该技术主要原理是通过机器人配备的多种传感器来感知周围环境,并计算出自己在当前环境下的位置。SLAM被提出后,先后经历了多个研究阶段。由于激光雷达精度高、范围广,早期的SLAM研究往往以激光雷达为主要的传感器。另外,早期的SLAM采用扩展卡尔曼滤波方法估计机器人的位姿[1],但效果不好,对于某些强非线性系统,该方法会带来更多的截断误差,从而导致无法地实现定位与建图。而后基于粒子滤波的SLAM逐渐成为主流,粒子采样方法可有效避免非线性问题,但同样引出了随着粒子数增多,计算量增大的问题。一直到2007年,Grisetti等[2]提出了基于改进粒子滤波的SLAM方法(Gmapping),该方法通过改进的建议分布及自适应重采样技术有效地提高了定位精度并降低了计算量,是激光SLAM的一个里程碑。Konolige等[3]在2010年提出了KartoSLAM,该方法采用图优化代替粒子滤波,并采用稀疏点调整来解决非线性优化中矩阵直接求解难的问题。Kohlbrecher等[4]在2011年提出了HectorSLAM,该方法不需要里程计信息,通过利用高斯牛顿方法来解决扫描匹配问题,但对传感器要求较高,需要的激光雷达才能运行。由谷歌于2016年提出的Cartographer[5]可以说是新的激光SLAM方案。该方法将获得的每一帧激光数据,利用扫描匹配在佳估计位置处插入子图(Submap)中,且扫描匹配只与当前子图有关。在生成一个子图后,会进行一次局部的回环(LoopClose),而在所有子图完成后,利用分支定位和预先计算的网格进行全局的回环。相比于Gmapping和Hector,该方案具有累积误差较低,且不需要高成本设备的优点。视觉SLAM由于传感器成本低、图像信息丰富逐渐成为了SLAM的研究热点。但与激光SLAM相比,视觉SLAM更加复杂。Davison等[6]在2007年提出的MonoSLAM被认为是众多视觉SLAM的“发源地”。该方法以扩展卡尔曼滤波为后端,追踪前端稀疏的特征点;利用概率密度函数来表示不确定性,从观测模型和递归的计算,终获得后验概率分布的均值和方差。Sim等[7]利用粒子滤波实现了视觉SLAM,该方法避开了线性化的问题并且精度高,但需要使用大量的粒子,从而导致计算复杂度的提高。随后,为了减少计算复杂度,提取关键帧变得极为重要,其中具代表性的是2007年Klein和Murray提出的PTAM[8]。该方法提出了简单有效地提取关键帧的技术,并且该方法为关键的两点是:(1)实现了跟踪与建图的并行化,虽然跟踪部分需要实时响应图像数据,但后端优化却不需要实时计算。即后端优化可在后台慢慢运行,在需要的时候将两个线程同步即可。这也是提出了区分前后端的概念,了之后众多SLAM方法的架构设计。(2)次使用非线性优化,而不是传统的滤波器。从PTAM提出后,视觉SLAM研究逐渐转向了以非线性优化为主导的后端。2016年Mur-Artal和Tardos[9]提出了现代SLAM中非常的第二代基于具有带方向性的加速分段测试特征(FAST)关键点以及带旋转不变性的二进制鲁棒立基本特征(BRIEF)描述子的特征点(OrientedFASTandRotatedBRIEF,ORB)[10]的视觉SLAM系统ORB-SLAM2,是现代SLAM中做得十分完善并且易用的系统之一。该方法不仅支持单目、双目、深度摄像头三种模式,并且将定位、地图创建、闭环分为三个线程,且都使用ORB特征。ORB-SLAM2的闭环检测是一大亮点,该方法采用了词袋模型,有效地防止了累积误差,并且能在丢失之后迅速找回。但ORB-SLAM2的缺点也十分明显,图像特征提取与匹配以及后端的优化都需要计算资源,在嵌入式平台上实现实时运行存在一定的困难,并且构建的稀疏特征点地图虽然可以很好地满足定位,但无法提供导航、避障等功能。相比于提取图像中的特征点,根据图像像素灰度信息来计算相机运动的直接法从另一个方向实现了定位和建图。Stühmer等[11]提出的相机定位方法依赖图像的每个像素点,即用稠密的图像对准来进行自身定位,并构建出稠密的三维地图。Engel等[12]对当前图像构建半稠密深度地图,并使用稠密图像配准(DenseImageAlignment)法计算相机位姿。构建半稠密地图即估计图像中梯度较大的所有像素的深度值,该深度值被表示为高斯分布,且当新的图像到来时,该深度值被更新。Engel等[13]提出了LSD-SLAM算法,其核心是将直接法应用到半稠密的单目SLAM中,这在之前的直接法中很少见到。以往基于特征点只能构建稀疏地图,而稠密地图又需要RGB-D这种可以提供深度信息的相机。Forster等[14]于2014年提出了半直接法单目视觉里程计(Semi-directMonocularVisualOdometry,SVO),一种被称为“稀疏直接法”的方法,该方法将特征点与直接法混合使用,跟踪了一些关键点(如角点等),然后按照直接法根据关键点周围的信息估计相机运动及位置。相比于其他方案,SVO既不用消耗大量资源去计算描述子,也不必处理过多的像素信息,因此该方法可广泛用于无人机、手持增强现实(AugmentedReality,AR)等设备上。Newcombe等[15]提出了Kinect融合的方法,该方法通过Kinect获取的深度图像对每帧图像中的每个像素进行小化距离测量而获得相机位姿,且融合所有深度图像,从而获得全局地图信息。Gokhool等[16]使用图像像素点的光度信息和几何信息来构造误差函数,通过小化误差函数而获得相机位姿,且地图问题被处理为位姿图表示。Kerl等[17]提出了较好的直接RGB-DSLAM方法,该方法结合像素点的强度误差与深度误差作为误差函数,通过小化代价函数,从而求出优相机位姿,该过程由g2o实现,并提出了基于熵的关键帧提取及闭环检测方法,从而大大降低了路径的误差。在多传感器融合方面,目前有视觉传感器、激光雷达、惯性测量单元(InertialMeasurementUnit,IMU)及超声波传感器等多种传感器。目前,主要融合方向为激光雷达结合视觉传感器及IMU结合视觉传感器。Chen等[18]通过视觉传感器结合IMU来进行机器人的位姿估计,并在机器人上垂直安装二维激光雷达采集点云数据实现三维建图。Houben等[19]采用三维激光数据用于微型无人机定位,针对结构相似的环境激光定位会出现模糊的问题,提出在环境中加入视觉标记,提高定位精度,同时可用于微型无人机的重定位。王消为等[20]提出了一种双目视觉信息和激光雷达数据融合的SLAM方法,该方法基于改进的粒子滤波算法实现了在计算建议分布时观测数据,其中同时包含视觉信息和激光雷达数据。相对于里程计运动模型作为建议分布,该方法有效地提高了定位和建图的精度。张杰和周军[21]提出了一种激光雷达与视觉结合的SLAM方法,其中激光地图用于导航,视觉地图用于复原目标场景;并提出一种改进的迭代近点法(IterativeClosestPoint,ICP)用于实现更快的点云拼接,同时采用图优化的方法降低了累积误差,地图精度。Shi等[22]在小型无人机上,利用视觉里程计为二维激光的ICP提供初值,在实时性和度方
面都达到了较好的效果。Qin等[23]提出了视觉与IMU的紧耦合方案,将视觉构造的残差项和IMU构造的残差项放在一起构成一个联合优化问题。Li等[24]和Lynen等[25]通过扩展卡尔曼滤波器对视觉和IMU进行融合以实时获取状态估计。相对而言,激光SLAM的效果仍然要优于视觉SLAM,但激光SLAM由于其本身激光数据的特性导致其无法有效地进行大范围的闭环检测。对于格的激光雷达,由于激光点不够密集,构建的地图常常会出现回到原来的位置地图,由此造成定位不准确而出现偏差的情况,这是由累积误差所导致的。同时在激光SLAM中,闭环检测一直是一大难点:由于获取的激光数据是二维点云数据,无明显特征且相互之间十分相似,所以基于激光数据的闭环检测往往效果不好。由于图像中包含了丰富的信息,故视觉SLAM在闭环检测方面存在着天然优势。ORB-SLAM2中提出的词袋模型,采用了ORB特征配合词袋的方法,具有很高的准确率和速度,是当前应用广的闭环检测手段。针对低成本激光SLAM噪声大、精度低、难以闭环的问题,本文提出激光结合视觉进行联合优化的方法来提高定位建图精度,并通过视觉词袋模型有效地解决激光闭环检测难的问题。
承诺一:1、全新原装进口
承诺二:2、准时发货
承诺三:3、售后服务质量
流程一:1、客户确认所需采购产品型号
流程二:2、我方会根据询价单型号查询价格以及交货期,拟一份详细正规报价单
流程三:3,客户收到报价单并确认型号无误后订购产品
流程四:4、报价单负责人根据客户提供型号以及数量拟份销售合同
流程五:5、客户收到合同查阅同意后盖章回传并按照合同销售额汇款到公司开户行
流程六:6、我公司财务查到款后,业务员安排发货并通知客户跟踪运单