彻底剖析激光-视觉-IMU-GPS融合算法:理论推导、代码讲解和实战资源介绍:
目前各个机器人和自动驾驶的企业常年有SLAM算法的岗位需求,对于多传感器融合SLAM算法岗位更是开出高薪,而且优秀人才紧缺。然而多模态融合SLAM的门槛较高,在需要视觉SLAM与激光SLAM的基础之外,还会遇到不同模态测量的融合,不同传感器的时间同步,多传感器的外参标定,多传感器异常检测等问题,使得各位同学做这块的时候遇到诸多障碍。因此我们联合机器人学国家重点实验室的博士大佬推出这门课程,从理论和代码实现两个方面对激光雷达-视觉-IMU-GPS融合的SLAM算法框架和技术难点进行讲解,并且博士大佬会根据自己多年的机器人工程经验,向大家讲解在实际机器人应用中多模态融合的方法和技巧。
资源目录:
彻底剖析激光-视觉-IMU-GPS融合算法:理论推导、代码讲解和实战 ├─1、公开课多模态融合SLAM技术分享.mp4 136.54MB ├─2、传感器介绍及分析及激光与视觉SLAM算法框架解析.mp4 546.91MB ├─3、多传感器外参标定原理与代码讲解.mp4 455.71MB ├─4、激光—惯性子系统(LIS)代码精读.mp4 362.24MB ├─5、视觉—惯性子系统(VIS)代码精读.mp4 812.46MB ├─6、激光—视觉—惯性数据融合与优化融合.mp4 552.59MB ├─7、LVI—SAM代码实战与评估.mp4 547.26MB ├─8、大作业讲解视频.mp4 244.57MB