写在前面 大家好久不见,距离上一篇MOT相关博客发表正好已经过了一年。这一年笔者间也是继续深耕多目标跟踪领域,对此领域也产生了一些更加深刻的理解。作为主要作者发表的CAMO-MOT也在nuScenes榜单上占据第一位置半年有余。与此同时,此期间产生的一个初心就是继续产出高质量的,易于大家理解的技术博客,让更多的人来建设这个领域。一年过去了,从这篇博客开始,笔者将继续介绍多目标跟踪。本篇博客的概要
写在前面 如果说上一篇博客的鸢尾花有一点抽象的话,那么我们可以在MNIST手写数字数据集中看到更加直观的结果。利用KNN识别MNIST手写数字体。或许可以浅显地认为KNN在计算机视觉领域也有一定用武之地。算法最终可以达到90%的准确度。 说明 与上一篇博客一样,KNN算法没有任何的训练过程,test, train的起名只是为了叙说方便,其意义见下: test: 待分类样本 train
写在前面 KNN近邻算法是最简单的机器学习算法,也正是因为其算法简单的特点,其具有非常好的实时性,在一些嵌入式设备中可以被轻易的部署。KNN具有非常好实时性的同时,其对于一些分类问题也有很好的性能,在本文的鸢尾花识别中,如果选取合适的K,算法精度甚至可以达到97.5%以上。KNN本身也具有非常多的变种,本文只是展示了其简单的一种变种。 本文的KNN紧邻算法原理 何为KNN?其英文,“K-Ne
写在前面 俗话说的好,没有什么是MATLAB干不了的,今天笔者就将给大家带来一个使用MATLAB实现迁移学习的实例 数据集选取及简介 考虑到Alexnet输入的色彩通道为3,因此笔者未使用数据集为灰度图的数据集,如MNIST,转而使用的是本身就就为RGB图像的CIFAR-10,下载地址在此处。 CIFAR-10 数据集由 10 个类别的 60000 张 32x32 彩色图像组成,每类 60
写在前面 在前面两篇博客中,我们初步介绍了MOT是什么,并且通过KITTI数据集进一步了解了多目标跟踪MOT,在这篇博客中,会介绍下述内容: 解决多目标跟踪MOT的一般pipeline 解决MOT问题的一般pipeline 总起 在前面的博客中,我们提到过多目标跟踪是一个典型的二部图问题,构建轨迹track和检测框bounding box之间的代价矩阵再利用匈牙利等算法求解匹配关
写在前面 上一篇博客我们简要的说明了什么是MOT,以及从KITTI数据集中MOT任务的标签构成出发进一步理解了MOT,然而,在KITTI数据集中怎样合理的评价MOT算法等等问题并没有给出答案,因此,在本博客将主要介绍如下的内容: KITTI数据集中的多目标跟踪MOT细节问题一二 KITTI数据集中的多目标跟踪MOT评价指标——HOTA KITTI数据集中的多目标跟踪MOT细节问题一
写在前面 由于笔者如今正在做有关多目标跟踪的相关科研项目,因此想先开一个有关多目标跟踪的新专题,好的,话不多说,直接来上干货,在这篇文章中笔者将介绍如下的内容: 什么是多目标跟踪 进一步理解自动驾驶中的多目标跟踪,以大牌数据集KITTI为例,讲述KITTI上的多目标跟踪同样的,学无止境,如有错误也欢迎大家指出~ 什么是多目标跟踪(MOT) 多目标跟踪英文:Multiple O
写在前面 虽然pycharm和vscode都可以使用远程服务器,但是笔者在写本文档时也属于入门深度学习的阶段,对于网上一些入门课程(跟着李沐学AI)需要跟着敲代码,并且想要显式的观看每一个函数之类的代码段的输出,因此就引出以下两个需求: 想要jupyter优质的交互环境 针对一些多卡训练课程,本地电脑的显卡资源无法满足,需要实验室的多卡环境 于是就想到了利用本地电脑远程访问实验室服
序 既然是日记形式的博客,那就不像技术向博客那么严肃,我们就以时间为序来讲述我参加的这次智能车竞赛吧 背景与动机 因为自己本身就在学校的机器人学院,因此也能很早的接触到各种各样的不同构型的机器人,比如水下机器人、无人机、无人狗、工业机械臂(协作的、工业的),其中我最感兴趣的还是无人车(这可能是男人天生对于车的爱吧),还要插一嘴的是,欢迎大家报考B6联盟之一,西南大学的取反——东北大学的机器人学院,
0 写在前面 本博客将介绍如下内容: 基于AMCL工具包,在已知地图上使用move_base实现机器人自主导航 实现机器人自主导航 1 基于move_base的自主导航 move_base move_base可以说是ROS中最主要的功能包之一,他的主要功能是提供机器人的自动导航功能,有关他的介绍可以参考文档,官方文档,以下是他的构造图:我们来看他的组成,AMCL部分在上一步已经串联起来了,传感
0 写在前面 在本博客中将书接上文,主要介绍: 机器人世界中的三种重要坐标系(odom、base_link、map) 在已知地图上使用AMCL实现机器人定位,为之后的自主导航做准备工作 在已知地图上使用move_base实现机器人自主导航 实现机器人自主建图 1 三种坐标系(odom、base_link、map) 在介绍AMCL和move_base这两个ROS功能包之前,应该有必要介绍一下机器
0 写在前面 在本系列博客中将主要介绍: ROS中的控制器插件 让之前博客中设计的移动机器人跑起来 使用博客中设计的移动机器人对我们搭建的gazebo环境进行建图 在已知地图上使用AMCL实现机器人定位,为之后的自主导航做准备工作 在已知地图上使用move_base实现机器人自主导航 实现机器人自主建图 在本博客中将先介绍1-3 1 ROS中的控制器插件 为什么要用控制器插件 Reason
0 写在前面 在本博客中将主要介绍: 利用系列(一)中我们搭建的移动机器人,即将Xacro语言编写的机器人集成至Gazebo仿真环境中 利用Gazebo作为物理环境平台,利用Xacro语言编写的移动机器人为载体,在Rviz仿真环境中上实现机器人感知世界显示 1 Gazebo与Xacro集成 目标 将本系列第一篇博客中的由Xacro编写的移动机器人集成至Gazebo仿真环境中
0 写在前面 在本博客系列中将主要介绍: 使用ROS系统中URDF模型建立语言设计一个两轮移动机器人 使用XACRO——这一衍生自URDF的更加高效的模型建立语言对URDF构建的机器人进行优化,并进行机器人的传感器功能实现 利用Rviz实现机器人感知世界的显示 这是笔者的第一篇博客,希望获得大家的喜欢,如有问题,不胜赐教,期待大家的赞与评论~ 1 URDF与Rviz集成 目标
抱歉,我没太明白,目标检测和gmapping构建地图之间好像没有什么关系,如果你想说的是如何将目标检测获得的物体坐标映射到全局地图中的话,只需乘坐标变换矩阵(可以通过监听TF获得)即可,即物体坐标(相机)->机器人本体base_footprint(base_link)->全局map
不是必须的,他主要是用URDF建立的机器人模型在Rviz中提供了运动驱动,与本文的建模关系不大
不用的,把xacro中的kinect模块改成ROS网站提供的相机模块就可以啦,当然在xacro文件的其他模块需要注意一下有没有与相机相关联的语句
大概是因为在kinect相机中获得的图像数据与激光传感器获得的点云数据使用了两套坐标系统,且两套坐标系统位姿并不一致,因此就会导致奇怪的彩色点云,调整一下坐标系位置即可,解决方案见文章呦~
大学生
积分
粉丝
勋章
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信