论文一 Cluster Contrast for Unsupervised Person Re-Identification 主要贡献 优化了memory存储的东西,仅存储聚类每个类别随机挑选的一个特征 更新memory的时候挑选最难的样本更新对应类的特征 USL任务的主要流程 在ImageNet上训练网络来提取特征。 使用kmeans或者DBSCAN聚类生成伪标签 用对比损失就算query
论文 Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID 主要贡献 提出Hybrid memory混合记忆模型 在无监督方法中将聚类得到的异常值也加以利用 提出统一对比损失 提出聚类可靠性评估方法 Pipeline 初始化1:在ImageNet上初始化cnn编码网络F 初始化2
论文 MUTUAL MEAN-TEACHING: PSEUDO LABEL REFINERY FOR UNSUPERVISED DOMAIN ADAPTATION ON PERSON RE-IDENTIFICATION 解决的问题 通俗说: reid任务在实际的使用中,即使是用大规模的数据集训练好的模型,如果直接部署于一个新的监控系统,由于领域差异会导致效果明显的下降。 无监督领域,行人重识别
[gazebo-2] process has died [pid 11510, exit code 134, cmd /opt/ros/kinetic/lib/gazebo_ros/gzserver -e ode /home/xmy/smartcar_ws/src/smartcar_description/worlds/smartcar.world __name:=gazebo __log:=/h
报错消息:Invalid roslaunch XML syntax: mismatched tag: line ××, column ××我的launch文件如下: 仔细一看发现第13、第14行的arg标签少了结束标签,所以加上即可。。。
前言 上一节实现了车道线的识别,以及设计了算法获取车道线位置,这里参考:项目地址的算法思想,做了一些改动设计的车道线拟合。 算法思想 首先通过上一节的实现我们得到了下图样式的车道线: 因此我们编写的车道线拟合函数的输入自然就是这张图。首先记录下不考虑连续帧的情况的算法思想:首先对图像做对半的分割理想的车道线是左线和右线,然后在我们图像的左右两部分,分割代码: midpoint = np.int(
前言准备在欧卡2实现无人驾驶,第一步使用paddlepaddle框架的paddleseg模块对车道线语义分割。 语义分割数据集本文采用的数据集是tusimple数据集,图森车道线检测数据集。下载地址:传送门对数据集做了一些简单的处理,记录原始图像和带标签图像的文件路径关系。数据集样例: paddleseg这是百度深度学习框架推出的语义分割模块,集成了很多大佬写好的模型,只需要直接配置就可以
前言 ReID,也就是 Re-identification,其定义是利用算法,在图像库中找到要搜索的目标的技术,所以它是属于图像检索的一个子问题。为什么会有这个方向呢?来看大背景:随着社会的发展,公共安全成为全社会的一个共同话题,与之相辅相成的视频监控系统也得到了大量的普及。视频监控系统可以直观的再现目标场景,可作为公安侦破案件的强力辅助。在执法部门的工作中,目标的识别和定位是及其关键的一步,然
在增强学习的世界,我们相信如果输入是确定的,那么输出也一定是确定的。试想一下,有一个机械臂在练习掷筛子,以掷出6点作为目标。但是如果无论机械臂如何调整其关节的角度及扭矩,掷出的点数永远是随机的,那么无论如何也不可能通过算法使机械臂达成目标。因此,增强学习算法要有用,就是相信在增强学习中每一次参数的调整都会对世界造成确定性的影响。 未完待续…哎开学了静下心学习的机会不多了呀~ 神经网络方法求解RL为
表格法求解强化学习强化学习MDP四元组<S,A,P,R>s:state 状态a:action 动作r:reward 奖励p:probability 状态转移概率 MDP全称马尔可夫决策过程,即系统的下个状态只与当前状态信息有关,而与更早之前的状态无关,这叫做马尔可夫性质。 如何描述环境 如果P函数和R函数都确定了,那么可以说该环境是已知的了,就可以使用动态规划的方法去计算概率最大的最优
基础 高等数学 线性代数(向量空间的变换思想) 概率与数理统计(期望,方差) Python:numpy 神经网络 强化学习 RL主要分为两部分: agent智能体environment环境通过这两部分的交互产生经验,主要有三要素: state状态action动作reward奖励智能体根据环境state来执行动作,并且根据环境的反馈得到reward来指导更好的动作。 两种学习方法基于价值基于策
前言 本文开源代码地址:https://github.com/PaddleEdu/OCR-models-PaddlePaddle/tree/main/PSENetaistudio在线运行地址:https://aistudio.baidu.com/aistudio/projectdetail/1945560 论文分析 该论文解决了什么问题? 首先文字检测一般有两种方法:1、 基于回归的方法,定位文字
代码地址https://github.com/xmy0916/DLNetwork 简介 GoogLeNet是2014年谷歌团队提出的,获得当时ImageNet竞赛分类任务第一名,该网络名称的命名中字母L大写为了致敬LeNet的工作。 重点 1、 引入Inception结构,可以融合不同尺度的特征信息。2、 使用1 * 1的卷积核进行降维以及映射处理。3、 添加两个辅助分类器帮助训练。4、 丢弃全连
代码地址https://github.com/xmy0916/DLNetwork 简介 参考:https://blog.csdn.net/weixin_42546496/article/details/87915453VGGNet论文给出了一个非常振奋人心的结论:卷积神经网络的深度增加和小卷积核的使用对网络的最终分类识别效果有很大的作用。VGGNet由牛津大学的视觉几何组(Visual Geome
==代码地址==https://github.com/xmy0916/DLNetwork 简介 AlexNet首次在大规模图像数据集实现了深层卷积神经网络结构,点燃了深度学习这把火。其在ImageNet LSVRC-2012目标识别的top-5 error为15.3%,同期第二名仅为26.2%,碾压其他传统的hand-craft 特征方法,使得计算机视觉从业者从繁重的特征工程中解脱出来,转向思考能
代码地址https://github.com/xmy0916/DLNetwork 简介 Resnet在2015年由微软实验室提出,获得当年ImageNet竞赛中分类任务的第一名,目标检测第一名。获得coco数据集中目标检测第一名,图像分割第一名。作者Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun等大佬,经常在很有名的深度学习文章中出现~并且ResNet
代码地址https://github.com/xmy0916/DLNetwork 简介 LeNet5诞生于1994年,是最早的卷积神经网络之一,并且推动了深度学习领域的发展。自从1988年开始,在多年的研究和许多次成功的迭代后,这项由Yann LeCun完成的开拓性成果被命名为LeNet5。 重点 局部感受野(local receptive fields):基于图像局部相关的原理,保留了图像局部结
前言 上一篇博客:ros机器人编程实践(16.2)- 仿真SmartCar之模型“飞起来“ 上一章我们将模型导入到rviz中并成功的动起来了,但是rviz软件环境主要是用于数据可视化的,处理数据比较方便,真实环境的模型仿真还是需要在gazebo中进行。 urdf文件讲解 我们之前在16.1中配置的urdf文件只配置了模型的链接方式和形状颜色,只有
前言 上一篇博客:ros机器人编程实践(16.1)- 仿真SmartCar之搭建模型 上一章已经成功搭建SmartCar模型,这一章在基础上做一些优化,并让他跑起来 准备工作 安装arbotix功能包,用于发布速度命令并执行 sudo apt-get install ros-kinetic-arbotix 安装joint-state-publ
前言 之前用turtlebot仿真过巡线机器人,但是turtlebot略显笨重,为了纪念下本科参加的飞思卡尔,尝试着做一套ROS的仿真SmartCar。 创建工作空间 创建工作目录,工作空间为SmartCar_ws,资源文件夹src mkdir -p ~/SmartCar_ws/src 初始化工作空间 cd ~/SmartCar_ws/src
前言 上一篇博客:ros机器人编程实践(15.2)- 使用科大讯飞语音控制turtlebot导航 在上一篇博客中我们已经实现了语音控制turtlebot导航,这一节尝试实现turtlebot语音播报。 科大讯飞的语音合成测试 安装教程在这:传送门 rosrun xfei_asr tts_subscribe_speak rostopic pub xfwords std
一、前言 接上一篇博客:ros机器人编程实践(15.1)- 使用科大讯飞语音控制turtlebot导航 二、使用科大讯飞语音SDK 对着上一篇博客中科大讯飞的安装教程,创建了robot_voice的基于roscpp的包创建robot_voice包教程。科大讯飞sdk的安装教程那位博主写了四篇博客介绍已经很详细,就不累述了。 2.1 测试语音识
一、安装 语音识别安装参考文章:安装教程 二、准备工作 如果没有安装turtlebot3的话需要先进行安装,可以参考我前面的博客:传送门 2.1 机器人位置初始化 本节博客要做的是利用科大讯飞的开源语音识别来导航turtlebot,也是展示服务机器人最基本的功能之一吧,那么要做到人工智能,像我在《ros机器人编程实践(7)》中写的使用rviz的2D pose Estimate来人工标定机
前言 这一节玩一玩ros中的fetch机器人,和它相似的是pr2机器人,pr2有两条胳膊。 fetch: PR2: fetch相关资料 http://wiki.ros.org/Robots/fetch http://docs.fetchrobotics.com
前言 接上篇博客:ros机器人编程实践(12.1)- 用turtlebot仿真巡线机器人 巡线设计 用自定义的图片设计gazebo的地板 首先我们需要设计一个gazebo的地板,这里感谢前辈的回答:参考问答 第一步:在home目录下ctrl+h显示隐藏文件 第二步:在.gazebo文件夹创建如下文件夹 &
前言 因为我做《ros机器人编程实践》书上789章之前用的turtlebot3实践的,turtlebot3用的是激光雷达传感器,12章的巡线机器人用到了深度摄像头,所有无奈又只好装了turtlebot第一代来实验。 ros:kinetic Ubuntu:16.04.6 gazebo:7.0.0 安装turtlebot 先感谢下前辈,参考装ga
前言 本文讲解如何在游戏欧卡2中使用深度学习框架实现无人驾驶,为什么选择欧卡2?虽然ROS中也有真实汽车的仿真环境但是世界场景过于简单,而游戏欧卡2完全是80%的程度还原了欧洲交通以及城市道路、农村道路、高速路等,车辆以及环境和物理引擎都比较完善,最重要的是所有的交通规则都在游戏里复现了,所以在游戏中研究算法也是不错的选择。 项目地址 github地址:觉得不错点个star呗,持续更新i
前言 注意:因为版本原因没能成功操作R2,还在探索阶段,这里只是记录安装过程。 NASA的R2机器人已经在空间站成功的部署了,可是这个开源机器人在ros平台上的资源很少,估计都被人遗忘了,R2机器人拥有两条机械臂以及人形的外壳,对于初学ros的人来说应该是非常有吸引力的,今天参考书上的例子尝试下R2的操作。 实验
前言 本文目标,史上最全,入门最简。工程链接:下载地址 这一节参考书上的例子,用gazobo仿真开源项目turtlebot3,我的环境是ubuntu16.04,kinetic版本ros。 (1)创建工作区以及包 创建wanderbot_ws工作区 mkdir -p ~/wanderbot_ws/src cd ~/wanderbot_ws/src catkin_init_workspa
前言 《ros机器人编程实践》第六章机器人与仿真 子系统概念 子系统:机器人通过建立子系统的方法来简化设计和分析过程。 执行子系统:直接与机器人轮子或者机械臂交互 感知子系统:直接与传感器交互 计算机系统:将执行子系统和感知子系统连接在一起,并通过数据处理,让机器人完成一系列任务 执行子系统 移动平台 机械臂
前言 《ros机器人编程实践》— 第五章动作的定义。 前面尝试了定义自己的消息类型和服务,接下来是定义动作。服务只适用于及时响应的消息类型,和编程的函数基本类似,有自己的输入输出。但是在解决机器人运作问题上服务显然就不够用了,就好比投篮,我们用服务来写只能做到写好一个服务将球投出去,至于球在空中的轨迹,是否进球框就不得而知了。而动作的话可以做到将球投出去,等待球进框或者没进框又做下一步的决
前言 前面一章已经完成了turtlebot3的仿真操作以及slam导航,这一节将实现脚本控制turtlebot3在多点之间来回导航。工程链接:下载地址 实现过程 启动环境地图 roslaunch turtlebot3_gazebo turtlebot3_world.launch 利用上一章所讲的建好的地图导航并打开rvi
前言 在ros中定义一个服务,计算字符串中单词的数量 实现过程 1、创建服务WordCount.srv 1.1、进入basic包: cd ~/catkin_ws/src/basic/ 1.2、创建srv目录: mkdir srv
前言 《Ros机器人编程实践》第三章例程二定义虚数数据类型。 实现过程 创建工作区参见上一章博客: ros机器人编程实践(3.1)-将消息发布在话题上 先看下basic包的文件结构: cd ~/catkin_ws/src/basic ls tree ok下面开始操作 1、
前言 记录下学习过程,《ros机器人编程实践》第三章第一个例子讲的不是很清楚,又是入门学习的算是第一第二个例子,对新手真的很不友好。 实现过程 1、创建catkin工作区(这部分不清楚可以在wiki上看详细介绍): mkdir -p ~/catkin_ws/src cd ~/catkin_ws/src
前言 系列教程一:仿真赛教程一 系列教程二:仿真赛教程二 相关教程:mit_racecar仿真教程 github项目地址:点个star呗,比完赛更新代码 base_footprint发布出错问题解决方案 这个问题的根本原因是官方车模和mit的车模的基准名字不同,mit_racecar是base_link而官方车模是base_footprint,那么聪明的你还没想到最最最简单的解决办法吗……修改官方
前言 上一节教程地址:室外光电仿真教程一 参考教程地址:https://www.guyuehome.com/6463 参考项目地址:点个star呗,都是免费教程 关于运动控制器 官方车模关节名字不同,你其实只需要把我的racecar包里面的racecar_control文件夹拷到你新建的工程下即可,然后修改一下画框内容适配官方车模: gedit ~/smartcar_ws/src/racecar_
前言 今天推出了官方的仿真文件,我也参与了部分仿真模型的设计,提供一个简单的参考思路。 模型下载地址 https://pan.baidu.com/s/1TFBTbCeyQMuKnxemCbyNSw 提取码: crm5 安装依赖工具 sudo apt-get install ros-kinetic-controller-manager sudo apt-get install ros-kinetic
前言 第一节:基于paddledetection在ROS中搭建红绿灯检测控制车模运动(1)—— 环境搭建准备以及软件安装第二节:基于paddledetection在ROS中搭建红绿灯检测控制车模运动(2)—— 数据集制作以及训练第三节:基于paddledetection在ROS中搭建红绿灯检测控制车模运动(3)—— 使用训练结果在ros中仿真红绿灯控制小车运动 项目地址 训练部分aistud
前言 本来想直接用百度智能车比赛的数据集训练,但是发现在ROS中搭建红绿灯模型和提供的数据集在颜色亮度外形上都有点差别… …无奈从创建数据集开始。第一节:基于paddledetection在ROS中搭建红绿灯检测控制车模运动(1)—— 环境搭建准备以及软件安装第二节:基于paddledetection在ROS中搭建红绿灯检测控制车模运动(2)—— 数据集制作以及训练第三节:基于paddledet
前言 本节教程演示UUV的一些玩法,基于开源项目UUV,官方介绍文档:uuvsimulator 仿真环境 系统:ubuntu16.04 软件:ROS - kinetic 仿真:gazebo7 安装仿真软件 官网介绍目前支持的版本有三个:kunetic、lunar、melodic 安装命令: kinetic版本:sudo apt install ros-kinetic-uuv-si
前言 本文所使用的仿真软件是开源的Rotors包,仅供学习使用!然后这里说明下,只是个人爱好仿真下无人机玩玩,对官方给的无人机控制代码理解的也不是很深刻,大家可以自己摸索摸索自己开发,这里会提供大家下载安装教程以及我已经尝试过的玩法教程,后续可能会继续更新。 项目官方github地址:rotors项目地址 我的github地址:我的项目地址 安装rotors 首先创建工作区间: mkd
一、前言 之前的教程使用Python代码实现了四轮车的巡线,阿克曼模型确实在方仿真上效果都好多了,今天教大家将代码从python修改成cpp的,毕竟嵌入式程序还是以c语言为主,可以更好的移植到单片机上。修改代码这件事当然有个编译器的提示可以让我们达到事半功倍的效果啦,所以先讲解安装vscode这强大的ide来编写cpp代码。 二、安装vscode 2.1 安装Ubuntu make s
一、先看效果 [video width="854" height="480" mp4="https://www.guyuehome.com/Uploads/wp/2020/04/effect2.mp4"][/video] 二、导入地板模型 这个我之前的教程里面有,参考这里: 北邮智能车仿真培训(三)—— 给车舞台让它驰骋 只需要把my_ground_plane放到了.gazeb
一、前言 操作系统:ubuntu16.04 ROS版本:kinetic Gazebo版本:7.0.0 本文介绍在MIT的racecar模型基础上搭建slam,仿真实现2019年室外光电创意组比赛。 二、效果 [video width="1920" height="1080" mp4="https://www.guyuehome.com/Uploads/wp/2020/04/Fina
前言 前面的教程基本上是常规组别的,主要用于给大家写下摄像头的算法然后体会下PID,今天的教程是面向室外光电创意组的,从2019年钢铁侠科技公司赞助了100台车模开始有了这个组别,这也是智能车向人工智能领域迈进的一步,这个教程理论上也可以用来处理深度学习组别的比赛仿真。真实比赛的车模用的是阿克曼车辆模型,但是在仿真中不太好搭建… …尝试了用MIT的racecar来仿真但是他的教程有点少没太整明
前言 上一节:北邮智能车仿真培训(七)—— 使用c++编写程序 这一节实现两轮平衡车的仿真,工程还是在之前的基础上搭建的。 模型包含:两个驱动轮、摄像头、陀螺仪、车身 搭建模型 一会将SmartCar2.urdf和findline.cpp和smartcar_display_gazebo2.launch文件上传到群文件中。 群文件中的smartcar2.7z 百度云:链接
前言 上一节:北邮智能车仿真培训(六)—— 修改模型参数 前面的所有教程已经完全足够你上手修改模型和自己写Python脚本来驱动小车了,这里因为单片机主要还是支持c语言,所以这一节讲下用c++来驱动。 注意!这一章节由于我debug过程略微有点曲折,可能中间细节没记录,大家有问题在评论区留言,我会提供解决方案!!! 创建cpp程序包 cd ~/smartcar_ws/src cat
前言 上一节:北邮智能车仿真培训(五)—— 数据可视化工具的使用 前面的博客基本讲解了怎么将车模部署到你们的电脑上,有些同学可能会有一定的修改模型的需求,比如调整摄像头的角度什么的,这里讲解下如何修改。 修改摄像头参数 细心的你可能发现了,我建的模型就只是一个urdf文件,所有的修改在这里面完成即可。 gedit ~/smartcar_ws/src/smartcar_descrip
前言 上一节:北邮智能车仿真培训(四)—— 仿真原理详解 这一节讲解下ros的画图工具的使用,可以很直观的观察我们的数据,也可以很方便的调试我们的代码。这一套ros的教程对于想参加ROS室外光电创意组的小伙伴也可以起到一个入门的作用,不过真心想参加室外光电创意组的建议看一下我博客里的ros编程实践那些文章,多尝试几个开源的ros平台会有更深刻的理解。 rqt_plot使用介绍 这里
前言 上一节:北邮智能车仿真培训(三)—— 给车舞台让它驰骋 这一节主要介绍下ros常用工具和上一节控制小车的python脚本内容。看会了,你就也可以修改代码啦。 ROS通信机制 简单说下ros的通信机制,ros是通过节点将整个网络互联的,节点间数据传输是TCP协议。 这里用淘宝做比方,淘宝的商家看成节点,每个客户也看成节点,淘宝的商家会在自己的店铺发布物品,那么物品就有对应的
前言 上一节:北邮智能车仿真培训(二)—— 搭建仿真模型 这一节内容如题,搭建跑道,并让车寻迹,至于是驰骋还是龟速,就看你了。 搭建跑道 怎么搭建也不是重点,这里直接拷贝我的包吧。 · csdn资源:点这里· 北邮智能车的群文件 下面几步注意一下,小朋友们~ · 来到home目录下,如图: · 按ctrl + h显示隐藏文件如图: 看到了吗多
一、前言 上一节:北邮智能车仿真培训(一) 这一节直接讲解模型怎么安装到你的电脑,先让模型动起来,后续再慢慢讲原理 二、创建ROS工作区 所有命令都在终端输入,ctrl + alt + t可以打开新终端 2.1创建smartcar_ws和src文件夹 mkdir -p ~/smartcar_ws/src Tips: · src文件下以后可以存放我们所有的资源·
前言 17年参加北邮智能车双车组,18年加入北邮机器人队,19年参加北邮智能车室外光电创意组,感触最深就是北邮机器人队和智能车队的传承,留点东西下来希望能帮大家快速入门,也希望北邮机器人和智能车都能取的好成绩。 预计效果 安装Linux双系统 仿真环境搭建在Ubuntu16.04上,这里我装的是双系统,虚拟机当然也可以,要注意的就是Ubuntu的版本最好一致,省的出现很多版本
https://github.com/xmy0916/ros_package翻翻吧,代码都存这了
18.04可能不适配
百度百度吧,ubuntu是16.04么
这...你都在wanderbot_ws/src这个路径下了还要cd进去干嘛?
这个被废弃了,没人维护了,当时各种都试了解决不了
少装了包
少了包
检查下报错,估计是少装了相应 得包,比如controller之类得
gazebo 7.0.0
moveit里面处理的吧
感谢~可以关注github地址,还在更新
啥意思
真棒!
仔细检查下关节的名字改对了嘛
有啊,有一个参数设置true还是false就行了,你看我github项目的commit,有一个版本我把蓝色的激光关了找找那个文件
你没source环境变量吧?
比完赛会开源一份
哈哈哈暂时没有咯,我没参加比赛组委会老师让帮忙写写教程的,只有这些基础的啦
我觉得你说的有道理,考工程配置很没有意义的,而且这些都是参考去年开源代码写的,大家手上都有代码的
rqt_tf_tree看下你的tf树odom和base_link是不是断了
没装阿克曼消息,看我的github底下的readme有安装命令
您好,请教下这个流水线是怎么做的呢?
这个不调应该也行,仿真里的我也没跳过,如果你想调,首先你得测速,然后观察当前速度逼近你发布的目标速度的曲线,根据响应快慢以及曲线在你的目标速度附近的震荡来调节pid
amcl仿真车配置和实体车是一样的
没事,写个try except就好了
csdn都是抄的
看看摄像头处理完的mask图像是不是有问题
古月居老师网站论坛开放了,可以在论坛发技术问题帖子,可能是古月老师本尊答疑解惑,比较nice~
把你建图的odom话题改改base_link或者base_footprint试试
检查自己发布的速度角度是否有问题,自身定位是否准确,是否走到了规划的路径点上,规划的路径是否正确
你这代码的活,看懂了代码自己检查吧,代码不都开源了么,比赛不就比这个
rostopic 检查话题发布者和接受者连接上了么,话题上有消息么
看仿真教程二
~/racecar_ws/src/racecar_gazebo/scripts/gazebo_odometry.py这个文件的base_link改成base_footprint
今年车模我在建图也有这个问题,给你几个参考,我试了很多次差不多能用,方法一:建图的时候调高模型的激光雷达和imu发布频率,修改激光雷达的范围,官方模型给的是360度实际上只要车前方就行。方法二:使用hector包建图效果也会有很大改善
grep -r “base_link” . 上面这个命令查文件夹所有文件关节字,你自己查查吧
这个我也不知道,底下也有人出现gazebo和rviz不匹配的问题,但是我电脑上重建工程下载我的github代码直接跑是没有这个问题的我都试过好多遍了,很多小伙伴也跑成功了,你可以考虑检查下版本的不一样的问题
grep -r "关键字" . 上面这个命令查文件夹所有文件关节字,你自己查查吧
感谢
description文件夹下的urdf里面
他的模型基准是base_footprint不是base_link,你找找哪里少改了
我试了使用gmapping建图效果好像不太行,地图会重合,odom在跳跃也不知道啥原因,试了hector建图效果就好多了,可以尝试配置hector~
加油呀,还挺费劲的配置环境,我跟庄园老哥推荐了上传配置好运动控制器的代码但是好像说不过他们哎~
关于这个odom坐标我也不是很理解,最近看rviz的时候发现rviz的机器人tf里面是有这个odom的,在tf树确实没有,然后看了下mit racecar的源码实在gazebo_odom.py里面发布的这个odom的坐标
你是在弄智能车吧?他那个文件的基准是base_footprint我那个是base_link,你找找哪里漏了改了
没太理解你的意思,teb规划的速度和方向在纯路径追踪算法里是没用上的,春路径追踪是根据全局路径规划的速度和方向,如果你想要teb规划的速度需要做一个消息类型转换,而且/vesc/low_level/ackermann_cmd_mux/input/navigation这个话题不是速度相关的输出吧?
检查下有没有报错哦,我这里没碰到过这种情况
好的这个警告我看到过,但是没有什么影响就没处理了,可以在launch文件里面加个tf静态发布应该就没问题了
试试这个吧sudo apt-get install ros-kinetic-rtabmap-ros
哥哥们这种问题大概率是少了包,上wiki百科问问吧,我也不是ros开发人员......可以试试这个sudo apt-get install ros-kinetic-rtabmap-ros
你是启动不了仿真环境么
地图都没加载成功建图肯定报错呀
可以用teb的,我对这个没怎么研究,看到有现成的路径追踪代码就直接用了
还解决不了你上ros_wiki去提问吧
检查下你这个路径是不是对的
rviz和gazebo用的是同一个xcrao或者urdf,但是gazebo中显示的外观属性和物理属性实在.gazebo中另外配置的
?你看你识别的结果是不是跑道中心呗......用opencv的函数画个圈或者做个标记啥的
你看看激光是不是被遮挡了,车体前方有个白色是深度摄像头,我调过他的高度,如果挡住了激光雷达的前面就会认为前方有障碍规划不出路径
D* 在move_base里面
全局路径规划用的是D*算法,在move_base包里面,接收rviz中2D Nav Goal命令的话题是/move_base_simple/goal,你可以检查下你的这个话题接收是否正确,大概率问题出在move_base包什少装了什么软件包
apt-cache search ros-kinetic这个命令可以查看ros所有的包,然后用grep匹配下关键字搜搜看看
参考底下的其他人的评论里有解决办法
一般原因为下位机arduino连接不上,arduino固件受损,激光雷达连接不上,激光雷达内部出错等等。检查下激光雷达的话题有输出嘛,有一个版本的代码激光雷达数据被我不小心关了
你是不是没有安装move_base啊,试试sudo apt-get install ros-kinetic-move-base
你检查下点击发布导航命令后终端有没有报错吧,然后搜索对应的错误信息,你这说的我真不知道什么情况,我也没碰到过呀,而且我上传的代码本地是能跑的,实在不行你下载一下我之前commit的版本试试
这是gazebo版本的问题哦,可能是gazebo在melodic下安装的版本废弃了这个函数,需要修改gazebo源码,改不来你就版本降级吧。我之前装nasa_r2的时候就碰到了这个问题他用indigo的ros装的gazebo版本很低用不了。
没碰到过哦自己百度百度吧试试sudo apt-get install ros-kinetic-teb-local-planner ?
那不是我写的哦这你估计得去mit racecar的github的issue里问问了,或者你自己研究研究吧
没有哦
我看了rviz打开是有的呀,话题是这个:/move_base/TebLocalPlannerROS/teb_poses,虽然我不太懂这个是干嘛用的
如果没有的话你看看修改下hukoyu激光雷达的gazebo配置添加对应的话题啥的,参考你用过的有粒子云话题的配置文件看看有啥不一样的地方
rviz中点击ADD添加PoseArray,然后勾选对应的话题试试,然后保存rviz配置
你可以检查下你电脑gazebo底下有一个仿真时间和实际时间的比例系数,可能是你电脑性能不行,程序里已经写好了寻线的代码,你可以自己参考的修改参数新增算法,我也就是帮你弄了个仿真平台,怎么提速是你自己的事,这不就是比赛的目的么。。。。。。
不该吧....我上传的代码跑完就50s最多了
可能我敲错了,有空再改过来
显示问题已经修复了,可以git clone下载代码,原因是我保存的rviz配置文件和提供的仿真包不匹配,话题的名字多了/racecar
我代码里面写了两个launch文件一个是开启仿真环境不开启导航功能(racecar_runway.launch),这是给建图用的,还一个是开启导航和仿真环境这个是给自主导航用的,你是不是启动了racecar_gazebo包下的racecar_runway_navigation.launch文件建图呢?
我最近看一些资料看到如果你建图的同时开启了amcl就会有两个定位信息,从而导致小车在rviz闪烁的问题,仅供参考
重新git clone下代码,然后controller报错有关参考github工程下的readme文件有解决办法:https://github.com/xmy0916/racecar,可以关注下github仓库代码的更新和说明文件
抱歉,前段时间在忙毕设,弄之前写四轮的博客把激光雷达给关了。。。所以收不到雷达数据建不了图。。。。~/racecar_ws/src/racecar_description/urdf/racecar.gazebo在这个文件中61行改成false即可。。。我傻逼了
检查识别的跑到中心是否正确,看下二值化的跑道是否正确,调试参数
少了其他包类似安装即可
少了ackermann_msgs这个包,sudo apt-get install ros-kinetic-ackermann-msgs
实在建不了直接用我留在工程里面的map目录下的图呗,反正都一样的
rviz打开后拖到左上角找找?我这里是有的,参考此博客第六节第一张图
太强了。。。全整明白可以试着手写gazebo了
抱歉,不清楚哦,我用的是kinetic的ros
复杂的模型可以用solidwords画好然后导进来
全更新在这了,弄完毕设可能有空会再发点博客在这
HSV过滤的白色的v_low从221改成100效果更好
抱歉,没有研究过
蓝色激光被我关了,你可看github上我的commit日志那个关闭gazebo激光的文件里面找找一个参数改成true就行了
应该是我之前保存的rviz的一些配置无效,rviz不会显示小车。不影响建图呀......我就没改了,你可以自己打开空的rviz然后生成新的.rviz文件然后看你想要啥功能就打开啥功能
double low_H = 0; double low_S = 0; double low_V = 221; 这里low_v改成100过滤效果更好
你的gazebo崩了。建议升级gazebo版本
古月老师给开个智能车竞赛仿真板块呗可以把问题汇总到论坛省的大家在我的博客底下找评论参考^ – ^
古月老师v587
你的陀螺仪话题的发布频率改了100HZ嘛???官方写的是10HZ,这里要改过来
去年车模的rf2o文件里面的里程计融合逻辑上不适合现在的车模,需要做一点点修改
古月居优秀创作者
本科毕设做的ROS,很久不弄了~当前在探索的领域:机器瞎学 人工智障 模式混淆 数据掩埋 计算机幻觉 劝退系统。
积分
粉丝
勋章
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信