Opencv3从头开始(十)Harris角点检测如果某一点在任意方向的一个微小变动都会引起灰度很大的变化,那么我们就把它称之为角点 cornerHarris 函数用于在OpenCV中运行Harris角点检测算子处理图像 /* Harris角点检测 */ #include<opencv2/opencv.hpp> #include<opencv2/imgproc.hp
Opencv3从头开始(五)形态学操作之膨胀、腐蚀、开闭运算 腐蚀和膨胀是对高亮部分而言,对黑白图像效果更好一些,所以我们第一步让仓老师变成黑白的。图像二值化 //二值化 cvtColor(image,image_gray,COLOR_BGR2GRAY); threshold(image_gray,image_thre,125,255,THRESH_BINARY);
Opencv3从头开始(三)图像滤波基础-方框、平滑、高斯滤波滤波部分 /* ------------------------ 滤波相关,用于降噪、模糊 方框滤波、平滑滤波、高斯滤波 ------------------------ */ #include<opencv2/opencv.hpp> #include<opencv2/imgproc.hpp&g
Opencv3从头开始(二)图像线性混合看效果哦,给仓老师加点雪…主要用到addWeighted函数在进行线性融合时,记得要resize统一尺寸。 #include<opencv2/opencv.hpp> #include<opencv2/core/core.hpp> #include<opencv2/highgui/highgui.hpp> usi
Opencv3从头开始(一)图像读取、保存、显示 趁有时间把浅墨大佬的opencv入门重新理解一下,从头开始,有一起的小伙伴欢迎加入哦。主要内容为实战代码,带有部分理解。当然这次特地带上了仓老师一起学习。标配框架 #include<opencv2/opencv.hpp> #include<opencv2/core/core.hpp> #include<open
Tensorflow-SSD之原模型测试 今天下午尝试了一下tensorflow-ssd的模型,具体代码还没细读,调试了一番之后,把官方提供的ssd_300_vgg的模型测试了一下,感觉比yolo准确率高一些,下一步准备训练一下自己的模型,尝试对比一下。 以下代码来自网络,如侵权,联系我。图片测试代码: # -*- coding:utf-8 -*- import os i
深度学习之TensorBoard可视化 TensorBoard是TensorFlow下的一个可视化的工具,可以通过直观的图像显示出我们的训练过程,个人认为还是非常好用的。Tensorflow安装时应该是自带的,我这里是用的yolov3的训练,保存了loss和val_loss;使用方法很简单,在训练过程中保存过程日志,在日志目录下运行 tensorboard --logdir=./ 进入终
Tensorflow学习实战之VGG16猫狗大战迁移训练 继续跑深度学习Tensorflow的实战,今天的是VGG16的猫狗大战,整体结构框架由13层卷积和3层全连接层组成,对于对pthon不熟悉的我来说,整个搭建调试过程在于数据的写入处理,维度的变换,以及不同函数的灵活使用。整个过程,在两个地方卡住,第一个是训练时中途进程中断,修改了不少参数,均没有效果,最终找到的问题是数据集出现了问题,最开
Tensorflow学习实战之卷积神经网络CIFA10训练 数据获取 数据预处理 模型构建 优化器损失及超参 训练模型 模型保存及载入 结果可视化 趁着时间多,今天继续学习tensorflow的知识,以前只知道复现搭建配环境,没从基础只是开始,所以从基础知识开始学习,收获了很多,对深度学习的理解有了更加深入的认识。深度神经网络已经不能满足我了,今天是卷积神经网络
Tensorflow学习实战之mnist手写体识别 数据准备 构建模型 训练模型 评估结果 可视化显示 Tensorflow继续学习,今天是入门级的mnist手写体识别,改变前两次的线性回归,这次是逻辑回归,这样随之改变的是损失函数等Tensorflow里面有一个examples的MNIST的手写,直接运行会自动下载。训练了20次,效果还不错,慢慢的理解,把以前不懂得好多东西,
Tensorflow学习实战之全连接层和模型保存读取 全连接层构建 模型保存载入 Tensorboard游乐场 全连接层构建 构建了一个三层的神经网络,会发现重复工作太多,隐藏层的构建很相似,所以建立一个连接层,来代替重复的构建 #全连接层 def fac_layer(inputs,#输入数据 input_dim,#输入神经元数量
Tensorflow学习实战之多层神经网络mnist手写识别 数据准备 构建模型 训练模型 评估结果 可视化显示 输出错误预测 激活函数: sigmod函数为s型relu为修正线性单元函数tanh双曲正切 这里使用的relu激活函数,输出使用softmax多分类,中间使用了3层隐藏层,优化器使用AdamOptimizer,损失函数定义loss_function
Tensorflow学习实战之多变量预测 载入数据 归一化处理 建立模型 初始化 训练并显示结果 结果预测 用的不是波士顿的数据,8700+的数据,进行的训练,相关性不强,而且线性不明显,得出的效果不好要进行打乱数据,使用Shuttle,打乱顺序的原因呢,就跟人一样,你按顺序来,可能是按照某种规律,你可能会规律的去计算下一值,防止机器跟人一样找到规律,所以每一次要打乱一下
Tensorflow学习之单变量线性预测 数据准备 构建模型 训练模型 预测结果 tensorflow学习中,记录单变量线性y=w*x+b看图: 训练模型:通过有标签的样本来学习确定未知的权重和偏置训练过程中,尽可能地减少损失损失:对单个样本,预测的准确度L1损失:预测值和真值的差值L2损失,均方差MSE收敛:loss不再变化或变化极慢梯度下降:函数中某一点的方向导
Python之Socket实现PC与树莓派互动通信 应用场景:局域网内,PC端与树莓派通信,收发文件互动等。我这里做的是PC端发送信息,树莓派接收信息,完成互动,可继续扩展。可实现PC端控制无人机,其余自行扩展。 PC端 import socketprint(“客户端开启”)#套接字接口mySocket = socket.socke
Ros之Stereo_camera学习记录 Stereo_camera相当于一个双目摄像头,可以获取左右视觉的图像,这几天碰巧遇到,并与其发生了一些关系,记录下来,已备后面查阅。 具体内容如下: <sensor type="multicamera" name="stereo_camera"> <pose frame=''>0 0 -0.2
Ardupilot飞控固件的仿真模拟 主要写一下Linux上的仿真模拟环境的配置以及与windows端的地面站连接,仿真模拟不得不用,老早就想配置,一直无果,终究今天也算运行出来,写下来记录一下。上图: 主要参考官网和csdn魔城烟雨大佬的文章,再次跪拜。环境是window10+ubuntu虚拟机首先是安装必要的工具 sudo apt-get install python-dev
DroneKit与MAVProxy的通信与仿真验证 通过参照csdn大神沉迷学习的Roger,将搭建好的仿真环境MAVProxy,与已经和与飞控建立好通信的DroneKit两者进行结合,完成了整个的模拟仿真过程,先看一下结果图吧,具体操作方法如下: 以下过程的前提是建立在我以往帖子的基础上进行的,上篇文章讲了如何搭建一个MAVProxy的仿真环境,在这个基础上,运行之后,继续增加输
Ardupilot仿真模拟之Dronekit实现方向控制 由于在Dronekit中只有相关的simple_goto等通过Gps控制前进的命令,那么想要室内实现前后左右如何进行控制呢,先看仿真图 既然没有,那就只能找有的,在mavlink中提供了相关函数,所以就只好自己写一部分加进去,即可实现前后左右控制了。 以下程序仿照大佬Lin_QC的文章 def send_body_ned_v
Ardupilot固件之Flightgear模拟仿真 一直想做gazebo的无人机仿真,截至目前,ardupilot的gazebo总是跑不出来,偶然看到了Flightgear,装了下感觉还可以。首先确保你的SITL仿真完成,运行sim_vehicle.py会有结果。然后开始安装Flightgear sudo apt-get install flightgear 完成后进入你的ardupi
这个任务老早就开始配环境了,但是gazebo的仿真环境一直没有配好,搁置了许久,今日清晨,茅塞顿开,顺利完成gazebo的配置并完成键盘控制,记录一下,方便后面学习。 效果图:通过键盘控制无人机运动及起飞、降落等基本操作。 因为ardupilot仿真资料较少,官网提供了很大帮助,在gazebo仿真过程中,也是参考github官网的说明 ardupilot官网:https://ardupilo
PX4困扰好久,总是在编译出问题,最后不了了之。效果如下: 先给权限,然后注销 sudo usermod -a -G dialout $USER PX4固件编译 首先第一步,你要明白,PX4固件一直在更新,我在Github直接git的版本的是1.11,而当前编译一般停留在1.8、1.9版本,所以,固件源码下载一定要指定版本。我这里下载的是1.8版本。 git clone -b
未完成mavros安装及相关设置的参考上一篇文章Ardupilot之Mavros实现Ros节点控制(一) 这一部分写ros相关节点的设置首先要建立一个工作空间,具体看前面文章Ros机器人之(三)创建工作空间和功能包src中新建文件夹offboard offboard建立 cd src/ catkin_create_pkg offboard roscpp mavros geometry_ms
Ardupilot之Mavros实现Ros节点控制 Mavros安装 修改Mavros 运行Mavros 这部分ros发布的命令话题参考的是PX4固件最基本的Offboard_node节点,命令发布后,能够连接并解锁,但是无法起飞,这里应该是poses发布出去的位置有问题,这里下一步需要继续理解一下。整个过程有点长,我分成两部分下,先写环境配置相关的,下一篇写如何运行。 Mavr
PX4固件之Ros实现Offboard节点控制 这部分跟ardupilot固件流程没有区别。主要对Ros、Mavros、gazebo、Mavproxy等深入了解一下。首先运行Px4的gazebo仿真 cd Firmware/ sudo make posix_sitl_default gazebo 运行mavros roslaunch mavros px4.launch fc
Dronekit代码学习(一)连接及基础状态设置 目前Dronekit可自行设置的内容较少,但能满足基本使用要求。后面还是需要对Mavlink相关指令进行学习。 连接地址根据实际情况修改,官网如下:https://dronekit-python.readthedocs.io/en/latest/guide/connecting_vehicle.html Linux USB /dev/tty
Dronekit代码学习(二)基础状态实时获取 实时获取飞控当前状态 代码如下: 起飞5m后,读取飞机当前状态,返航,关闭连接。 # -*- coding: utf-8 -*- ''' --------------------------------------------------------------------------- 获取无人机基础状态信息 -
PX4之Gazebo多机仿真尝试 运行多机前,确保你的单机运行没有问题。Px4源码中已经包含了二机的仿真,运行以下命令: roslaunch px4 multi_uav_mavros_sitl.launch 修改Launch相关代码,实现四机仿真:模仿单机UAV1的写法,完成UAV1-4的编写。 <!— UAV1 —
Dronekit代码学习(三)控制无人机前后左右升降俯仰 控制无人机前后左右升降俯仰 代码如下: 起飞5m后,右5m,前方5m,升2m,返航,关闭连接升降是反的 # -*- coding: utf-8 -*- ''' --------------------------------------------------------------------------- 控制
GAAS学习(一)Offboard基本控制 开源项目GAAS:https://github.com/generalized-intelligence/GAAS 一、确保环境安装配置完成 ROSFirmwareMavrosGazebo及相关依赖 修改环境变量bashrc sudo gedit ~/.bashrc 添加如下内容 source ~/Firmware/Tool
GAAS学习(三)简单全局目标追踪 基于KCF简单目标追踪,方法如下: 编译KCF相关库 git clone https://github.com/generalized-intelligence/GAAS-Object-Tracking.git cd ./KCF mkdir build cd build cmake .. make -j6 1.运行仿真 ros
Darknet训练自己数据集之木材识别并计数 一直没有用Darknet训练过自己的数据,最近拿Yolov3尝试了一下,效果很好,记录一下。Ubuntu系统使用Darknet还是很方便的,如何编译就不说了,直接讲训练过程。这里用了60张木材照片,用来识别木材的数量 做好标注后,将img文件夹放进data目录下 将train.txt放进data目录下 将obj.names放进dat
目标检测keras-ssd之视频检测 在作者原代码基础上,添加了对视频及摄像头的检测,帧数在10左右,在自己的电脑上的话,比yolov3快一些,比tiny慢一些,效果还是不错的。 from keras.layers import Input from ssd import SSD import numpy as np from PIL import Image impo
昨天说到tensorflow-ssd的实现,在此基础上训练自己模型,无奈知识水平有限,只好转战keras版本,感谢大佬Bubbliiiing的博客和b站内容,受益匪浅,成功完成了自己数据集的训练。处理方式基本都是一样的,跟前面写过的yolov3的处理基本一样。SSD的主干网络是VGG,我在前面用过tensorflow训练分类,对于我这种入门选手来说,最大的难题不是搭建网络,而是调试过程中各
内容列表 数据集准备 数据集预处理 原demo修改 数据集训练 目标检测 补充 二零二零年的大年初一,给大家拜个年,祝大家鼠年吉祥,万事如意,趁着喜气,把Yolov3训练自己的数据过程,记录一下,共勉共进。 同样,无人机搭载山狗拍摄的视频,目标检测的种类是模型tank和airplane,部分效果图镇贴: 数据集准备 首先需要将自己的数据集准备好,不同场景
深度学习目标检测之YOLOv3实战(一)原Demo复现 环境配置 框架及权重下载 原代码复现 单类物体识别 怀着异常忐忑的心情,写下第一篇博客,记录一下自己在图像识别方面的心路历程,与大家分享共勉,交流进步。在寒假放假的最后一天里,把在深度学习实现的第一个模型YOLOv3,从环境配置到原模型复现再到训练自己的数据,全部过程记录下来,方便入门的同学,也希望自己在总结中得到进步。关于
Yolov3_tiny之口罩快速检测数据集获取配置修改训练模型检测结果因为需要配置一个轻量化框架,原来使用的yolov3跑起来在10帧左右,运行不是很流畅,今天又重新配置了一下yolov3-tiny版,运行检测帧在20左右,效果不错,也把近期比较热的口罩检测实战一了下,效果还可以。先看结果和帧数: 数据集获取 数据集大约在500个,通过下载的小视频,然后写了几行代码截帧完成的,完成后放进JPE
深度学习目标识别之C语言调用 使用C语言对深度学习的模型进行调用,而可能是很多人目前需要的,因为使用C语言,更能满足日常开发需要,也更容易移植到到QT进行页面搭建。程序已经完成好久了,一直没有更新这个程序,但今天想使用这个程序时,提示调用DNN的一个函数未定义,绞尽脑汁,调试了整整一天,毫无结果,环境都重新配了一遍还是不行,最后终于还是解决了。错误提示:未定义标识符:DNN_BACKEND_OP
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信