描述 Cmake工程指定依赖库的搜索路径,比如系统中有两个opencv版本,分别安装在不同路径下 比如,一个在 /usr/local下,另外一个在/home下,两个版本不同 那么如何使你的Cmake工程,使用指定opencv版本呢 方案 在CMakeLists.txt中这么写 set(xxx_DIR "xxxConfig.cmake文件所在的路径") 举例如果我想使用安装在某路径下的opencv
前言 本文开源代码地址:https://github.com/PaddleEdu/OCR-models-PaddlePaddle/tree/main/PSENetaistudio在线运行地址:https://aistudio.baidu.com/aistudio/projectdetail/1945560 论文分析 该论文解决了什么问题? 首先文字检测一般有两种方法:1、 基于回归的方法,定位文字
去年参加魔方机器人大赛,今年又一如既往的参加了,期间其实有很多东西没有完全搞懂,在这里我自己给自己温习一下,顺便给大家分享一下自己的所得和感悟,希望能够给你一些帮助。我们队去年的魔方还原时间大概在14s左右,今年应该可以进6s。在我负责的视觉方面,可以做到在180ms内使用四个摄像头完成六个面的采集,并对颜色进行分类;
参考)YOLOv2训练自己的数据集(voc格式)进行实验,基本上是正确的,但其初始给出的代码并非是在linux下可以运行的,因此参考部分博客写了下面的程序,可以实现对文件夹内图片的批量读取以及更改名称符合VOC数据集习惯。另原文有部分小错误,本文已经修改,但后文属于转载,版权属原作者所有,本文仅为记录和交流用。如下文所示。 1 准备数据 首先准备好自己的数据集,最好固定格式,此处以VOC为例,采
图片概览 KS2A242摄像头 摄像头摆放方式 遇到的问题 在我刚开始驱动这个摄像头的时候的python程序长这样 self.cap0 = MyThreadCapture(0, CAPTURE_FRAME_WIDTH, CAPTURE_FRAME_HEIGHT) self.cap1 = MyThreadCapture(1, CAPTURE_FRAME_WIDTH,
目前,在网上大部分实现手势识别的算法,都是基于肤色检测和凸包检测。此算法虽然运算速度较快,但最大的弊端就是对手势背景要求较高(也就是说只要背景有跟皮肤类似的颜色出现,就很难将手势分割出来),抗干扰能力较差,且人体其他部位(如头部)对算法实现的影响也比较大。基于此,本文主要采取openpose中手部20个关键点检测,通过比较各个关键点之间的位置关系,来实现精度较高、抗干扰能力较强的手势识别算法。 o
第一部分:泰勒公式在高数中,引出相关需求,其描述如下: 对于一些较复杂的函数,为了便于研究,往往希望用一些简单的函数来近似表达。由于用多项式表示的函数,只要对自变量进行有限次的加,减,乘三种算数运算,便能求出它的函数值,因此我们经常用多项式近似表达函数。 简单说来,就是:在误差允许的前提下,我们用多项式(简单函数)来近似代替复杂函数,使得复杂函数的应用更加方便 所以说,泰勒公式是使用多项式对目标函
最近在用D435做物体识别抓取的时候发现二维坐标到三维坐标没有一个直接能用的从二维像素点坐标转换到三维坐标的ROS节点,自己之前写过的kinect V2的坐标映射的通用性太差,所以这次写了一个节点,利用深度相机ROS节点发布的深度与彩色对齐的图像话题和图像信息内外参话题,将二维坐标映射到三维坐标系。我挂上来的这个节点是将鼠标指向的二维坐标转换到三维坐标系下,并发布话题可视化到了rviz中,因为我自
本文借鉴文章,但是该文存在致命性问题,所以博主另开一版,来讲述如何在ubuntu16.04中安装cv_bridge。 使用ROS的时候只用了C++,没有发现cv_bridge这个坑,最近增加了一个使用pytorch的节点,为此使用Anaconda配置了一个只有Python3.5的环境,运行cv_bridge时出现报错from cv_bridge.boost.cv_bridge_boost impo
ZED摄像头 获得中心点深度,未考虑RGB与深度映射(可参考下面D415) #include <iostream> #include <fstream> #include <sstream> #include <algorithm> #include <dirent.h> #include <opencv2/core/core.hp
近期有一个项目用到了Azure Kinect,之前Kinect 1与Kinect 2均使用过的老用户,自然不能放过这个机会。为此专门对Azure Kinect进行了学习,以下是这次自己调研摸索的一些成果 Azure Kinect简介 在芯片顶级会议 ISSCC 2018微软亮相自家的一百万像素的 ToF传感器,与此在论文发表三个月后,小型化的 Kinect for Azure (K4A)工业用开发
1 概述 机器视觉就是用机器代替人眼和人脑来做测量和判断。机器视觉系统工作的基本过程是获取目标的图像后,对图像进行识别、特征提取、分类、数学运算等分析操作,并根据图像的分析计算结果,来对相应的系统进行控制或决策的过程。在很多机器视觉应用中,都需要用到机器视觉测量,即根据目标的图像,来得到目标在实际空间中的物理位置,最典型的如行走机器人、SLAM等。要根据图像中的目标像素位置,得到目标的物理空间位置
1 机器视觉为什么要做相机标定 机器视觉是采用相机成像来实现对三维场景的测量、定位、重建等过程。是一个利用二维图像进行三维反推的过程,我们所处的世界是三维的,而图像或者照片是二维的,可以把相机认为是一个函数,输入量是一个三维场景,输出量是一幅二维图像。正常来说,这个从三维到二维的过程是不可逆的。 如果我们能够找到一个合适的数学模型,来近似以上这个三维到二维的过程,然后找到这个数学模型的反函数,就可
1 概述 镜头透镜由于制造精度以及组装工艺的偏差会引入畸变,导致原始图像的失真,即图像畸变。 在前一篇文章《机器视觉模型——投影矩阵》中描述了机器视觉系统成像模型,在这个模型里包含了相机内参(与像元尺寸、焦距、像素中心有关)以及相机外参(与相机在世界坐标系的位姿有关),这个模型是一个理想模型,或者说线性模型,没有考虑到镜头透镜产生的畸变所带来的影响。结合上文成像模型,可以把畸变理解成像点和物点之间
我先上下结果图吧,效果勉强还行,在这里我只训练了行人,官网的weights是coco数据集训练的,有80类; 1、YOLOV3目标检测 关于yolov3的原理我在这里就不解释了,可谷歌学术自行阅读,说实话yolov3的效果着实不错,但是源码是C的,不依赖其他任何库,看的云里雾里,在这里我用的darknet训练的,利用tensorflow+keras进行测试的; 关于tensorflow+ke
环境:ubuntu14.04 软件:opencv3.3 +pycharm 好久没有写博客了,手都感觉好生疏,最近一直在研究工控机,水下机器人等,好不容易闲下来,没办法呀,继续前行吧,前面一直说双目测距,但没有高速大家如何获得这个双目标注得图像,我在这把这代码贴一下吧,获得这些双目拍摄的图片就可以利用matlab和opencv进行标注了。 小编查了网上好多代码,在利用双目摄像头i实现拍照
在我们平常在做目标检测或者目标追踪时,经常要画出目标的运动轨迹图,基本大致思路如下,检测出目标,建立一个空的队列,检测出目标就将目标的中心点给加到队列中。最后写一个循环,调用opencv cv2.line函数画出上一帧与这一帧的轨迹图,我们线看下效果吧(小编不上相) 我做了一个人脸检测,并记录了人脸的中心的运动轨迹,下面我们贴出代码吧,人脸检测我就不解释了,大家可以参考我的另一篇博客,htt
利用python打开摄像头及颜色检测 最近两周由于忙于个人项目,一直未发言了,实在是太荒凉了。。。。,上周由于项目,见到Python的应用极为广泛,用起来也特别顺手,于是小编也开始着手学习Python,…下面我就汇报下今天的学习成果吧 小编运行环境unbuntu 14.0.4 首先我们先安装一下Python呗,我用的2.7,其实特别简单,一行指
检测或者训练有问题的可发邮件咨询小编,小编尽力解答1039463596@qq.com 好吧,正式开始跑程序(其实官网都有) 这篇文章是训练YOLO v2过程中的经验总结,我使用YOLO v2训练一组自己的数据,训练后的model,在阈值为.25的情况下,Recall值是95.54%,Precision 是97.27%。 需要注意的是,这一训练过程可能只对我自己的训练集有效,因为我是根据我这一
代码是最为耐心、最能忍耐和最令人愉快的伙伴,在任何艰难困苦的时刻,它都不会抛弃你(开场白) 长时间不写博客,我总感觉自己没有做事情,最近一直在做目标检测,想结合一下双目视觉,做立体检测,于是就研究了一下双目视觉,参考了很多人的相关博客,在这里,特意表示感谢一下。 使用Opencv实现张正友法相机标定之前,有几个问题事先要确认一下,那就是相机为什么需要标定,标定需要的输入和输出分别是哪些?
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信