python实现d435i深度相机测量两点之间的距离

2023-05-16

  • 本文介绍python方法实现intel公司realsense系列d435i深度相机测量彩色图像上两点之间的距离。

    原理很简单,就是将相机获得的彩色图像流与深度流对齐,这样彩色图像上的每个像素就会对应一个深度值,作为z坐标,然后通过相机内参获得该像素的x坐标和y坐标。我们获得的x、y、z就作为该像素点的相机坐标系下的三维坐标。求出所测两点的三维坐标,再用勾股定理就能求出这两点的距离。

    求彩色图像上一点的三维坐标参考https://blog.csdn.net/gyxx1998/article/details/121611001
    完整代码如下

# -*- coding: utf-8 -*-
import pyrealsense2 as rs
import numpy as np
import cv2
import math
import matplotlib.pyplot as plt

''' 
设置
'''
pipeline = rs.pipeline()  # 定义流程pipeline,创建一个管道
config = rs.config()  # 定义配置config
config.enable_stream(rs.stream.depth, 1280, 720, rs.format.z16, 30)  # 配置depth流
config.enable_stream(rs.stream.color, 1280, 720, rs.format.bgr8, 30)  # 配置color流

pipe_profile = pipeline.start(config)  # streaming流开始

# 创建对齐对象与color流对齐
# align_to = rs.stream.color  # align_to 是计划对齐深度帧的流类型
# align = rs.align(align_to)  # rs.align 执行深度帧与其他帧的对齐
align = rs.align(rs.stream.color)  #将上两句合成一句,将深度与color对齐

''' 
获取对齐图像帧与相机参数
'''


def get_aligned_images():
    frames = pipeline.wait_for_frames()  # 等待获取图像帧,获取颜色和深度的框架集
    aligned_frames = align.process(frames)  # 获取对齐帧,将深度框与颜色框对齐

    aligned_depth_frame = aligned_frames.get_depth_frame()  # 获取对齐帧中的的depth帧
    aligned_color_frame = aligned_frames.get_color_frame()  # 获取对齐帧中的的color帧

    #### 获取相机参数 ####
    depth_intrin = aligned_depth_frame.profile.as_video_stream_profile().intrinsics  # 获取深度参数(像素坐标系转相机坐标系会用到)
    color_intrin = aligned_color_frame.profile.as_video_stream_profile().intrinsics  # 获取相机内参

    #### 将images转为numpy arrays ####
    img_color = np.asanyarray(aligned_color_frame.get_data())  # RGB图
    img_depth = np.asanyarray(aligned_depth_frame.get_data())  # 深度图(默认16位)

    return color_intrin, depth_intrin, img_color, img_depth, aligned_depth_frame


''' 
获取随机点三维坐标
'''


def get_3d_camera_coordinate(depth_pixel, aligned_depth_frame, depth_intrin):
    x = depth_pixel[0]
    y = depth_pixel[1]
    dis = aligned_depth_frame.get_distance(x, y)  # 获取该像素点对应的深度
    # print ('depth: ',dis)       # 深度单位是m
    camera_coordinate = rs.rs2_deproject_pixel_to_point(depth_intrin, depth_pixel, dis)
    # print ('camera_coordinate: ',camera_coordinate)
    return dis, camera_coordinate


if __name__ == "__main__":
    while True:
        ''' 
        获取对齐图像帧与相机参数
        '''
        color_intrin, depth_intrin, img_color, img_depth, aligned_depth_frame = get_aligned_images()  # 获取对齐图像与相机参数

        ''' 
        获取随机点三维坐标
        '''
        xx1=224
        yy1=308
        depth_pixel1 = [xx1, yy1]  # 设置随机点,以相机中心点为例320、240
        dis1, camera_coordinate1 = get_3d_camera_coordinate(depth_pixel1, aligned_depth_frame, depth_intrin)


        xx2=461
        yy2=310
        depth_pixel2 = [xx2, yy2]  # 设置随机点,以相机中心点为例320、240
        dis2, camera_coordinate2 = get_3d_camera_coordinate(depth_pixel2, aligned_depth_frame, depth_intrin)


        ''' 
        显示图像与标注
        '''
        #### 在图中标记随机点及其坐标 ####
        cv2.circle(img_color, (xx1, yy1), 3, [0, 255, 0], thickness=1)
        cv2.circle(img_color, (xx1, yy1), 6, [0, 255, 0], thickness=1)
        cv2.putText(img_color, "Dis1:" + str(dis1) + " m", (40, 40), cv2.FONT_HERSHEY_SIMPLEX,0.5, [0, 0, 255])
        cv2.putText(img_color, "X1:" + str(camera_coordinate1[0]) + " m", (40, 60), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "Y1:" + str(camera_coordinate1[1]) + " m", (40, 80), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "Z1:" + str(camera_coordinate1[2]) + " m", (40, 100), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "1", (xx1-5, yy1-9), cv2.FONT_HERSHEY_SIMPLEX, 0.5,[0, 255, 0])

        cv2.circle(img_color, (xx2, yy2), 3, [255, 0, 255], thickness=1)
        cv2.circle(img_color, (xx2, yy2), 6, [255, 0, 255], thickness=1)
        cv2.putText(img_color, "Dis2:" + str(dis2) + " m", (350, 40), cv2.FONT_HERSHEY_SIMPLEX,0.5, [0, 0, 255])
        cv2.putText(img_color, "X2:" + str(camera_coordinate2[0]) + " m", (350, 60), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "Y2:" + str(camera_coordinate2[1]) + " m", (350, 80), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "Z2:" + str(camera_coordinate2[2]) + " m", (350, 100), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                    [255, 0, 0])
        cv2.putText(img_color, "2", (xx2 - 5, yy2 - 9), cv2.FONT_HERSHEY_SIMPLEX, 0.5, [255, 0, 255])

        cv2.line(img_color, (xx1,yy1), (xx2,yy2), [0, 255, 255], 1)
        if camera_coordinate1[0]*camera_coordinate1[1]*camera_coordinate1[2]*camera_coordinate2[0]*camera_coordinate2[1]*camera_coordinate2[2]==0:
            cv2.putText(img_color, "Dis1to2:" + "Please select points with depth", (40, 150), cv2.FONT_HERSHEY_SIMPLEX, 1, [0, 255, 255])
        else:
            juli=math.sqrt((camera_coordinate2[0]-camera_coordinate1[0])**2+(camera_coordinate2[1]-camera_coordinate1[1])**2+(camera_coordinate2[2]-camera_coordinate1[2])**2)
            cv2.putText(img_color, "Dis1to2:" + str(juli) + " m", (40, 150), cv2.FONT_HERSHEY_SIMPLEX, 1, [0, 255, 255])

        ### 显示画面 ####
        cv2.imshow('RealSence', img_color)
        key = cv2.waitKey(1)
        if key & 0xFF == ord('q') or key == 27:
            cv2.destroyAllWindows()
            break

  • 在代码中,我们只需要关注xx1、yy1、xx2、yy2这四个参数。xx1、yy1是第一个点的像素值,xx2、yy2是第二个点的像素值。下面演示一下代码的使用过程。比如我们要求这个盒子上标志两个尖端的距离
    样图0
    首先可以用相机保存图片,这个代码多的是,就不粘贴了。然后将图片放大到像素级别,win10自带的画图可以用。
    样图1
    样图2
    我们可以看到第一个点的像素值是571,352。第二个点的像素值是840,350。这样我们只需要把代码里面的xx1改成571,yy1改成352,xx2改成840,yy2改成350.然后运行就行了,结果如下
    结果

最后是一些注意事项:
我们在用相机保存完一张图片,要放大图片查看图片上两点的像素值,然后再运行该程序。这过程中要确保相机和所测物体静止不动。
如果某一像素点没有对应的深度值,即z坐标为0,就无法算出两点的距离,造成这个的原因主要是相机与物体太近了,可以放远一点。如果还是不行,就调一下相机的角度或者物体的位置。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

python实现d435i深度相机测量两点之间的距离 的相关文章

随机推荐

  • 计算机保研复习专业课篇(408+数学+部分专业课)

    1 计组 1 xff09 总线是什么 1 xff09 总线是一组能功能部件之间分时共享的公共信息传送线路 分时 共享是它的两大特点 2 xff09 分时是指同一时刻只能有一个部件向总线上发出信息 3 xff09 总线分为三大类 xff1a
  • STM32 四轴无人机的设计——代码整体设计

    1 前言 从现在开始我们要接触一个完整的工程 xff0c 所以我们要对整个工程进行分析 xff0c 将硬件设计 软件设计模块化 xff0c 一个模块一个模块的完成 xff0c 最后将各个模块融合在一起 xff0c 就是我们整个工程 模块化设
  • STM32-串口通信详解

    目录 前言 一 通信接口背景知识 1 并行通信和串行通信 2 串行通信的分类 二 STM32的串口通信基础 1 串口通信接口 2 串口通信框图 3 串口通信相关寄存器 4 波特率计算方法 三 库函数配置 1 串口配置一般步骤 总结 前言 众
  • 嵌入式裸机按键和CPU的中断系统学习笔记

    准备工作 一 按键介绍与硬件连接 按键介绍 按键是常见的外部中断设备 xff0c 类似于我们电路中的开关 一般的按键都有4个引脚 xff0c 这4个引脚成2对 xff1a 其中一对是常开触点 xff08 不按则断开 xff0c 按下则闭合
  • web前端——CSS实现加载页面效果

    先上图 html代码 span class token tag span class token tag span class token punctuation lt span div span span class token attr
  • docker学习之如何删除docker中的镜像

    目录 查找需要删除的镜像 直接删除 查询所有docker容器 停掉所需要删除镜像的容器 删除镜像 镜像成功删除 注意事项 xff1a 在安装调试完毕docker之后 xff0c 想要删除一些已经下载的镜像 发现怎么都删除不掉 xff0c 看
  • 德鲁周记06--VSLAM从入门到入坟

    VSLAM入门 介绍基础知识三维空间的刚体运动欧式变换四元数欧拉角 李群与李代数线性拟合相机单目相机双目相机深度相机 基本框架视觉里程计特征匹配ORB直接法对比 后端优化EKFBA Bundle Adjustment 回环检测建图 因为研究
  • imgcat

    安装 https pypi org project imgcat pip span class token function install span imgcat 使用
  • 德鲁周记12--带有颜色追踪功能的turtlebot(ROS+反向投影+camshift)

    带有颜色追踪功能的turtlebot 主要技术和算法颜色识别和追踪模块反向投影算法camshift 控制板块 xff08 ROS xff09 代码算法模块控制模块 这个是我前段时间完成的基于turtlebot实现跟随特定颜色的物体实现自主移
  • SLAM--PL-SLAM中基于线特征的初始化方法(LSD算法,LBD描述子,计算R和t)

    SLAM中基于线特征的初始化方法 线特征的初始化直线段检测算法 LSD xff1a a Line Segment Detector描述子 LBD xff1a Line detection and description计算旋转矩阵三焦点张量
  • 搭建windows下无人机软件在环仿真(SITL)仿真环境,无需任何无人机、飞控硬件,学习无人机通讯等知识

    SITL环境配置方法 APM飞控官网提供的SITL software in the loop 软件在环仿真 官网地址 通过该虚拟仿真环境可学习地面站操作 Mavlink通信协议等知识 参照此方法可构建出虚拟无人机平台 xff0c 打开电脑的
  • APM飞控SITL仿真环境 修改初始地理位置

    APM飞控SITL仿真环境 初始化设置 最近在sitl仿真时遇到了一个问题 xff0c 默认情况下仿真飞机的初始位置位于南半球 xff0c 而使用的国内卫星地图大多不提供中国以外地区的卫星地图 xff0c 所以希望设置仿真飞机的初始位置位于
  • MavLink通信协议 C++应用详细教程

    MavLink C 43 43 应用教程 0 前言 网上的各类MavLink通信协议教程 xff0c 往往只对协议本身进行介绍 xff0c 而不对开发中如何应用进行详述 有介绍应用的往往也都浅尝辄止 xff0c 讲完HeartBeat然后就
  • 状态反馈与状态观测器(学习笔记)

    状态反馈 状态反馈对闭环特征值的影响 给一个可控系统加上状态反馈之后 xff0c 不会改变系统的可控性 xff0c 而且可以对新系统的闭环特征值进行改变 xff0c 也就是极点配置 配置极点的具体方法 方法一 为了得到变换后的矩阵 xff0
  • 【ESP8266 快速入门】硬件:ESP12S/ESP12F最小系统设计及typeC自动下载电路设计

    ESP8266 ESP12S 12F 最小系统设计及typeC自动下载电路设计 0 引言 ESP8266面向物联网应用的 xff0c 高性价比 高度集成的 Wi Fi MCU 芯片ESP8266EX采用的QFN无引脚封装 xff0c 且需要
  • windows查看占用文件的进程

    前提 xff1a 在删除文件的时候可能存在文件被占用无法被删除 1 打开任务管理器 xff0c 点击性能 2 点击性能下方的资源监视器 3 点击CPU xff0c 可以看到关联句柄输入框 xff0c 输入被占用的文件夹或文件名称 xff0c
  • 各种耦合关系,耦合,紧耦合,松耦合,解耦

    松耦合和紧耦合的架构设计 性能对比 lt div id 61 34 cnblogs post description 34 style 61 34 display none 34 gt 在最近的一次大数据技术讨论会上 xff0c 有一家公司
  • git 回滚到指定版本

    1 操作步骤 git 回退到指定版本步骤 xff1a 把你想回退的版本的commit id和最新版本的commit id记下来然后用命令git reset hard 老版本的commit id再git reset mix 最新版本的comm
  • SOT:dataset

    https github com jiajunhua foolwood benchmark results blob master img recent Tracker development png benchmark large tra
  • python实现d435i深度相机测量两点之间的距离

    本文介绍python方法实现intel公司realsense系列d435i深度相机测量彩色图像上两点之间的距离 原理很简单 xff0c 就是将相机获得的彩色图像流与深度流对齐 xff0c 这样彩色图像上的每个像素就会对应一个深度值 xff0