人体检测和跟踪package订阅sensor package发布的图片,经过算法推理后发布hobot AI msg,

人体检测和跟踪package订阅sensor package发布的图片,经过算法推理后发布hobot AI msg,通过websocket package实现在PC端浏览器上渲染显示sensor发布的图片和对应的AI结果

使用USB摄像头发布图片除了输入下面命令外还需要输入别的指令吗,我再在PC端的浏览器输入http://IP 查看, 有时时可以有时怎么不可以,不知道为什么

# 配置TogetherROS环境-
source /opt/tros/setup.bash-

# 从TogetherROS的安装路径中拷贝出运行示例需要的配置文件。-
cp -r /opt/tros/lib/mono2d_body_detection/config/ .-

# 配置USB摄像头-
export CAM_TYPE=usb-

# 启动launch文件-
ros2 launch mono2d_body_detection hobot_mono2d_body_detection.launch.py

X3派上运行apt list | grep hhp命令查看TogetherROS的版本。-
查询出来应该显示:hhp/unknown 1.0.5 arm64

与时不行时我就按照 3. TogetherROS功能体验

有时按照说明手册中使用方法重新命令好像有可以

  1. 通过SSH登录旭日X3派,打开/opt/tros/share/hobot_usb_cam/launch/hobot_usb_cam.launch.py设置USB摄像头设备名称,这里以/dev/video8为例-
    ot_usb_cam.launch.py from launch import LaunchDescription from launch_ros.actions import Node def generate_launch_description(): return LaunchDescription([ Node( package=‘hobot_usb_cam’, executable=‘hobot_usb_cam’, name=‘hobot_usb_cam’, parameters=[ {“frame_id”: “default_usb_cam”}, {“framerate”: 30}, {“image_height”: 480}, {“image_width”: 640}, {“io_method”: “mmap”}, {“pixel_format”: “mjpeg”}, {“video_device”: “/dev/video8”}, {“zero-copy”: “disabled”} ] ) ])
  2. 并通过下述命令启动USB摄像头-
    Ubuntu-
    // 配置 TogetherROS 环境: source /opt/tros/local_setup.bash // 参数设置: ros2 launch hobot_usb_cam hobot_usb_cam.launch.py