DepthAI Docs Logo

认识OAK硬件

  • 1. 产品系列简介
  • 2. 产品型号解释
    • 2.1. 相机类别
    • 2.2. 产品线
    • 2.3. 接口
  • 3. 硬件连接注意事项
    • 3.1. USB 系列
      • 3.1.1. 强制使用 USB2 通信
      • 3.1.2. OAK-D
    • 3.2. PoE 系列
      • 3.2.1. OAK-D-PoE
      • 3.2.2. 为PoE设备供电
        • 一般规格
        • PoE交换机或注入器
        • 使用电池供电
        • 以太网电缆和耐候性
        • 从 USB 供电
    • 3.3. IoT 系列
      • 3.3.1. OAK-D-IOT-40
    • 3.4. All-in-One 系列
      • 3.4.1. OAK-D-CM4
    • 3.5. FFC 系列
      • 3.5.1. OAK-FFC-4P
    • 3.6. SoM 系列
      • 3.6.1. OAK-SoM
  • 4. 硬件系列产品入门教程
    • 4.1. USB系列入门必看
    • 4.2. PoE系列入门必看
      • 4.2.1. 分步教程
      • 4.2.2. POE版本的OAK如何运作
      • 4.2.3. PoE 故障排除
        • 搜索设备IP地址和设备号
      • 4.2.4. 闪存静态IP
      • 4.2.5. 手动指定设备IP
      • 4.2.6. PoE设备独立模式
      • 4.2.7. 恢复出厂设置
    • 4.3. IoT系列入门必看(已停产)
      • 4.3.1. 代码示例
      • 4.3.2. 概观
      • 4.3.3. 局限性
      • 4.3.4. ESP32的通用用例
      • 4.3.5. 如何开始开发
      • 4.3.6. DepthAI应用程序包(DAP)
    • 4.4. All-in-One系列入门必看
    • OAK-FFC系列产品上手指南
    • 自动对焦vs定焦
    • OAK相机 vs RealSense相机
    • 产品介绍及测试
    • RVC(Robotic Vision Core)介绍
    • 支持的传感器型号
  • 5. 硬件系列产品高级教程
    • 外触发同步
    • OAK-FFC-4P硬件同步
    • 通过modbus tcp协议控制PLC设备
    • 将OAK集成到你的系统中
    • PoE设备独立模式
    • OAK相机与树莓派
    • 如何将OAK相机当做网络摄像头使用?
    • 树莓派运行多个OAK设备
    • 【开源】树莓派+OAK相机,打造家庭自动化系统!
  • 6. 防水外壳
    • 6.1. OAK-1 和 OAK-D 外壳
    • 6.2. IP67 级 PoE 外壳
  • 相机校准标定

OAK快速上手

  • 1. Python开发快速上手
    • 1.1. 安装依赖
      • 1.1.1. windows
        • Windows 10/11
        • Windows 7
      • 1.1.2. Linux
        • 启用 USB 设备
      • 1.1.3. Raspberry Pi(树莓派)
      • 1.1.4. Ubuntu
        • 启用 USB 设备
      • 1.1.5. Jetson平台
        • 启用 USB 设备
      • 1.1.6. macOS
    • 1.2. depthai项目链接
  • 2. C++ 开发快速上手
    • 2.1. C++编译示例
    • 2.2. 安装依赖
    • 2.3. ROS相关
  • 3. SCRATCH图形化编程快速上手
    • 3.1. 初识OAK图形化编程
      • 3.1.1. 图形化编程基础知识学习
      • 3.1.2. 版本介绍
      • 3.1.3. PC离线版指南
        • 安装要求:
        • 安装步骤:
      • 3.1.4. 网页版及插件指南
        • 安装要求:
        • 安装步骤:
    • 3.2. OAK图形化编程快速入门
      • 3.2.1. 界面介绍
      • 3.2.2. 实例演示
    • 3.3. 初识积木
      • 3.3.1. 积木种类
      • 3.3.2. OAK积木介绍
        • 各种模型节点
    • 3.4. 上手案例
      • 3.4.1. 实现逻辑
      • 3.4.2. 案例
    • 3.5. 新功能预告
  • 4. Android开发应用
    • 4.1. Android应用示例
  • 5. 安装文件镜像加速
    • 5.1. pypi 镜像使用帮助
      • 5.1.1. 临时使用
      • 5.1.2. 设为默认
  • 6. 使用IDE打开工程

基础OAK玩法

  • Hello Word程序讲解
  • Depthai API示例程序
  • Depthai API文档详解
  • Depthai 项目应用示例

进阶OAK玩法

  • 1. 神经网络相关教程
    • 1.1. OAK支持的格式与神经网络
      • 1.1.1. OAK支持的格式
        • 术语介绍
        • 支持的模型格式
        • 支持的输入精度
        • 支持的输出精度
        • 支持的输入数据格式
        • 支持的输出数据格式
      • 1.1.2. OAK支持的网络
        • Caffe*
        • TensorFlow*
        • MXNet*
        • 最受欢迎的三大网络
    • 1.2. 在OAK上部署用户神经网络模型的方法
      • 1.2.1. 直接通过官方提供的yolo系列模型在线转换工具,将YOLO模型转换成OAK上运行的BLOB格式的模型:
      • 1.2.2. 先将YOLO模型转换成ONNX,再通过在线转换工具将ONNX模型转换成BLOB格式的模型。该方法不仅仅适合YOLO,也适合TensorFlow、Caffe、Pytorch、OpenVino的转换。
        • 第一步,将YOLO模型转换成ONNX模型
        • 第二步:通过在线转换工具将ONNX模型转换成BLOB格式
      • 1.2.3. 采用完全离线的方式实现从yolo到BLOB的完整转换
        • 第一步:自己搭建openvino环境
        • 第二步:将YOLO模型转换成ONNX模型
        • 第三步:通过 OpenVino Model Optimizer 将第三方通用模型转换成openvino的模型格式.bin和.xml格式
        • 第四步:再通过 OpenVino Compile Tool 工具将.IR格式的Openvino模型转换成可以在OAK上运行的.blob格式的模型。
    • 1.3. 下载官方的blob模型运行
      • 1.3.1. 下载模型
      • 1.3.2. 使用预训练的 OpenVINO 模型
        • 运行 DepthAI 默认模型
        • 运行模型
        • 尝试其他模型
        • 空间AI–用3D定位增强模型的功能
      • 1.3.3. 模型性能
      • 1.3.4. AI视觉任务
    • 1.4. 本地 OpenVINO 模型转换
      • 1.4.1. 什么是OpenVINO?
      • 1.4.2. 什么是Open Model Zoo?
      • 1.4.3. 安装 OpenVINO
        • 2022.1 LTS
        • 2021.4 LTS
      • 1.4.4. 下载 face-detection-retail-0004 模型
      • 1.4.5. 编译模型
        • 激活 OpenVINO 环境
        • 找到 compile_tool
        • 运行 compile_tool
      • 1.4.6. 运行并显示模型输出
      • 1.4.7. 审查流程
    • 1.5. 用户自定义神经网络模型训练和部署
      • 1.5.1. 自定义神经网络模型转换
        • 本地编译
        • 使用 Google Colab
        • 使用在线转换器
        • 使用 blobconverter 库
      • 1.5.2. 故障排除
        • 支持的层
        • 不支持的图层类型”layer_type”
        • 数据类型不正确
      • 1.5.3. Yolov5 6.0 转换成blob格式
      • 1.5.4. 在线将YOLOV5转化成OAK能用的模型格式
      • 1.5.5. 自定义训练
        • 概述
    • 1.6. online tools
    • OAK相机跑各种yolo模型的检测帧率和深度帧率
    • OAK相机如何将YOLOX模型转换成blob格式?(0.1.1pre 及之后版本)
    • OAK相机如何将YOLOv6模型转换成blob格式?(2.0 及之后版本)
    • OAK相机如何将YOLOv7模型转换成blob格式?
    • OAK相机如何将YOLOv8模型转换成blob格式?
    • OAK相机如何将 YOLO NAS 模型转换成blob格式?
    • OAK相机如何将 MMYOLO 内模型转换成blob格式?
    • OAK相机如何将YOLOv5-Lite模型转换成blob格式?
    • 无代码基础也能做模型训练?OAK训练机让中学生都能玩转AI!
  • 2. 计算机视觉相关教程
    • 2.1. 计算机视觉
    • 2.2. 点云与深度
  • 3D人工智能相关教程

高阶OAK玩法

  • 1. OAK和ROS相关教程
    • 1.1. ROS1 noetic + depthai_ros教程
      • 1.1.1. 已测试平台
      • 1.1.2. 安装依赖
      • 1.1.3. 执行示例
      • 1.1.4. 运行示例
      • 1.1.5. 测试结果
    • 1.2. ROS2 Foxy + depthai_ros教程
      • 1.2.1. 测试信息
      • 1.2.2. 安装ROS2
        • 设置语言环境
        • 设置下载源
        • 安装ROS2 foxy
      • 1.2.3. 设置depthai_ros
        • 安装depthai依赖
        • 设置程序
        • 执行示例
        • 运行示例
    • 1.3. ubuntu 18.04 OAK-D kalibr 双目+imu联合标定
      • 1.3.1. 准备
      • 1.3.2. 安装相关程序
        • ROS以及depthai_ros环境
        • 安装标定工具以及依赖
      • 1.3.3. 标定过程
        • 采集数据
        • 标定
    • 1.4. ubuntu 18.04 OAK-D系列相机 运行VINS-Fusion 双目+IMU
      • 1.4.1. 准备
      • 1.4.2. 构建VINS-Fusion
      • 1.4.3. 运行示例
    • 1.5. OAK相机Ubuntu 平台配置depthai-ros环境(安装包方式)
    • 1.6. OAK-D深度图像转2d激光数据
  • 2. OAK和SLAM相关示例
  • 3. 设备上编程
    • 3.1. 使用脚本节点
    • 3.2. 创建自定义NN模型
    • 3.3. 创建自定义OpenCL内核
    • 3.4. Poe独立运行模式
    • 3.5. 在设备上运行您自己的CV模型
      • 3.5.1. 使用PyTorch创建自定义模型
      • 3.5.2. Kornia
        • 部署参考的API示例

问题答疑

  • 1. 常见问题解答
    • 1.1. 为什么存在 DepthAI?
    • 1.2. 什么是 DepthAI?
    • 1.3. 什么是 SpatialAI? 什么是 3D 目标定位?
    • 1.4. DepthAI 如何提供 Spatial AI 结果?
      • 1.4.1. 单目神经推理与双目深度的融合
      • 1.4.2. 立体神经推理
      • 1.4.3. 注意
    • 1.5. 什么是 MegaAI ?
    • 1.6. 我应该订购哪种型号?
      • 1.6.1. 模块系统
    • 1.7. 从头开始运行 DepthAI 有多困难? 支持哪些平台?
    • 1.8. DepthAI 和 MegaAI 易于在 Raspberry Pi 中使用吗?
    • 1.9. Raspberry Pi 是否可以使用所有模型?
    • 1.10. DepthAI 是否可以在 NVIDIA Jetson 系列上使用?
    • 1.11. 我可以在一台主机上使用多个 DepthAI 吗?
    • 1.12. DepthAI 与 OpenVINO 兼容吗?
    • 1.13. 我能否在 DepthAI 上运行自己训练的模型?
    • 1.14. 我需要深度数据来训练自己的 DepthAI 自定义模型吗?
    • 1.15. 如果我训练自己的网络,DepthAI 支持哪些神经操作?
    • 1.16. DepthAI 支持哪些网络?
    • 1.17. 我的模型需要预处理,如何在 DepthAI 中做到这一点
    • 1.18. 我可以并行或串联(或同时运行)多个神经网络模型吗?
    • 1.19. DepthAI可以随意裁剪,调整大小,缩略图等吗?
    • 1.20. DepthAI可以运行自定义CV代码吗?说来自PyTorch的CV代码?
    • 1.21. 如何将 DepthAI 集成到我们的产品中?
      • 1.21.1. 用例 1: DepthAI / MegaAI 是运行 Linux , macOS 或 Windows 的处理器的协处理器。
      • 1.21.2. 用例 2:将 DepthAI 与微控制器(如 ESP32,ATTiny8 等)结合使用
      • 1.21.3. 用例 3:将 DepthAI 用作设备上的唯一处理器。
      • 1.21.4. 每种用例的硬件:
      • 1.21.5. 开发入门
    • 1.22. DepthAI 和 MegaAI 中存在哪些硬件加速功能?
      • 1.22.1. 目前在 DepthAI API 中可用:
      • 1.22.2. 在我们的路线图中(计划于 2020 年 12 月交付)
      • 1.22.3. Gen2 管道构建器
    • 1.23. CAD 文件是否可用?
    • 1.24. 如何使DepthAI感知更近的距离
    • 1.25. DepthAI 可见的最小深度是多少?
      • 1.25.1. 单目神经推理与双目深度的融合
      • 1.25.2. 立体神经推理
      • 1.25.3. 板载相机最小深度
        • 单目神经推理与双目深度的融合模式
        • 立体神经推理模式
      • 1.25.4. 模块化相机最小深度:
        • 单目神经推理与双目深度的融合模式
        • 立体神经推理模式
      • 1.25.5. 扩展视差深度模式
      • 1.25.6. Left-Right Check Depth Mode
    • 1.26. DepthAI 最大可见深度是多少?
    • 1.27. 深度流中的深度数据是什么格式?
    • 1.28. 如何计算视差的深度?
    • 1.29. 如何显示多个流 ?
      • 1.29.1. 是否可以访问主机上的原始双目相机视频流?
    • 1.30. 如何限制每个流的帧速率?
    • 1.31. 如何同步流/元数据(神经推理结果)
      • 1.31.1. 降低相机帧速率
      • 1.31.2. 在主机上同步
    • 1.32. 如何使用 DepthAI 录制(或编码)视频?
      • 1.32.1. 视频编码选项
    • 1.33. 什么是流延迟?
    • 1.34. 可以将 RGB 相机/双目相机作为普通的 UVC 相机使用吗?
    • 1.35. 如何强制使用 USB2 模式?
    • 1.36. 什么是「 NCS2 模式」 ?
    • 1.37. DepthAI 板上存储了哪些信息?
    • 1.38. 双匀质成像与单匀质成像校准
    • 1.39. 什么是 DepthAI 和 MegaAI 的视野?
    • 1.40. 如何获得 DepthAI 和 MegaAI 的不同视野或镜头?
    • 1.41. DepthAI 和 MegaAI 的最高分辨率和录制 FPS 是多少?
    • 1.42. 有多少算力可用?有多少神经算力可用?
    • 1.43. 支持哪些自动对焦模式?可以从主机控制自动对焦吗?
    • 1.44. 自动对焦彩色相机的超焦距是多少?
    • 1.45. 是否可以从主机控制 RGB 相机的曝光、白平衡和自动对焦 (3A) 设置?
      • 1.45.1. 自动对焦 (AF)
      • 1.45.2. 曝光 (AE)
      • 1.45.3. 白平衡 (AWB)
    • 1.46. 全局快门灰度相机的规格是什么?
    • 1.47. 我可以在相机上安装备用镜头吗?什么样的接口? S 型? C 型?
    • 1.48. 我可以完全通过 USB 为 DepthAI 供电吗?
    • 1.49. 如何在 VirtualBox 下使用 DepthAI
    • 1.50. 如何提高 NCE、SHAVES 和 CMX 参数?
    • 1.51. 我可以将 DepthAI 与新的 RPi HQ 相机一起使用吗?
    • 1.52. 我可以将 DepthAI 与 Raspberry Pi Zero 一起使用吗?
    • 1.53. DepthAI RPi CME 的耗电量是多少?
    • 1.54. 如何获得更短或更长的柔性扁平数据线 (FFC)?
    • 1.55. meta_d2h 返回的 CSS MSS UPA 和 DSS 是什么?
    • 1.56. Githubs 地址在哪里?DepthAI 是开源的吗?
      • 1.56.1. 整体
      • 1.56.2. 嵌入式应用案例
    • 1.57. 我可以在 DepthAI 上使用 IMU 吗?
    • 1.58. 产品手册和数据表在哪里?
      • 1.58.1. 产品手册:
      • 1.58.2. 数据表:
    • 1.59. 如何在出版物中引用 luxonis 产品?
    • 1.60. 如何与工程师交流?
  • 故障排除
  • 2. 技术支持
    • 2.1. 退款和退货政策
DepthAI Docs
  • Search


© Copyright 2023, Arducam.

Built with Sphinx using a theme provided by Read the Docs.