DepthAI Docs
认识OAK硬件
1. 产品系列简介
2. 产品型号解释
2.1. 相机类别
2.2. 产品线
2.3. 接口
3. 硬件连接注意事项
3.1. USB 系列
3.1.1. 强制使用 USB2 通信
3.1.2. OAK-D
3.2. PoE 系列
3.2.1. OAK-D-PoE
3.2.2. 为PoE设备供电
一般规格
PoE交换机或注入器
使用电池供电
以太网电缆和耐候性
从 USB 供电
3.3. IoT 系列
3.3.1. OAK-D-IOT-40
3.4. All-in-One 系列
3.4.1. OAK-D-CM4
3.5. FFC 系列
3.5.1. OAK-FFC-4P
3.6. SoM 系列
3.6.1. OAK-SoM
4. 硬件系列产品入门教程
4.1. USB系列入门必看
4.2. PoE系列入门必看
4.2.1. 分步教程
4.2.2. POE版本的OAK如何运作
4.2.3. PoE 故障排除
搜索设备IP地址和设备号
4.2.4. 闪存静态IP
4.2.5. 手动指定设备IP
4.2.6. PoE设备独立模式
4.2.7. 恢复出厂设置
4.3. IoT系列入门必看(已停产)
4.3.1. 代码示例
4.3.2. 概观
4.3.3. 局限性
4.3.4. ESP32的通用用例
4.3.5. 如何开始开发
4.3.6. DepthAI应用程序包(
DAP
)
4.4. All-in-One系列入门必看
OAK-FFC系列产品上手指南
自动对焦vs定焦
OAK相机 vs RealSense相机
产品介绍及测试
RVC(Robotic Vision Core)介绍
支持的传感器型号
5. 硬件系列产品高级教程
外触发同步
OAK-FFC-4P硬件同步
通过modbus tcp协议控制PLC设备
将OAK集成到你的系统中
PoE设备独立模式
OAK相机与树莓派
如何将OAK相机当做网络摄像头使用?
树莓派运行多个OAK设备
【开源】树莓派+OAK相机,打造家庭自动化系统!
6. 防水外壳
6.1. OAK-1 和 OAK-D 外壳
6.2. IP67 级 PoE 外壳
相机校准标定
OAK快速上手
1. Python开发快速上手
1.1. 安装依赖
1.1.1. windows
Windows 10/11
Windows 7
1.1.2. Linux
启用 USB 设备
1.1.3. Raspberry Pi(树莓派)
1.1.4. Ubuntu
启用 USB 设备
1.1.5. Jetson平台
启用 USB 设备
1.1.6. macOS
1.2. depthai项目链接
2. C++ 开发快速上手
2.1. C++编译示例
2.2. 安装依赖
2.3. ROS相关
3. SCRATCH图形化编程快速上手
3.1. 初识OAK图形化编程
3.1.1. 图形化编程基础知识学习
3.1.2. 版本介绍
3.1.3. PC离线版指南
安装要求:
安装步骤:
3.1.4. 网页版及插件指南
安装要求:
安装步骤:
3.2. OAK图形化编程快速入门
3.2.1. 界面介绍
3.2.2. 实例演示
3.3. 初识积木
3.3.1. 积木种类
3.3.2. OAK积木介绍
各种模型节点
3.4. 上手案例
3.4.1. 实现逻辑
3.4.2. 案例
3.5. 新功能预告
4. Android开发应用
4.1. Android应用示例
5. 安装文件镜像加速
5.1. pypi 镜像使用帮助
5.1.1. 临时使用
5.1.2. 设为默认
6. 使用IDE打开工程
基础OAK玩法
Hello Word程序讲解
Depthai API示例程序
Depthai API文档详解
Depthai 项目应用示例
进阶OAK玩法
1. 神经网络相关教程
1.1. OAK支持的格式与神经网络
1.1.1. OAK支持的格式
术语介绍
支持的模型格式
支持的输入精度
支持的输出精度
支持的输入数据格式
支持的输出数据格式
1.1.2. OAK支持的网络
Caffe*
TensorFlow*
MXNet*
最受欢迎的三大网络
1.2. 在OAK上部署用户神经网络模型的方法
1.2.1. 直接通过官方提供的yolo系列模型在线转换工具,将YOLO模型转换成OAK上运行的BLOB格式的模型:
1.2.2. 先将YOLO模型转换成ONNX,再通过在线转换工具将ONNX模型转换成BLOB格式的模型。该方法不仅仅适合YOLO,也适合TensorFlow、Caffe、Pytorch、OpenVino的转换。
第一步,将YOLO模型转换成ONNX模型
第二步:通过在线转换工具将ONNX模型转换成BLOB格式
1.2.3. 采用完全离线的方式实现从yolo到BLOB的完整转换
第一步:自己搭建openvino环境
第二步:将YOLO模型转换成ONNX模型
第三步:通过 OpenVino Model Optimizer 将第三方通用模型转换成openvino的模型格式.bin和.xml格式
第四步:再通过 OpenVino Compile Tool 工具将.IR格式的Openvino模型转换成可以在OAK上运行的.blob格式的模型。
1.3. 下载官方的blob模型运行
1.3.1. 下载模型
1.3.2. 使用预训练的 OpenVINO 模型
运行 DepthAI 默认模型
运行模型
尝试其他模型
空间AI–用3D定位增强模型的功能
1.3.3. 模型性能
1.3.4. AI视觉任务
1.4. 本地 OpenVINO 模型转换
1.4.1. 什么是OpenVINO?
1.4.2. 什么是Open Model Zoo?
1.4.3. 安装 OpenVINO
2022.1 LTS
2021.4 LTS
1.4.4. 下载 face-detection-retail-0004 模型
1.4.5. 编译模型
激活 OpenVINO 环境
找到 compile_tool
运行 compile_tool
1.4.6. 运行并显示模型输出
1.4.7. 审查流程
1.5. 用户自定义神经网络模型训练和部署
1.5.1. 自定义神经网络模型转换
本地编译
使用 Google Colab
使用在线转换器
使用 blobconverter 库
1.5.2. 故障排除
支持的层
不支持的图层类型”layer_type”
数据类型不正确
1.5.3. Yolov5 6.0 转换成blob格式
1.5.4. 在线将YOLOV5转化成OAK能用的模型格式
1.5.5. 自定义训练
概述
1.6. online tools
OAK相机跑各种yolo模型的检测帧率和深度帧率
OAK相机如何将YOLOX模型转换成blob格式?(0.1.1pre 及之后版本)
OAK相机如何将YOLOv6模型转换成blob格式?(2.0 及之后版本)
OAK相机如何将YOLOv7模型转换成blob格式?
OAK相机如何将YOLOv8模型转换成blob格式?
OAK相机如何将 YOLO NAS 模型转换成blob格式?
OAK相机如何将 MMYOLO 内模型转换成blob格式?
OAK相机如何将YOLOv5-Lite模型转换成blob格式?
无代码基础也能做模型训练?OAK训练机让中学生都能玩转AI!
2. 计算机视觉相关教程
2.1. 计算机视觉
2.2. 点云与深度
3D人工智能相关教程
高阶OAK玩法
1. OAK和ROS相关教程
1.1. ROS1 noetic + depthai_ros教程
1.1.1. 已测试平台
1.1.2. 安装依赖
1.1.3. 执行示例
1.1.4. 运行示例
1.1.5. 测试结果
1.2. ROS2 Foxy + depthai_ros教程
1.2.1. 测试信息
1.2.2. 安装ROS2
设置语言环境
设置下载源
安装ROS2 foxy
1.2.3. 设置depthai_ros
安装depthai依赖
设置程序
执行示例
运行示例
1.3. ubuntu 18.04 OAK-D kalibr 双目+imu联合标定
1.3.1. 准备
1.3.2. 安装相关程序
ROS以及depthai_ros环境
安装标定工具以及依赖
1.3.3. 标定过程
采集数据
标定
1.4. ubuntu 18.04 OAK-D系列相机 运行VINS-Fusion 双目+IMU
1.4.1. 准备
1.4.2. 构建VINS-Fusion
1.4.3. 运行示例
1.5. OAK相机Ubuntu 平台配置depthai-ros环境(安装包方式)
1.6. OAK-D深度图像转2d激光数据
2. OAK和SLAM相关示例
3. 设备上编程
3.1. 使用脚本节点
3.2. 创建自定义NN模型
3.3. 创建自定义OpenCL内核
3.4. Poe独立运行模式
3.5. 在设备上运行您自己的CV模型
3.5.1. 使用PyTorch创建自定义模型
3.5.2. Kornia
部署参考的API示例
问题答疑
1. 常见问题解答
1.1. 为什么存在 DepthAI?
1.2. 什么是 DepthAI?
1.3. 什么是 SpatialAI? 什么是 3D 目标定位?
1.4. DepthAI 如何提供 Spatial AI 结果?
1.4.1. 单目神经推理与双目深度的融合
1.4.2. 立体神经推理
1.4.3. 注意
1.5. 什么是 MegaAI ?
1.6. 我应该订购哪种型号?
1.6.1. 模块系统
1.7. 从头开始运行 DepthAI 有多困难? 支持哪些平台?
1.8. DepthAI 和 MegaAI 易于在 Raspberry Pi 中使用吗?
1.9. Raspberry Pi 是否可以使用所有模型?
1.10. DepthAI 是否可以在 NVIDIA Jetson 系列上使用?
1.11. 我可以在一台主机上使用多个 DepthAI 吗?
1.12. DepthAI 与 OpenVINO 兼容吗?
1.13. 我能否在 DepthAI 上运行自己训练的模型?
1.14. 我需要深度数据来训练自己的 DepthAI 自定义模型吗?
1.15. 如果我训练自己的网络,DepthAI 支持哪些神经操作?
1.16. DepthAI 支持哪些网络?
1.17. 我的模型需要预处理,如何在 DepthAI 中做到这一点
1.18. 我可以并行或串联(或同时运行)多个神经网络模型吗?
1.19. DepthAI可以随意裁剪,调整大小,缩略图等吗?
1.20. DepthAI可以运行自定义CV代码吗?说来自PyTorch的CV代码?
1.21. 如何将 DepthAI 集成到我们的产品中?
1.21.1. 用例 1: DepthAI / MegaAI 是运行 Linux , macOS 或 Windows 的处理器的协处理器。
1.21.2. 用例 2:将 DepthAI 与微控制器(如 ESP32,ATTiny8 等)结合使用
1.21.3. 用例 3:将 DepthAI 用作设备上的唯一处理器。
1.21.4. 每种用例的硬件:
1.21.5. 开发入门
1.22. DepthAI 和 MegaAI 中存在哪些硬件加速功能?
1.22.1. 目前在 DepthAI API 中可用:
1.22.2. 在我们的路线图中(计划于 2020 年 12 月交付)
1.22.3. Gen2 管道构建器
1.23. CAD 文件是否可用?
1.24. 如何使DepthAI感知更近的距离
1.25. DepthAI 可见的最小深度是多少?
1.25.1. 单目神经推理与双目深度的融合
1.25.2. 立体神经推理
1.25.3. 板载相机最小深度
单目神经推理与双目深度的融合模式
立体神经推理模式
1.25.4. 模块化相机最小深度:
单目神经推理与双目深度的融合模式
立体神经推理模式
1.25.5. 扩展视差深度模式
1.25.6. Left-Right Check Depth Mode
1.26. DepthAI 最大可见深度是多少?
1.27. 深度流中的深度数据是什么格式?
1.28. 如何计算视差的深度?
1.29. 如何显示多个流 ?
1.29.1. 是否可以访问主机上的原始双目相机视频流?
1.30. 如何限制每个流的帧速率?
1.31. 如何同步流/元数据(神经推理结果)
1.31.1. 降低相机帧速率
1.31.2. 在主机上同步
1.32. 如何使用 DepthAI 录制(或编码)视频?
1.32.1. 视频编码选项
1.33. 什么是流延迟?
1.34. 可以将 RGB 相机/双目相机作为普通的 UVC 相机使用吗?
1.35. 如何强制使用 USB2 模式?
1.36. 什么是「 NCS2 模式」 ?
1.37. DepthAI 板上存储了哪些信息?
1.38. 双匀质成像与单匀质成像校准
1.39. 什么是 DepthAI 和 MegaAI 的视野?
1.40. 如何获得 DepthAI 和 MegaAI 的不同视野或镜头?
1.41. DepthAI 和 MegaAI 的最高分辨率和录制 FPS 是多少?
1.42. 有多少算力可用?有多少神经算力可用?
1.43. 支持哪些自动对焦模式?可以从主机控制自动对焦吗?
1.44. 自动对焦彩色相机的超焦距是多少?
1.45. 是否可以从主机控制 RGB 相机的曝光、白平衡和自动对焦 (3A) 设置?
1.45.1. 自动对焦 (AF)
1.45.2. 曝光 (AE)
1.45.3. 白平衡 (AWB)
1.46. 全局快门灰度相机的规格是什么?
1.47. 我可以在相机上安装备用镜头吗?什么样的接口? S 型? C 型?
1.48. 我可以完全通过 USB 为 DepthAI 供电吗?
1.49. 如何在 VirtualBox 下使用 DepthAI
1.50. 如何提高 NCE、SHAVES 和 CMX 参数?
1.51. 我可以将 DepthAI 与新的 RPi HQ 相机一起使用吗?
1.52. 我可以将 DepthAI 与 Raspberry Pi Zero 一起使用吗?
1.53. DepthAI RPi CME 的耗电量是多少?
1.54. 如何获得更短或更长的柔性扁平数据线 (FFC)?
1.55. meta_d2h 返回的 CSS MSS UPA 和 DSS 是什么?
1.56. Githubs 地址在哪里?DepthAI 是开源的吗?
1.56.1. 整体
1.56.2. 嵌入式应用案例
1.57. 我可以在 DepthAI 上使用 IMU 吗?
1.58. 产品手册和数据表在哪里?
1.58.1. 产品手册:
1.58.2. 数据表:
1.59. 如何在出版物中引用 luxonis 产品?
1.60. 如何与工程师交流?
故障排除
2. 技术支持
2.1. 退款和退货政策
DepthAI Docs
将自定义模型转换为MyriadX blob
View page source
将自定义模型转换为MyriadX blob
1.5. 用户自定义神经网络模型训练和部署
1.5.1. 自定义神经网络模型转换
本地编译
使用 Google Colab
使用在线转换器
使用 blobconverter 库
1.5.2. 故障排除
支持的层
不支持的图层类型”layer_type”
数据类型不正确
1.5.3. Yolov5 6.0 转换成blob格式
1.5.4. 在线将YOLOV5转化成OAK能用的模型格式
1.5.5. 自定义训练
概述
用户自定义神经网络模型训练和部署
使用Docker训练Yolov3/Yolov4
请参考此处
链接
。
自定义训练
自定义训练
概述
自定义神经网络部署
在设备上运行您自己的CV模型
使用PyTorch创建自定义模型
Kornia
部署参考的API示例