- 基于WebGL创建web端可用的版本, 其目的在于方便快捷地检查场景中的投影几何以及相对位置关系
1.0版本代码在换新设备时被本人亲手删除了;)
在测试跟踪算法的时候,需要第一帧物体的位姿作为初值。 这项任务通常是检测算法来做的, 但对自己拍摄的视频序列以及模型而单独去训练一个检测网络有点太费劲了。
于是就有了EditPose,用于大致手动对齐目标模型和图像上的目标,输出一个大概的位姿供跟踪算法在一帧图像上循环跟踪, 以得到初始的可用位姿。
EditPose输出的位姿+跟踪算法重复跟踪第一帧,之后输出的结果基本就能作为第一帧的初值使用了。
Unity部分依赖OpenCVForUnity2.3.8,确保已经安装
将unity中物体的位姿转换成opencv下的,适配RBOT的坐标系。 如果是其他坐标系需要确认是左手系还是右手系
修改输出的txt位置
每台机器要单独编译生成exe,因为要针对每台机器设置输出路径。
打开Unity项目,
1.根据内参的fx或fy计算FOV,
2.填入图像width和hegiht
3.将模型放入Asset,将UnityPoseTransform.exe填入Exe_path
4.调整模型Pos和Rotation
5.点击Run_exe即可导出Pose到UnityPoseTransform指定的txt中
C#中添加”[ExecuteInEditMode]” 能够允许脚本在Edit模式下使用