通过模型生成Mask(遮罩),分离图像或视频中的头部区域与非头部区域。支持同时处理多个头部
API的输入、输出对象可参考VNN 数据结构
API的执行情况(是否成功、错误原因等)可参考 VNN_Result
对应的状态码表
指标 | 参数 |
---|---|
支持图片格式 | BGRA、RGBA、RGB、NV12、NV21、YUV420 |
支持架构 | armeabi-v7、arm64-v8a |
Android系统版本 | 5.0+ |
iOS系统版本 | 9.0+ |
最大支持头部数 | 5 |
指标 | 参数 |
---|---|
支持图片格式 | BGRA、RGBA、RGB、YUV420F |
支持架构 | x86(Win Only)、x86_64、arm64(MacOS Only) |
Windows系统版本 | Win 7+ |
MacOS系统版本 | 10.10+ |
最大支持头部数 | 5 |
vnn_face.h
vnn_general.h
vnn_kit.h
vnn_define.h
head_segment[1.0.0].vnnmodel
headseg_v3_process_config.json
Android/Linux
libvnn_core.so
libvnn_kit.so
libvnn_face.so
libvnn_general.so
iOS
Accelerate.framework
CoreVideo.framework
Foundation.framework
vnn_core_ios.framework
vnn_kit_ios.framework
vnn_face_ios.framework
vnn_general_ios.framework
MacOS
Accelerate.framework
CoreVideo.framework
Cocoa.framework
vnn_core_osx.framework
vnn_kit_osx.framework
vnn_face_osx.framework
vnn_general_osx.framework
Windows
vnn_core.dll
vnn_kit.dll
vnn_face.dll
vnn_general.dll
Android: 链接
iOS: 链接
Windows: 链接
MaoOS: 链接
Linux: 链接
说明: 输入模型路径,完成SDK的初始化,获得用于调用后续功能的Handle
VNN_Result VNN_Create_General( VNNHandle * handle, const int argc, const void * argv[] )
参数 | 含义 |
---|---|
handle | 函数调用成功后记录合法的索引,用于调用后续功能,类型为VNN_Handle*,调用成功后handle数值大于0,输出 |
argc | 输入模型文件数,类型为const int,输入 |
argv | 每个模型文件的具体路径,类型为const char*[ ],输入 |
返回值: VNN_Result,具体值参见 状态码表
调用示例:
VNN_Handle _handle;
std::string model = _modelpath + "/head_segment[1.0.0].vnnmodel";
std::string cfg = _modelpath + "/headseg_v3_process_config.json";
const char* argv[] = {
model.c_str(),
cfg.c_str()
};
const int argc = sizeof(argv)/sizeof(argv[0]);
VNN_Result ret = VNN_Create_General(&_handle, argc, argv);
说明: 输入包含人脸的图像,输出检测结果
VNN_Result VNN_Apply_General_CPU(VNNHandle handle, const void* in_image, const void* face_data, void* output)
参数 | 含义 |
---|---|
handle | SDK实例索引,类型为VNN_Handle,输入 |
in_image | 输入图像,类型为 VNN_Image*,输入 |
face_data | 每张人脸的关键点检测信息,类型为 VNN_FaceFrameDataArr*,输入 |
output | 检测结果,类型为 VNN_ImageArr*,输出 |
返回值: VNN_Result,具体值参见 状态码表
调用示例:
#define MASK_CHANNEL (1)
#define MASK_HEIGHT (256)
#define MASK_WIDTH (256)
// input: 视频帧或图像,类型 VNN_Image
// faceArr:人脸关键点检测结果,类型 VNN_FaceFrameDataArr
// 获取对应的Mask
if (!_maskBuffer) {
// 按最大支持人脸数申请Buffer
_maskBuffer = (unsigned char *) malloc(MASK_CHANNEL * MASK_HEIGHT * MASK_WIDTH * VN2_FRAMEDATAARR_MAX_FACES_NUM);
}
VNN_ImageArr faceMaskArr;
faceMaskArr.imgsNum = faceArr.facesNum;
// 按实际检测出的人脸数设置输出对象
for (int f = 0; f < faceArr.facesNum; f++) {
faceMaskDataArr.imgsArr[f].width = MASK_WIDTH; // 输出图像的宽
faceMaskDataArr.imgsArr[f].height = MASK_HEIGHT; // 输出图像的高
faceMaskDataArr.imgsArr[f].channels = MASK_CHANNEL; // 输出图像的通道
faceMaskDataArr.imgsArr[f].pix_fmt = VNN_PIX_FMT_GRAY8; // 输出数值类型为unsigned char
faceMaskDataArr.imgsArr[f].data = _maskBuffer + f * MASK_CHANNEL * MASK_HEIGHT * MASK_WIDTH;
}
// 头部区域数值255,非头部区域数值0,过渡区域数值0~255
VNN_Apply_General_CPU(_handle, input, face_data, faceMaskArr);
说明: 不再使用SDK,释放内存等资源
VNN_Result VNN_Destroy_General(VNNHandle* handle)
参数 | 含义 |
---|---|
handle | SDK实例索引,成功释放资源后将被修改为0(无效值),类型为VNN_Handle*,输入&输出 |
返回值: VNN_Result,具体值参见 状态码表
调用示例:
VNN_Result ret = VNN_Destroy_General(&_handle);
// VNN_Result ret = VNN_Destory_Face(&_handle_face); // 如不再使用人脸关键点检测SDK,也一并释放资源
说明: 设定SDK实例的运行参数
VNN_Result VNN_Set_General_Attr( VNNHandle handle, const char * name, const void * value )
参数 | 含义 |
---|---|
handle | SDK实例索引,类型为VNN_Handle,输入 |
name | 属性名,类型const char*,输入 |
value | 属性值,类型参见下表,输入 |
合法属性名和属性值
属性名 | 属性含义 | 属性值 | 属性值类型 |
---|---|---|---|
暂时为空 |
返回值: VNN_Result,具体值参见 状态码表
调用示例:
// 暂时为空
说明: 获取SDK实例的运行参数
VNN_Result VNN_Get_General_Attr( VNNHandle handle, const char * name, const void * value )
参数 | 含义 |
---|---|
handle | SDK实例索引,类型为VNN_Handle,输入 |
name | 属性名,类型const char*,输入 |
value | 属性值,类型参见下表,输出 |
合法属性名和属性值
属性名 | 属性含义 | 属性值 | 属性值类型 |
---|---|---|---|
暂时为空 |
返回值: 类型为VNN_Result,具体值参见 状态码表
调用示例:
// 暂时为空
参考 链接
版本 | 日期 | 更新说明 |
---|---|---|
v1.0.0 | 2021.12.07 | 初次发布 |