-
Notifications
You must be signed in to change notification settings - Fork 998
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
高性能框架 #3515
Comments
请给出具体的代码调用示例并提供报错信息。 |
model_name = "PP-OCRv4_server_det" model1_name = "PP-OCRv4_server_rec_doc"
[ERROR] Due to the unsupported operators, the conversion is aborted. |
请问有通过配置文件手工指定使用的推理后端吗?另外,使用的模型是否是paddlex 3.0rc导出的模型,或者是paddlex 3.0rc的官方模型呢? |
这两个模型没有通过配置文件去指定推理后端 |
请问可以提供一下完整的错误日志信息吗?从上面的代码看来,是模型在转onnx格式时遇到了不支持的算子,但这个模型在issue里所指示的环境中是经过测试的,如果使用高性能推理的默认配置不应该出现这个问题,所以我们可能需要根据详细的错误信息判断一下原因。建议可以以文件的形式上传~ |
另外,目前paddlex不支持在一个进程中,部分模型启用hpip,另一部分模型不启用。我们在下一个版本将补足这块的能力 |
好的,谢谢,之后我将上传代码文件 |
Checklist:
描述问题
为什么单独使用文本识别模型的高性能推理没有问题,但是将文本检测和文本识别模型放到一个文件中,
都使用高性能推理框架却报错,文本识别模型: PP-OCRv4_server_rec_doc,文本检测模型:PP-OCRv4_server_det
复现
高性能推理
您是否完全按照高性能推理文档教程跑通了流程?
您使用的是离线激活方式还是在线激活方式?
服务化部署
您是否完全按照服务化部署文档教程跑通了流程?
您在服务化部署中是否有使用高性能推理插件,如果是,您使用的是离线激活方式还是在线激活方式?
如果是多语言调用的问题,请给出调用示例子。
端侧部署
您是否完全按照端侧部署文档教程跑通了流程?
您使用的端侧设备是?对应的PaddlePaddle版本和PaddleLite版本分别是什么?
您使用的模型和数据集是?
请提供您出现的报错信息及相关log
环境
3.0.0rc0,python 3.10
Linux
cuda11.8-cudnn8.6-trt8.5
The text was updated successfully, but these errors were encountered: