-
Notifications
You must be signed in to change notification settings - Fork 998
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
实例分割模Mask-RT-DETR-L型推理问题 #3548
Comments
环境官方镜像: |
启用高性能推理插件,耗时明显减少。 目前paddlex版本是3.0.0b1 我看官方文档更新
为什么3.0.0b1版本的create_pipeline不支持serial_number入参,该如何传入serial_number呢? |
对应paddlex版本的推理示例文档3.0.0b1,create_pipeline()到底怎么设置入参格式,也没有具体接口文档 |
PaddleX 高性能推理指南 from paddlex import create_pipeline pipeline = create_pipeline(
output = pipeline.predict("https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg") 这一部分示例目前在3.0.0b1,3.0.0rc0版本均不可用,在启用use_hpip的情况下,麻烦给出可用的create_pipeline入参列表。 |
还有一个疑问,在3.0.0rc0版本是计划删除 开源产线部署SDK序列号管理 这一步骤,直接可以进行use_hpip高性能推理吗? |
pipeline = create_pipeline( |
您的问题都可以在3.0rc0版本的高性能推理文档中得到解决哈。现在不需要再传入序列号了,不需要传入 |
@zhang-prog 按照文档重新安装镜像,还是推理报错 步骤2: 安装好第一次报冲突的库 步骤3: 步骤4: 步骤5: pip install erniebot_agent -i https://pypi.tuna.tsinghua.edu.cn/simple some-package 步骤6: λ ys-ai-GPU-6 /paddle/44seg/PaddleX python test.py |
还有一个训练问题,训练的时候val验证推理速度太慢,可以在训练时开启高性能推理框架吗? |
这些提示信息不用关心,您使用paddlex3.0.0rc0镜像创建一个新容器之后直接执行 |
高性能推理只针对推理阶段哈,目前不支持在训练的时候使用 |
@zhang-prog 感谢解答,发现错误是因为脚本在旧版本的代码路径里执行的,更换目录与新instance_segmentation.yaml后可以正常使用高性能推理。 目前推理3张图片后仍然会出现段错误 Only Paddle model is detected. Paddle model will be used by default. |
日志开关打开后,详细信息如下: λ ys-ai-gpu03 /paddle/03test/test paddlex --pipeline instance_segmentation.yaml --input ./test2/LD20250306142040_0307_sweetpotato_shrimp_yiwu.jpg --device gpu:0 --use_hpip WARNING: Logging before InitGoogleLogging() is written to STDERR 将 enable_trt=True时,转换模型会报错 Only Paddle model is detected. Paddle model will be used by default. C++ Traceback (most recent call last):0 paddle_infer::CreatePredictor(paddle::AnalysisConfig const&) Error Message Summary:FatalError: Build TensorRT serialized network failed! Please recheck you configurations related to paddle-TensorRT. |
您使用的是什么实例分割模型?麻烦提供一下模型名称。 |
@zhang-prog 模型是RT-DETR-L,复现应该很简单,我用官方实例分割通用pipeline instance_segmentation 应该是RT-DETR-S模型,input传入1920*1080测试图片文件夹,开启高性能推理,就会出现段错误。下午的时候我试了,也是必现。关闭高性能推理,所有图片都可以正常推理 |
@zhang-prog 你好,开始出错的是mask-RT-DETR-L,因为这个模型是我在私有数据集上微调训练的。然后又试了一下官方通用实例分割类型,也是一样的错误。 目前是mask-RT-DETR系列,高性能推理框架都不支持吗? 我删除出现段错误的图片之后剩下的50张是可以正常推理的,速度也很快,相比普通推理2s一张,提升到了100ms左右一张。 |
您是说使用 |
60张1920*1080的测试图片,10张是出现段错误的,删除后剩下的50张是可以正常推理的。这跟我是用3.0.0b1版本训练Mask-RT-DETR-L模型有关吗? |
训练集也全是19201080分辨率,Mask-RT-DETR-L输入尺寸应该是640640,我在对比开启高性能推理跟关闭高性能推理,同一张图输出json数据时发现,关闭高性能推理输出的box坐标为0的时候,高性能推理的box坐标会出现负值-1.3左右 |
mode: paddle
模型的推理inference.yml文件 |
好的,我这边复现定位一下,您现在是在3.0rc分支上使用3.0b1时自训练的 |
是的, |
3.0rc版本重新训练了1epoch, Mask-RT-DETR-H模型,高性能推理时也会出现段错误,关闭后推理正常 |
您好,我用这张1920x1080的图片确实复现了错误,正在排查问题中,您可以先用其他系列模型进行训练和推理~ |
Checklist:
描述问题
官方教程中Mask-RT-DETR-L模型GPU 推理耗时基于 NVIDIA Tesla T4 机器,精度类型为 FP32,推理耗时在
46.5059ms,
复现机器V100
图片分辨率尺寸1920x1080
推理代码
from paddlex import create_model
import time,os
#model = create_model("./output/best_model/inference")
model = create_model("Mask-RT-DETR-L")
path = './test/'
for filename in os.listdir(path):
print(filename)
img_path = path + filename
name =filename.split('.')
file_name = name[0]
for i in range(20):
start = time.time()
output = model.predict(img_path, batch_size=1)
for res in output:
res.print() # 打印预测的结构化输出
res.save_to_img("./res/") # 保存结果可视化图像
res.save_to_json("./res/") # 保存预测的结构化输出
end = time.time()
cost =end - start
print('花费 {:.5f} 秒'.format(cost))
耗时在8-9s左右
目前测试官方模型与自己微调训练的模型耗时一致都在8-9s,显存占用3GB左右,不是CPU推理
导致耗时长的原因是:
1.图片输入分辨率大?
2.未启用高性能推理插件吗?
8-9s与46ms差距有点大
The text was updated successfully, but these errors were encountered: