-
Notifications
You must be signed in to change notification settings - Fork 974
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
离线模型部署 #2715
Comments
使用命令是什么?create_model如何调用的 |
使用命令是 paddlex --pipeline OCR --input page.png --device gpu:2 |
好的,谢谢,我去试试 |
想问一下我把模型都放到 /paddlex/official_inference_model/paddle3.0b2 这个文件夹下了,为什么还是报错 |
我是通过docker直接获取的PaddleX |
只把模型放到对应目录是不行的。需要:
|
特别感谢你的回复和建议,我再去尝试一下 |
我也是docker,按照您这个方法去做了,新的yaml配置文件和本地模型都确认修改正确,但是执行 我也单独提了issue#2736 |
直接用您的方法,会报错配置文件不存在,几种路径都试了 λ root123 ~/PaddleX/paddlex/inference/pipelines paddlex --pipeline ./OCR.yaml --input paddle/docker/1.png --device gpu:0 |
Checklist:
描述问题
小白想请教一下,离线下载模型之后,create_model还是会从网址上下载模型,应该怎么解决
复现
高性能推理
您是否完全按照高性能推理文档教程跑通了流程?
您使用的是离线激活方式还是在线激活方式?
服务化部署
您是否完全按照服务化部署文档教程跑通了流程?
您在服务化部署中是否有使用高性能推理插件,如果是,您使用的是离线激活方式还是在线激活方式?
如果是多语言调用的问题,请给出调用示例子。
端侧部署
您是否完全按照端侧部署文档教程跑通了流程?
您使用的端侧设备是?对应的PaddlePaddle版本和PaddleLite版本分别是什么?
您使用的模型和数据集是?
请提供您出现的报错信息及相关log
环境
请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号
请提供您使用的操作系统信息,如Linux/Windows/MacOS
请问您使用的CUDA/cuDNN的版本号是?
The text was updated successfully, but these errors were encountered: