-
Notifications
You must be signed in to change notification settings - Fork 143
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Inference the STARK-Lightning onnx models with ONNXRunTime(C++) #82
Comments
请问您的项目地址? |
lightning的效果跟本没法落地 |
Really? There are many ways to optimize a research model for practical deployment. Looking forward to seeing your advance. |
|
我上传了我自己的GitHub,只不过暂时处于private状态(因为项目里用到了这部分代码),如果你确有需求可以私聊我或者留下你的微信我加你,谢谢。 |
确实,lightning的效果确实如你所说,我这边也的导出了stark_st50的onnx并且以onnxruntime(c++)进行了推理,这个效果不错。但是就如你所说的,lightning用于性能比较羸弱的计算设备上是比较合适的,而stark_st50导出的onnx在性能羸弱的设备上速度就比较差了。此外我还在性能更差的Jetson TX2上测试了lightning(onnxruntime c++)的代码,能够达到30fps以上,因此效果还行。我在着手将stark的onnx以TensoRT(c++)的方式进行推理并且辅以cuda加速前后处理,等有了结果我再提issue. |
确实,lightning的效果确实如你所说,我这边也的导出了stark_st50的onnx并且以onnxruntime(c++)进行了推理,这个效果不错。但是就如你所说的,lightning用于性能比较羸弱的计算设备上是比较合适的,而stark_st50导出的onnx在性能羸弱的设备上速度就比较差了。此外我还在性能更差的Jetson TX2上测试了lightning(onnxruntime c++)的代码,能够达到30fps以上,因此效果还行。我在着手将stark的onnx以TensoRT(c++)的方式进行推理并且辅以cuda加速前后处理,等有了结果我再提issue. |
我这边把tensorRT版本的跑起来了,在另外一个issue中,各位有兴趣可以去看看 |
这边已经将STARK-Lightning的onnx模型以ONNXRunTime(C++)版本进行了推理, 在Quadro P4200显卡上能够跑到170 FPS左右, 在Jetson Agx Xavier这种边缘计算设备上能够跑到80~90 FPS左右. 并且在性能更加羸弱的jetson TX2(大疆 妙算2)上测试了速度能够达到30FPS多。我的邮箱是[email protected], 有需要探讨的可以先给我发邮件,我git不一定常看这些消息.
The text was updated successfully, but these errors were encountered: