在Triton中的3模型cpu_threads数该如何设定呢?当前测试基本无并行 #12992
Unanswered
tigflanker
asked this question in
Q&A
Replies: 1 comment
-
期望大佬帮关注一下,这周测不通就必须得换方案,有点慌 目前是在CPU4核机器上进行测试,仅仅是测试Triton的服务,但是发现并发几乎没有效果,
测试脚本是从client.py改出来的,核心代码如下:
全部代码如附件,不知道哪块用的不对。 请大佬帮指一下,非常感谢。 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
咨询Paddleocr大佬们一个问题,我这段时间测试PaddleOCR的各个使用途径,发现FastDeploy(Triton)效果还是挺赞的,打算往生产上推了
我们自己的机器是Ubuntu(8核 16G,CPU),生产侧最高的业务并发是500
想问一下,3个模型的runtime应该怎么设?
<style> </style>本人工程做的很少,以下是我的目前设定,如果闹笑话了请随意笑笑 :)
这样的设置方法,单张图片(25kb左右),识别也就400ms左右,但是我按照例如 “ab -n 1000 -c 200”这样测试,就已经非常非常慢了;不知道瓶颈在哪儿
Beta Was this translation helpful? Give feedback.
All reactions