一次使用threading.Thread来实现Pytorch多个模型并发运行的失败案例

文章目录

背景

我有多个pytorch GPU模型,他们有不同的参数(也就是说不是共享的),但是相同的数据输入,想要并发运行。

不并发运行,当然就是循环喽。

复制代码
        for i in range(self.args.m):
            self.models[i](batch)

我想要并发,因为m有点大。像上面循环的话m=30以上速度就有点受不了了。我看过了,我的GPU还有很多空间,起码放上去10个模型没有问题。

我的做法(但证明不起效果)

我想到了多线程,如下:

复制代码
class MyThread_forward(threading.Thread):  #自定义线程类
    def __init__(self, model,batch):
        threading.Thread.__init__(self)
        self.model = model              
        self.batch=batch
    def run(self):                    
        self.result=self.model(self.batch) 
    def get_result(self): 
        return self.result

def multi_thread_forward():
    threads=[]
    for  i in range(self.args.m):#创建多个线程
        threads.append(MyThread_forward(self.models[i],batch))
    for thread in threads:#各个线程开始并发运行。
        thread.start()
    for thread in threads:#等待各个线程运行完毕再执行下面代码。
        thread.join()    
    results= []
    for thread in threads:
    	results.append(thread.get_result())  #每个线程返回结果(result)加入列表中
    return results
    
multi_thread_forward()#多线程运行。

结果就是不起效果好像,还是运行得很慢,咋回事捏。

相关推荐
七夜zippoe3 分钟前
Python网络编程实战:从TCP/IP到WebSocket的协议演进与核心技术解析
网络·python·websocket·tcp/ip·socket·心跳机制
jj008u3 分钟前
Garmin 中国区活动同步到国际区的一个简单实现方案
python·ai编程
互联网Ai好者8 分钟前
米柚AI搜索(MiYo.AI):实时智能搜索聚合平台开源推荐
人工智能·开源
煤炭里de黑猫10 分钟前
使用PyTorch创建一个标准的Transformer架构
人工智能·pytorch·transformer
暖阳之下12 分钟前
学习周报三十二
人工智能·学习
byzh_rc14 分钟前
[机器学习从入门到入土] 自回归滑动平均ARMA
人工智能·机器学习·回归
Das114 分钟前
【机器学习】10_特征选择与稀疏学习
人工智能·学习·机器学习
徐1114 分钟前
文物数据如何长期保存?非接触式3D扫描仪的数字化解决方案
人工智能
SAP工博科技15 分钟前
SAP ERP 公有云 AI / 机器学习落地指南:技术架构、业务场景与实施路径
人工智能
ybdesire15 分钟前
AI驱动的威胁狩猎落地案例
人工智能