Pytorch精准记录函数运行时间的方法
作者:非线性光学元件
参考Pytorch官方文档对CUDA的描述,GPU的运算是异步执行的,一般来说,异步计算的效果对于调用者来说是不可见的,异步计算的后果是,没有同步的时间测量是不准确的,所以本文给大家介绍了Pytorch如何精准记录函数运行时间,需要的朋友可以参考下
0. 引言
参考Pytorch官方文档对CUDA的描述,GPU的运算是异步执行的。一般来说,异步计算的效果对于调用者来说是不可见的,因为
- 每个设备按照排队的顺序执行操作
- Pytorch对于CPU和GPU的同步,GPU间的同步是自动执行的,不需要显示写在代码中
异步计算的后果是,没有同步的时间测量是不准确的。
1. 解决方案
参考引言中提到的帮助文档,Pytorch官方给出的解决方案是使用torch.cuda.Event记录时间,具体代码如下:
# import torch start_event = torch.cuda.Event(enable_timing=True) end_event = torch.cuda.Event(enable_timing=True) start_event.record() # Run your code snippet here end_event.record() torch.cuda.synchronize() # Wait for the events to be recorded! elapsed_time_ms = start_event.elapsed_time(end_event) # elapsed time (ms)
将你的代码插入start_event.record()
和end_event.record()
中间以测量时间(单位毫秒)。
有能力的读者也可以包装为装饰器或者with语句使用:
先书写一个自定义with类(ContextManager)
class CudaTimer: def __init__(self): self.start_event = torch.cuda.Event(enable_timing=True) self.end_event = torch.cuda.Event(enable_timing=True) def __enter__(self): self.start_event.record() return self def __exit__(self, exc_type, exc_value, traceback): self.end_event.record() torch.cuda.synchronize() self.elapsed_time = self.start_event.elapsed_time(self.end_event) / 1000 # ms -> s
再安装如下with语句返回:
with CudaTimer() as timer: # run your code here dt = timer.elapsed_time # s
这样保证了多个文件调用时语句的简单性。特别提醒:获取timer.elapsed_time
操作不要写在with
语句内部。在with语句未结束时,是无法获取timer的成员变量的。
2. 补充
对于CPU和GPU混合操作的函数,使用torch.cuda.event
可能会使统计时间比实际时间短,此时可以使用time.time()
代替,标准的with对象书写如下:
# import time class Timer: def __enter__(self): self.start_time = time.time() return self def __exit__(self, exc_type, exc_value, traceback): torch.cuda.synchronize() self.elapsed_time = time.time() - self.start_time
然后只需要将上文的with CudaTimer() as timer
替换为with Timer() as timer
即可。
到此这篇关于Pytorch精准记录函数运行时间的方法的文章就介绍到这了,更多相关Pytorch记录函数运行时间内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!