您好,作者!
我对计算量与内存消耗的对比实验很感兴趣,希望能够对其进行复现。
我在编译完tvm后,在RTX 3080 10GB、Ubuntu 20.04、Python 3.7、pytorch 1.8.0、CUDA 11.1、TVM 0.8.0条件下运行
python single_step_main.py -data_path data/flow/ -dataset flow -use_tvm后,训练过程中占用显存为7.77GB,速度为4.27it/s,感觉与论文中图4展示的结果差距较大,因此对这部分实验产生了兴趣。
请问论文中图4的横坐标sequence length对应的是程序中的input_size吗?能够提供更加详细的实验条件吗?
您好,作者!
我对计算量与内存消耗的对比实验很感兴趣,希望能够对其进行复现。
我在编译完tvm后,在RTX 3080 10GB、Ubuntu 20.04、Python 3.7、pytorch 1.8.0、CUDA 11.1、TVM 0.8.0条件下运行
python single_step_main.py -data_path data/flow/ -dataset flow -use_tvm后,训练过程中占用显存为7.77GB,速度为4.27it/s,感觉与论文中图4展示的结果差距较大,因此对这部分实验产生了兴趣。请问论文中图4的横坐标sequence length对应的是程序中的input_size吗?能够提供更加详细的实验条件吗?