+4

[NVIDIA Tools] Bài 10: Bandwidth - Throughput - Latency

Ở bài viết này mình sẽ giới thiệu 3 khái niệm rất quan trọng trong việc profiling là Bandwidth - Throughput - Latency

Bandwidth - Throughput - Latency

Để đánh giá 1 đoạn code, 1 chương trình thì ba khái niệm quan trọng cần được xem xét là bandwidth, throughput và latency . Tuy nhiên, chúng ta thường dễ nhầm lẫn khi chỉ đưa ra một trong ba thông tin này mà không kèm theo các thông tin khác, dẫn đến đánh giá không chính xác về hiệu năng - hiệu suất. Vì mỗi máy tính khác nhau có thể có dẫn đến thông số về latency hoặc bandwidth khác nhau, việc chỉ cung cấp một thông tin sẽ không phản ánh được hiệu năng thực sự của đoạn code.

Latency

Latency(s) : là thời gian để hoàn thành 1 task. 1 lưu ý vô cùng quan trọng là khi profile ( ví dụ như cudaEvent_t start, stop ) sẽ khiến performance bị ảnh hưởng nên vì vậy khi chạy chương trình 1 lần cuối nên xóa các dòng code profile.

Và thay vì dùng cudaEvent_t start, stop để kiểm tra latency thì chúng ta có thể dùng nsight system cho việc đó bằng command

nsys profile -o timeline --trace cuda,nvtx,osrt,openacc ./a.out

Thì lúc này tất cả những thứ chạy trên GPU sẽ được measure 1 cách chi tiết

image.png

Và như bài Giới thiệu Nsight Systems - Nsight Compute thì qua các thông số phía trên chúng ta có thể xác định là đoạn code của chúng ta cần cải thiện ở phần cấp phát data cho GPU (cudaMalloc)

Bandwidth

Bandwidth(GB/s) : thể hiện tốc độ read/write data

Khi nhắc tới Bandwidth chúng ta sẽ đề cập tới 2 khái niệm:

  • Theoretical Peak Bandwidth: tốc độ lý tưởng trong việc transfer data

image.png

image.png

image.png

Chia cho 8 vì đổi từ bit sang byte

Chia cho 10^9 là dùng để đổi qua GB/s

DDR: double data rate thì là * 2

SDR: single data rate thì * 1

Cách xác định DDR hoặc SDR bằng command:

sudo lshw -c memory

Và vì máy mình là DDR nên image.png

  • Effective bandwidth : là tốc độ thực sự trong việc transfer data của kernel

Screenshot from 2024-06-23 10-54-36.png

R(B): số lượng byte được read mỗi kernel

W(B): số lượng byte được write mỗi kernel

t(s): latency

Code

Chúng ta sẽ thực hiện bài toán y[i] = a*x[i] + y[i] với N = 20 * (1 << 20)

__global__
void saxpy(int n, float a, float *x, float *y)
{
  int i = blockIdx.x*blockDim.x + threadIdx.x;
  if (i < n) y[i] = a*x[i] + y[i];
}
  cudaEvent_t start, stop;
  cudaEventCreate(&start);
  cudaEventCreate(&stop);

  cudaEventRecord(start);

  // Perform SAXPY on 1M elements
  saxpy<<<(N+511)/512, 512>>>(N, 2.0f, d_x, d_y);

  cudaEventRecord(stop);

  cudaEventSynchronize(stop);
  float milliseconds = 0;
  cudaEventElapsedTime(&milliseconds, start, stop);

  printf("time: %f\n", milliseconds);
  printf("Effective Bandwidth (GB/s): %f", N*4*3/milliseconds/1e6);
}

Áp dụng công thức R + W thì N * 3 là vì read a + read y + write y và N * 4 là đổi qua byte ( float = 4 byte)

Và đây là output image.png

Nhưng nếu các bạn profile bằng Nsight compute bằng command:

ncu -o profile --set full ./a.out

Thì sẽ thấy là image.png

image.png

image.png

Từ đây chúng ta có thể tính toán

image.png

Như mình đã đề cập phía trên, nếu chúng ta profile ( cudaEvent_t start, stop ) sẽ khiến performance của code bị ảnh hưởng từ 91GB/s --> 87.8GB/s

Và chúng ta cũng có thể tính toán ngược lại để xác định image.png

Việc bị lệch 1 xíu so với công thức phía trên ( 96 GB/s --> 95,8 GB/s là do các yếu tố như memory và kernel ảnh hưởng )

Từ đây chúng ta có thể kết luận code của chúng ta về mặt transfer data rất ổn - không có sự chênh lệch lớn giữa Theoretical - Effective

Các bạn có thể xác định effective bandwidth nhanh hơn bằng command:

Load: ncu --metrics l1tex__t_bytes_pipe_lsu_mem_global_op_ld.sum.per_second ./a.out
Store: ncu --metrics l1tex__t_bytes_pipe_lsu_mem_global_op_st.sum.per_second ./a.out

image.png image.png

Ta có thể thấy 60.68 + 30.40 = 91.08 GB/s gần với 96GB/s ==> code ổn

Computational Throughput

Throughput(GFLOP/s): Là số lượng FLOP mà kernel có thể thực hiện trong một giây

FLOP (Floating Point Operations): Là một phép toán dấu chấm động. Một phép toán này có thể là phép cộng, trừ, nhân, chia, hoặc các phép toán phức tạp hơn như căn bậc hai, sin, cos,....

image.png

Câu hỏi đặt ra là nên cải thiện bandwidth hay là throughput? Vì ông này tăng là ông khác giảm vậy làm sao biết được giá trị đạt chuẩn?

Tăng bandwidth ==> nhiều data được read/write ==> số lượng phép toán tăng ==> throughput giảm và ngược lại

Để trả lời cho câu hỏi đó chúng ta có 1 kĩ thuật gọi là roofline chart và mình sẽ đề cập ở các bài sau

image.png

code mình sẽ để ở đây


All Rights Reserved

Viblo
Let's register a Viblo Account to get more interesting posts.