Hẳn nhiên, bạn đã quá quen thuộc với CPU (Central Processing Unit). Linh hoạt và đáp ứng nhanh, trong nhiều năm qua, CPU là thành phần có thể lập trình duy nhất trong hầu hết các hệ máy tính.
Về sau, GPU (Graphic Processing Unit), đã xuất hiện và dần chiếm vai trò quan trọng trong một số ứng dụng máy tính đặc thù. Ban đầu được sử dụng để cung cấp khả năng đồ họa mạnh mẽ và theo thời gian thực, khả năng xử lý song song làm cho chúng trở nên lý tưởng cho hầu hết các tác vụ điện toán tăng tốc.
Điều đó khiến chúng trở thành chiếc chìa khóa mở cánh cửa cho trí tuệ nhân tạo, học sâu và các ứng dụng phân tích dữ liệu lớn.
Tuy nhiên trong một thập kỷ qua, điện toán đã vượt ra khỏi giới hạn của PC và máy chủ – với CPU và GPU cung cấp sức mạnh cho các trung tâm dữ liệu siêu quy mô mới.
Các trung tâm dữ liệu này sẽ được hỗ trợ với một chủng loại bộ xử lý mới mạnh mẽ. DPU, Data Processing Unit, đã trở thành thành viên thứ ba của mô hình điện toán tăng tốc tập trung vào dữ liệu. Những bộ xử lý mới này sẽ đại diện cho một trong ba trụ cột chính của điện toán trong tương lai, Giám đốc điều hành của NVIDIA, Jensen Huang nói trong một bài thuyết trình vào đầu tháng này.
CPU dành cho điện toán đa dụng, GPU dành cho điện toán tăng tốc và DPU, thứ giúp di chuyển dữ liệu xung quanh data center, sẽ thực hiện việc xử lý dữ liệu.
DPU là gì?
Vậy điều gì làm cho DPU khác biệt?
DPU là một lớp bộ vi xử lý có thể lập trình mới kết hợp ba yếu tố chính. DPU là một hệ thống trên chip (SOC) kết hợp các thành phần:
- CPU đa lõi, hiệu năng cao, có thể lập trình được bằng phần mềm, thường dựa trên kiến trúc ARM phổ biến, kết hợp chặt chẽ với các thành phần SoC khác.
- Giao diện mạng hiệu suất cao có khả năng phân tích, xử lý và truyền dữ liệu hiệu quả ở tốc độ của đường truyền, hoặc tốc độ chung của phần còn lại trên network, đi tới GPU và CPU.
- Một bộ máy tăng tốc linh hoạt và có thể lập trình đa dạng, giúp giảm tải và cải thiện hiệu suất ứng dụng cho AI và Machine Learning, bảo mật, viễn thông và lưu trữ, và nhiều thứ khác.
Tất cả các khả năng của DPU này là rất quan trọng để cho phép tạo ra một hệ thống điện toán đám mây gốc (cloud-native) dựa trên phần cứng vật lý, độc lập, sẽ tạo ra thế hệ điện toán đám mây tiếp theo.
DPU: Được hợp nhất vào SmartNIC
DPU có thể được sử dụng như một bộ xử lý nhúng độc lập, nhưng nó thường được tích hợp vào SmartNIC, bộ điều khiển giao tiếp mạng được sử dụng làm thành phần chính trong máy chủ thế hệ tiếp theo.
Các thiết bị khác được hiểu sai thành DPU bỏ lỡ các yếu tố quan trọng của ba khả năng quan trọng này, đó là điều cơ bản để trả lời cho câu hỏi: DPU là gì?
DPU có thể được sử dụng làm bộ xử lý nhúng độc lập, nhưng chúng thường được tích hợp vào SmartNIC, bộ điều khiển giao diện mạng được sử dụng làm thành phần chính trong máy chủ thế hệ tiếp theo.
Ví dụ, một số nhà cung cấp sử dụng bộ xử lý độc quyền không được hưởng lợi từ cơ sở hạ tầng ứng dụng và phát triển phong phú, được cung cấp bởi hệ sinh thái CPU ARM rộng lớn.
Một số hãng tuyên bố họ có DPU, nhưng mắc lỗi ở việc chỉ tập trung vào CPU nhúng để thực hiện xử lý luồng dữ liệu (data path).
DPU: Một sự tập trung vào năng lực xử lý dữ liệu
Sẽ thật sự thiếu tính cạnh tranh và khó mở rộng nếu cố gắng đánh bại CPU x86 truyền thống bằng việc tấn công vào hiệu suất, đó sẽ là một trận thua. Nếu việc xử lý các packet 100 Gigabit/sec là sự yếu thế của x86, tại sao CPU nhúng sẽ hoạt động tốt hơn?
Network interface cần phải đủ mạnh mẽ và linh hoạt để xử lý tất cả các nhu cầu xử lý network data path. CPU nhúng nên được sử dụng để khởi tạo luồng (path) điều khiển và xử lý các ngoại lệ. Ngoài ra không có gì khác hơn.
Tối thiểu cần có 10 khả năng mà các công cụ tăng tốc network data path có thể cung cấp:
- Phân tích gói dữ liệu, khớp và can thiệp để thực hiện một open virtual switch (OVS)
- Tăng tốc truyền dữ liệu RDMA cho Zero Touch RoCE
- Bộ tăng tốc GPU-Direct để bỏ qua CPU và cung cấp dữ liệu được kết nối trực tiếp tới GPU (cả từ hệ thống lưu trữ và từ các GPU khác)
- Tăng tốc TCP bao gồm RSS, LRO, checksum, v.v…
- Ảo hóa mạng cho các lớp phủ VXLAN và Geneve và VTEP offload
- Tăng tốc traffic packet để cho phép truyền phát đa phương tiện, CDN và các luồn video 4K / 8K mới qua IP (RiverMax for ST 2110)
- Bộ tăng tốc định thời (timming accelerator) chính xác cho telco Cloud RAN, chẳng hạn như 5T cung cấp khả năng cho 5G
- Crypto acceleration cho IPSEC và TLS được thực hiện inline nên tất cả các tăng tốc khác vẫn hoạt động bình thường
- Hỗ trợ ảo hóa cho SR-IOV, VirtIO và para-virtualization
- Secure Isolation: root of trust, secure boot, secure firmware upgrades, authenticated container và application life cycle management
Đây chỉ là 10 trong số các khả năng tăng tốc và phần cứng rất quan trọng để có thể trả lời có cho câu hỏi: DPU là gì?
Vậy DPU là gì? Và đây là một DPU:
Nhiều con chip được cho là DPU chỉ tập trung vào việc cung cấp một hoặc hai trong số các chức năng này. Một nỗ lực tệ nhất để giảm tải datapath trong các bộ xử lý độc quyền. Trong khi việc này là tốt để tạo ra prototype, đây chỉ là một việc không đáng kể, vì vấn đề quy mô, phạm vi và độ rộng của trung tâm dữ liệu.
Từ NVIDIA Blog
Bài viết liên quan
- GPUDirect RDMA là gì?
- GPUDirect Storage là gì?
- Hyperscale computing: Làm cách nào để đạt được năng lực điện toán quy mô lớn tốt hơn
- Máy chủ tăng tốc cho AI thúc đẩy tăng trưởng chi tiêu cho trung tâm dữ liệu
- Cluster Computing – Thế nào là điện toán cụm?
- Xây dựng hệ thống dữ liệu hiệu suất cao cho AI với VAST Data Platform