NVIDIA HGX 8x A100: Nền tảng tăng tốc mạnh mẽ cho AI và ChatGPT

Thời gian vừa qua, chúng tôi đã có cơ hội tiến hành thử nghiệm với ChatGPT sử dụng hệ thống NVIDIA A100. Tuy nhiên, chi phí cao của GPU này, lên đến hơn 10.000 đô la mỗi chiếc, khiến cho không phải ai cũng có thể tiếp cận được. Để cung cấp thông tin cụ thể hơn, chúng tôi đã tìm hiểu khả năng của hệ thống NVIDIA 8x A100 trong việc cung cấp sức mạnh cho ChatGPT bằng cách khai thác dữ liệu từ kho lưu trữ STH.

GPU A100 PCIe và các “đàn em” của nó

Đối với những người chưa quen với NVIDIA A100, thì có thể hiểu đây là một GPU chuyên dụng được thiết kế cho hệ thống máy chủ, không giống như dòng GeForce của NVIDIA, được sử dụng phổ biến để chơi game. A100 được thiết kế đặc biệt để tích hợp chặt chẽ vào hệ thống mà không cần bất kỳ quạt tản nhiệt chủ động nào, nó tối ưu hóa cho các tác vụ điện toán hiệu năng cao (HPC) và trí tuệ nhân tạo, thay vì chỉ dùng để hiển thị hình ảnh 3D mượt mà cho các ứng dụng trò chơi. Các kết nối tốc độ cao được gọi là NVLink cũng có trong các phiên bản PCIe của GPU này nhưng chúng không được thiết kế cho mục đích chơi game.

ASUS RS720A E11 RS24U AMD EPYC 7003 And NVIDIA A100 PCIe

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI

NVIDIA A100 không dành cho chơi game chính vì thiết kế của nó. Đối với hầu hết các hệ thống 8x NVIDIA A100, một thiết kế chuyên biệt dành riêng cho NVIDIA có tên là SXM4 được sử dụng để cho phép tiêu thụ lượng điện năng đáng kể từ các GPU. Các GPU phiên bản SXM4 có thể đạt đến 400-500W mỗi đơn vị, gấp đôi công suất của các phiên bản PCIe như các GPU chơi game. Tuy nhiên, các GPU A100 SXM4 không được bán riêng lẻ mà là một phần của hệ thống con có 4 hoặc 8 GPU do quá trình cài đặt khó khăn, hư hỏng bất kỳ cái chốt hoặc bộ phận tản nhiệt nào trên GPU có thể dẫn đến phá hủy hệ thống, và vì giá thành đắt đỏ của mỗi chiếc A100.

2x NVIDIA A100 PCIe With NVLink Bridges Installed

Các máy chủ hiện đại sử dụng GPU 8x SXM4 được gắn trên bo mạch chủ NVIDIA HGX A100. Điều này đã trở thành yếu tố trung tâm trong các hệ thống AI tùy chỉnh của nhiều nhà cung cấp như Supermicro, ASUS,… Hệ thống này cũng được Dell EMC mới đưa ra thị trường với mẫu máy chủ Dell PowerEdge XE9680. HGX A100 được thiết kế để phù hợp với tám GPU SXM4 của NVIDIA, được kết nối bằng đầu nối PCIe mật độ cao giữa GPU và máy chủ lưu trữ.
 

Các tản nhiệt quan trọng khác trên NVIDIA HGX A100 dùng để làm mát NVSwitches, đây là công nghệ kết nối tốc độ cao độc quyền của NVIDIA. NVSwitch cho phép giao tiếp cực nhanh giữa các A100 riêng lẻ trong một hệ thống.

HGX A100 của NVIDIA bao gồm 8 GPU NVIDIA A100 80GB 500W, cung cấp tốc độ xử lý nhanh, tuy nhiên tiêu thụ năng lượng lớn lên tới 5kW. Với khả năng tính toán mở rộng và dung lượng bộ nhớ tích hợp đáng kể, GPU A100 có tính năng độc đáo gọi là MIG, cho phép phân vùng GPU thành các kích cỡ khác nhau giống như phiên bản đám mây. Tính năng này được sử dụng để tăng thông lượng của GPU trong các công việc suy luận AI song song, giúp quản lý tác vụ suy luận AI một cách hiệu quả.

8x NVIDIA A100 500W Nvidia Smi Output

Đây là những gì xảy ra khi chúng tôi chia NVIDIA A100 40 GB thành hai phiên bản MIG.

Supermicro AS 04124GO NART Liquid Cooling Linpack 8x A100 80GB 500W

Như bạn có thể đã thấy, tất cả những điều này đòi hỏi RẤT NHIỀU sự làm mát. Đây là hai hệ thống NVIDIA A100, mặt trên làm mát bằng không khí, mặt dưới làm mát bằng chất lỏng.

NVIDIA A100 40GB Split To Two MIG Instances

Hệ thống làm mát bằng chất lỏng giúp tăng hiệu suất và cho phép chúng tôi chạy A100 ở giới hạn công suất cao hơn, nhờ đó tăng hiệu suất.

Supermicro Liquid Cooling Supermicro AS 4124GO NART Air And Liquid Cooled Front

Mặc dù NVIDIA A100 rất tuyệt, nhưng biên giới tiếp theo là NVIDIA H100 hứa hẹn hiệu năng cao hơn nữa.

Sản phẩm tiếp theo của NVIDIA sau NVIDIA A100 là NVIDIA H100. Đây là một loại thẻ đồ họa công suất cao với kiến trúc “Hopper” mới của công ty. NVIDIA sẽ có cả phiên bản PCIe và SXM5. Đây là hình ảnh của NVIDIA H100 SXM5 tại trụ sở của NVIDIA mà chưa được gắn tản nhiệt.

Nếu bạn muốn xem các hệ thống NVIDIA H100 mới, chúng tôi đã giới thiệu chúng trong video giới thiệu Supermicro X13 gần đây của chúng tôi:

Chúng tôi thậm chí còn có hệ thống GPU NVIDIA H100 8x, hệ thống PCIe và hệ thống PCIe A100 dành cho máy tính để bàn với hệ thống làm mát bằng chất lỏng lớn trong video hệ thống tăng tốc GPU.

NVIDIA A100 là chủ đề nóng được đề cập trong OpenAI ChatGPT và hiện tại với việc tích hợp trong Microsoft Bing, chúng tôi nghĩ rằng thật đáng giá để giới thiệu cho mọi người những gì GPU này làm được. Mặc dù NVIDIA A100 và H100 mới được gọi là “GPU” và có thể đắt hơn so với các “đàn em” chuyên cho chơi game máy tính để bàn như NVIDIA GeForce RTX 4090, tuy nhiên chúng thực sự là bộ tăng tốc tính toán hiệu năng cao được điều chỉnh cho các tải xử lý trí tuệ nhân tạo chuyên dụng.

Theo Servethehome

____
Bài viết liên quan

Góp ý / Liên hệ tác giả