QCT và Supermicro là một trong số những hãng đầu tiên sử dụng đặc tả kỹ thuật máy chủ NVIDIA MGX, cho phép hơn 100 cấu hình hệ thống chuyên dụng cho việc tăng tốc các tải xử lý AI, HPC và Omniverse.
Để đáp ứng nhu cầu điện toán tăng tốc đa dạng của các trung tâm dữ liệu trên thế giới, NVIDIA đã công bố bảng đặc tả kỹ thuật của nền tảng máy chủ NVIDIA MGX tại sự kiện COMPUTEX 2023, cung cấp cho các nhà sản xuất hệ thống một kiến trúc tham chiếu module hóa để xây dựng hơn 100 biến thể máy chủ tăng tốc một cách nhanh chóng và tiết kiệm chi phí, phù hợp với dải nhu cầu đa dạng của AI, điện toán hiệu năng cao (HPC) và các ứng dụng Omniverse.
ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT và Supermicro sẽ vận dụng nền tảng MGX này, có thể cắt giảm tới 3/4 chi phí phát triển và giảm 2/3 thời gian phát triển xuống chỉ còn 6 tháng.
Kaustubh Sanghani, phó chủ tịch phụ trách sản phẩm GPU của NVIDIA cho biết: “Các doanh nghiệp đang tìm kiếm nhiều lựa chọn điện toán tăng tốc hơn khi kiến trúc trung tâm dữ liệu đáp ứng nhu cầu kinh doanh và ứng dụng cụ thể của họ. Chúng tôi đã tạo ra MGX để giúp các công ty khởi động chiến lược AI doanh nghiệp của họ, đồng thời tiết kiệm cho họ một lượng thời gian và tiền bạc đáng kể.”
Với MGX, các nhà sản xuất bắt đầu với kiến trúc hệ thống cơ bản được tối ưu hóa để tăng tốc điện toán cho bộ khung máy chủ của họ, sau đó chọn GPU, DPU và CPU. Các biến thể thiết kế có thể giải quyết các khối lượng công việc đặc thù, chẳng hạn như HPC, khoa học dữ liệu, mô hình ngôn ngữ lớn, điện toán biên, đồ họa và video, trí tuệ nhân tạo doanh nghiệp cũng như thiết kế và mô phỏng. Nhiều tác vụ như đào tạo AI và 5G có thể được xử lý trên một máy duy nhất, trong khi việc nâng cấp lên các thế hệ phần cứng trong tương lai có thể diễn ra suôn sẻ. MGX cũng có thể dễ dàng tích hợp vào các trung tâm dữ liệu doanh nghiệp và đám mây.
Hợp tác với các công ty dẫn đầu trong ngành
QCT và Supermicro sẽ là những nơi đầu tiên đưa ra thị trường, với các thiết kế MGX sẽ xuất hiện vào tháng 8. Hệ thống ARS-221GL-NR của Supermicro, vừa được công bố, sẽ bao gồm CPU NVIDIA Grace Superchip, trong khi hệ thống S74G-2U của QCT, cũng vừa được công bố, sẽ sử dụng NVIDIA GH200 Grace Hopper Superchip.
Ngoài ra, SoftBank Corp. có kế hoạch triển khai nhiều trung tâm dữ liệu hyperscale trên khắp Nhật Bản và sử dụng MGX để phân bổ động tài nguyên GPU giữa các ứng dụng Generative AI và 5G.
Junichi Miyakawa, Chủ tịch kiêm Giám đốc điều hành của SoftBank Corp cho biết: “Khi trí Generative AI tỏa khắp cộng đồng doanh nghiệp và người tiêu dùng, việc xây dựng hạ tầng phù hợp với chi phí hợp lý là một trong những thách thức lớn nhất của các nhà khai thác mạng. Nó cho phép triển khai AI đa mục đích, 5G, v.v. tùy thuộc vào yêu cầu của tải xử lý theo thời gian thực.”
Các thiết kế khác nhau cho các nhu cầu khác nhau
Các trung tâm dữ liệu ngày càng cần đáp ứng các yêu cầu về cả khả năng tính toán ngày càng tăng và giảm lượng khí thải carbon để chống biến đổi khí hậu, đồng thời cắt giảm chi phí.
Các máy chủ điện toán tăng tốc của NVIDIA từ lâu đã cung cấp hiệu suất điện toán và hiệu suất năng lượng vượt trội. Giờ đây, thiết kế module hóa của MGX mang đến cho các nhà sản xuất hệ thống khả năng đáp ứng hiệu quả hơn các yêu cầu về ngân sách, cung cấp điện, thiết kế nhiệt và cơ học riêng của từng khách hàng.
Nhiều form factor mang lại tính linh hoạt tối đa
MGX hoạt động với các form factor khác nhau và tương thích với các thế hệ phần cứng NVIDIA hiện tại và tương lai, bao gồm:
- Chassis: 1U, 2U, 4U (làm mát bằng không khí hoặc chất lỏng)
- GPU: Danh mục GPU NVIDIA đầy đủ bao gồm H100, L40, L4 mới nhất
- CPU: NVIDIA Grace CPU Superchip, GH200 Grace Hopper Superchip, CPU x86
- Kết nối mạng: Bộ điều hợp mạng NVIDIA BlueField-3 DPU, ConnectX-7
MGX khác với NVIDIA HGX ở chỗ, nó cung cấp khả năng tương thích linh hoạt, hỗ trợ đa thế hệ với các sản phẩm của NVIDIA để đảm bảo các nhà sản xuất hệ thống có thể sử dụng lại các thiết kế hiện có và dễ dàng áp dụng các sản phẩm thế hệ tiếp theo mà không cần thiết kế lại một cách tốn kém. Ngược lại, HGX dựa trên bo mạch chủ multi-GPU, được kết nối với NVLink và được điều chỉnh theo quy mô để tạo ra hệ thống AI và HPC tối ưu.
Hỗ trợ đầy đủ với phần mềm của NVIDIA
Ngoài phần cứng, MGX được hỗ trợ bởi các software stack đầy đủ của NVIDIA, cho phép các nhà phát triển và doanh nghiệp xây dựng và tăng tốc AI, HPC và các ứng dụng khác. Chúng bao gồm NVIDIA AI Enterprise, NVIDIA AI platform software layer, có hơn 100 framework và model được đào tạo trước (pre-trained) và công cụ phát triển để tăng tốc AI, khoa học dữ liệu nhằm phát triển và triển khai AI cấp doanh nghiệp, được hỗ trợ đầy đủ.
MGX tương thích với các máy chủ rackmount của Open Compute Project và Electronic Industries Alliance, để tích hợp nhanh chóng vào các trung tâm dữ liệu đám mây và doanh nghiệp.
* Cùng xem vị CEO, Founder của NVIDIA Jensen Huang thảo luận về đặc tả kỹ thuật của máy chủ MGX trong bài phát biểu chính của ông tại COMPUTEX.
Bài viết liên quan
- GPUDirect RDMA là gì?
- GPUDirect Storage là gì?
- So sánh các GPU Tensor Core của NVIDIA: B200, B100, H200, H100, A100
- NVIDIA giới thiệu nền tảng microservice Metropolis để chạy ứng dụng Edge AI trên Jetson
- Giới thiệu một số mẫu máy chủ AI của ASUS
- Phát triển ứng dụng AI tại biên với NVIDIA Jetson AGX Orin & Developer Kit