Tuần này tại triển lãm thương mại COMPUTEX ở Đài Bắc, NVIDIA đang nhấn mạnh đà phát triển đáng kể cho CPU Grace C1 mới của mình, với sự ủng hộ mạnh mẽ từ các đối tác sản xuất thiết kế gốc (ODM) chủ chốt.
Dòng sản phẩm CPU NVIDIA Grace đang mở rộng, bao gồm NVIDIA Grace Hopper Superchip mạnh mẽ và nền tảng Grace Blackwell hàng đầu, đang mang lại hiệu quả và hiệu suất vượt trội cho các doanh nghiệp lớn xử lý khối lượng công việc AI có yêu cầu khắt khe.
Khi AI tiếp tục phát triển nhanh chóng, hiệu quả sử dụng năng lượng đã trở thành một yếu tố quan trọng trong thiết kế trung tâm dữ liệu cho các ứng dụng từ mô hình ngôn ngữ lớn đến các mô phỏng phức tạp.
Kiến trúc NVIDIA Grace đang trực tiếp giải quyết thách thức này.
NVIDIA Grace Blackwell NVL72, một hệ thống quy mô tủ rack tích hợp 36 CPU NVIDIA Grace và 72 GPU NVIDIA Blackwell, đang được các nhà cung cấp dịch vụ đám mây lớn áp dụng để tăng tốc đào tạo và suy luận AI, bao gồm các tác vụ lý luận phức tạp và AI vật lý.
Kiến trúc NVIDIA Grace hiện có hai cấu hình chính: Grace Superchip CPU kép và Grace CPU C1 CPU đơn mới.
Biến thể C1 đang thu hút được sự chú ý đáng kể trong các triển khai điện toán biên (edge), viễn thông, lưu trữ và đám mây, nơi việc tối đa hóa hiệu suất trên mỗi watt là điều tối quan trọng.
CPU Grace C1 được đánh giá là cải thiện gấp đôi về hiệu quả điện năng so với các CPU truyền thống, một lợi thế quan trọng trong các môi trường phân tán và có hạn chế về điện năng.
Các nhà sản xuất hàng đầu như Foxconn, Jabil, Lanner, MiTAC Computing, Supermicro và Quanta Cloud Technology ủng hộ đà phát triển này, phát triển các hệ thống sử dụng khả năng của CPU Grace C1.
Trong lĩnh vực viễn thông, Máy tính NVIDIA Compact Aerial RAN, kết hợp CPU Grace C1 với GPU NVIDIA L4 và NVIDIA ConnectX-7 SmartNIC, đang trở thành một nền tảng cho AI-RAN phân tán, đáp ứng các yêu cầu về điện năng, hiệu suất và kích thước để triển khai tại các trạm thu phát sóng di động.
NVIDIA Grace cũng đang tìm được chỗ đứng trong các giải pháp lưu trữ, với WEKA và Supermicro triển khai nó vì hiệu suất cao và băng thông bộ nhớ lớn.
Tác động thực tế
Những lợi ích của NVIDIA Grace không chỉ là lý thuyết — chúng đã hiện diện trong các dự án thực tế từ các tổ chức lớn trên toàn cầu:
- ExxonMobil đang sử dụng Grace Hopper cho hình ảnh địa chấn, xử lý các bộ dữ liệu khổng lồ để thu thập thông tin chi tiết về các đặc điểm dưới bề mặt và các thành tạo địa chất.
- Meta đang triển khai Grace Hopper để phân phát và lọc quảng cáo, sử dụng kết nối băng thông cao NVIDIA NVLink-C2C giữa CPU và GPU để quản lý các bảng đề xuất khổng lồ.
- Các trung tâm điện toán hiệu năng cao như Texas Advanced Computing Center và Trung tâm Quốc gia về Điện toán Hiệu năng cao của Đài Loan đang sử dụng CPU Grace trong các hệ thống của họ cho AI và mô phỏng để thúc đẩy nghiên cứu.
Bài viết liên quan
- Supermicro giới thiệu các máy chủ và giải pháp trung tâm dữ liệu mới nhất tại COMPUTEX 2025
- NVIDIA tại Computex 2025: “Gã khổng lồ xanh” đặt cược tất cả vào AI, GeForce liệu có bị ra rìa?
- AI Blueprint: Nền tảng phân tích video cho các ứng dụng tìm kiếm và tóm tắt video
- Triển khai GPU NVIDIA H200 NVL quy mô lớn với kiến trúc tham chiếu cấp doanh nghiệp
- Quy luật tăng quy mô thúc đẩy AI thông minh hơn, mạnh mẽ hơn như thế nào