Tại sự kiện HPE Discover 2024 – Hewlett Packard Enterprise và NVIDIA đã công bố chương trình hợp tác mang tên NVIDIA AI Computing by HPE, một danh mục gồm các giải pháp AI được đồng phát triển và sự kết hợp cùng nhau để tiếp cận thị trường, cho phép các doanh nghiệp đẩy nhanh việc áp dụng AI tạo sinh (Generative AI).
Trong số các sản phẩm chính của danh mục là HPE Private Cloud AI, một giải pháp đầu tiên cung cấp khả năng tích hợp sâu nhất cho đến nay về điện toán, mạng và phần mềm NVIDIA AI với thiết bị lưu trữ, điện toán AI của HPE và HPE GreenLake Cloud. Việc cung cấp này cho phép các doanh nghiệp thuộc mọi quy mô có được cách tiếp cận tiết kiệm về điện năng, nhanh chóng và linh hoạt để phát triển và triển khai bền vững các ứng dụng AI tạo sinh. Được hỗ trợ bởi AI OpsRamp copilot mới – giúp các hoạt động IT cải thiện tải xử lý và hiệu quả sử dụng IT, HPE Private Cloud AI bao gồm trải nghiệm đám mây tự phục vụ với khả năng quản lý vòng đời đầy đủ và có sẵn trong 4 cấu hình với kích thước phù hợp để hỗ trợ nhiều tác vụ và trường hợp sử dụng AI.
Tất cả các dịch vụ và sản phẩm của NVIDIA AI Computing by HPE sẽ được cung cấp thông qua chiến lược tiếp cận thị trường chung bao gồm các nhóm bán hàng và đối tác kênh, đào tạo và mạng lưới các nhà tích hợp hệ thống toàn cầu – bao gồm Deloitte, HCLTech, Infosys, TCS và Wipro – có thể giúp các doanh nghiệp thuộc nhiều ngành khác nhau vận hành những tác vụ AI phức tạp.
Được công bố trong bài phát biểu quan trọng tại HPE Discover bởi Chủ tịch kiêm Giám đốc điều hành của HPE – Antonio Neri, người cùng với Nhà sáng lập kiêm Giám đốc điều hành của NVIDIA – Jensen Huang, NVIDIA AI Computing by HPE đánh dấu sự mở rộng của mối quan hệ đối tác kéo dài hàng thập kỷ và phản ánh cam kết đáng kể về thời gian và nguồn lực từ mỗi bên.
Neri cho biết: “AI tạo sinh có tiềm năng to lớn trong việc chuyển đổi doanh nghiệp, nhưng sự phức tạp của công nghệ AI phân mảnh chứa quá nhiều rủi ro và rào cản cản trở việc áp dụng của doanh nghiệp quy mô lớn và có thể gây nguy hiểm cho tài sản quý giá nhất của công ty – dữ liệu độc quyền của công ty”. “Để giải phóng tiềm năng to lớn của GenAI trong doanh nghiệp, HPE và NVIDIA đã đồng phát triển private cloud chìa khóa trao tay cho AI, cho phép các doanh nghiệp tập trung nguồn lực vào việc phát triển các trường hợp sử dụng AI mới có thể tăng năng suất và mang đến các nguồn doanh thu mới.”
Huang cho biết: “AI tạo sinh và điện toán tăng tốc đang thúc đẩy sự chuyển đổi cơ bản khi mọi ngành công nghiệp chạy đua trong cuộc cách mạng công nghiệp”. “Chưa bao giờ NVIDIA và HPE tích hợp công nghệ của chúng tôi sâu sắc đến vậy – kết hợp toàn bộ stack điện toán NVIDIA AI cùng với công nghệ private cloud của HPE – để trang bị cho khách hàng doanh nghiệp và chuyên gia AI với hạ tầng và dịch vụ điện toán tiên tiến nhất nhằm mở rộng ranh giới của AI.”
HPE và NVIDIA đồng phát triển danh mục Private Cloud AI
HPE Private Cloud AI mang đến trải nghiệm độc đáo, dựa trên đám mây để tăng tốc đổi mới và lợi tức đầu tư đồng thời quản lý rủi ro doanh nghiệp từ AI. Giải pháp này cung cấp:
● Hỗ trợ các workload suy luận, tinh chỉnh và RAG AI sử dụng dữ liệu độc quyền.
● Kiểm soát doanh nghiệp đối với các yêu cầu về quyền riêng tư, bảo mật, minh bạch và quản trị dữ liệu.
● Trải nghiệm cloud với những khả năng ITOps và AIOps để tăng năng suất.
● Con đường nhanh chóng để tiêu dùng linh hoạt nhằm đáp ứng các cơ hội và tăng trưởng AI trong tương lai.
Lớp phần mềm dữ liệu và AI được quản lý trong HPE Private Cloud AI
Nền tảng của lớp phần mềm dữ liệu và AI bắt đầu với nền tảng phần mềm NVIDIA AI Enterprise, bao gồm các vi dịch vụ suy luận NVIDIA NIM.
NVIDIA AI Enterprise tăng tốc quy trình khoa học dữ liệu, đồng thời chuẩn hóa việc phát triển và triển khai các copilot cấp độ sản xuất cũng như các ứng dụng GenAI khác. Đi kèm với NVIDIA AI Enterprise, NVIDIA NIM cung cấp các microservice dễ sử dụng cho hoạt động suy luận mô hình AI được tối ưu hóa, mang lại sự chuyển đổi suôn sẻ từ nguyên mẫu sang triển khai an toàn các mô hình AI trong nhiều trường hợp sử dụng khác nhau.
Bổ sung cho NVIDIA AI Enterprise và NVIDIA NIM, phần mềm HPE AI Essentials cung cấp một bộ công cụ nền tảng dữ liệu và AI được quản lý sẵn sàng chạy với giao diện hợp nhất cung cấp các giải pháp thích ứng, hỗ trợ doanh nghiệp liên tục và các dịch vụ AI đáng tin cậy, chẳng hạn như tuân thủ dữ liệu và mô hình và các tính năng mở rộng nhằm đảm bảo quy trình AI tuân thủ, hợp lý và có thể tái tạo trong suốt vòng đời AI.
Để mang lại hiệu suất tối ưu cho stack phần mềm dữ liệu và AI, HPE Private Cloud AI cung cấp stack hạ tầng AI được tích hợp đầy đủ bao gồm Ethernet NVIDIA Spectrum-X networking, HPE GreenLake for File Storage và các máy chủ HPE ProLiant với hỗ trợ cho NVIDIA L40S, NVIDIA H100 NVL Tensor Core GPU và nền tảng NVIDIA GH200 NVL2.
Trải nghiệm đám mây được hỗ trợ bởi HPE GreenLake Cloud
HPE Private Cloud AI cung cấp trải nghiệm đám mây tự phục vụ được hỗ trợ bởi HPE GreenLake Cloud. Thông qua một nền tảng quản lý duy nhất, các dịch vụ đám mây HPE Greenlake cung cấp khả năng quản lý và khả năng giám sát để tự động hóa, điều phối và quản lý các endpoint, workload và dữ liệu khắp các môi trường kết hợp. Việc này bao gồm các số liệu về tính bền vững cho workload và endpoint.
HPE GreenLake Cloud, khả năng giám sát hạ tầng AI của OpsRamp và trợ lý copilot
Những hoạt động IT của OpsRamp được tích hợp với HPE GreenLake Cloud để mang lại khả năng giám sát và AIOps cho tất cả các sản phẩm và dịch vụ của HPE. OpsRamp hiện cung cấp khả năng này cho stack điện toán tăng tốc NVIDIA toàn diện, bao gồm phần mềm AI, NVIDIA NIM, NVIDIA Tensor Core GPU, AI cluster cũng như các switch NVIDIA Quantum InfiniBand và NVIDIA Spectrum Ethernet. Quản trị viên IT có thể thu thập thông tin hữu ích để xác định các điểm bất thường và giám sát cơ sở hạ tầng AI cũng như khối lượng công việc của họ trên các môi trường hybrid và multi-cloud.
Copilot vận hành OpsRamp mới sử dụng nền tảng điện toán tăng tốc của NVIDIA để phân tích các bộ dữ liệu lớn để thu thập thông tin hữu ích với trợ lý đàm thoại, tăng năng suất cho việc quản lý vận hành. OpsRamp cũng sẽ tích hợp với CrowdStrike API để khách hàng có chế độ xem dịch vụ thống nhất về bảo mật endpoint trên toàn bộ cơ sở hạ tầng và ứng dụng của họ.
Tăng tốc thời gian tạo giá trị bằng AI – mở rộng hợp tác với các nhà tích hợp hệ thống trên toàn cầu
Để nâng cao thời gian mang lại giá trị cho các doanh nghiệp để phát triển các giải pháp AI tập trung vào ngành và các trường hợp sử dụng với lợi ích kinh doanh rõ ràng, Deloitte, HCLTech, Infosys,TCS và Wipro đã công bố sự hỗ trợ của họ đối với danh mục NVIDIA AI Computing by HPE và HPE Private Cloud AI như một phần của các giải pháp và dịch vụ AI chiến lược của họ.
HPE bổ sung hỗ trợ cho GPU, CPU và Superchip mới nhất của NVIDIA
- HPE Cray XD670 hỗ trợ 8 NVIDIA H200 NVL Tensor Core GPU, lý tưởng cho các nhà xây dựng LLM.
- Máy chủ HPE ProLiant DL384 Gen12 với NVIDIA GH200 NVL2, lý tưởng cho người tiêu dùng LLM sử dụng các model lớn hơn hoặc RAG.
- Máy chủ HPE ProLiant DL380a Gen12 hỗ trợ lên đến 8 NVIDIA H200 NVL Tensor Core GPU, lý tưởng cho người dùng LLM đang tìm kiếm sự linh hoạt để mở rộng tác vụ GenAI của họ.
- HPE sẽ cung cấp hỗ trợ cho NVIDIA GB200 NVL72 / NVL2, cũng như các kiến trúc NVIDIA Blackwell, NVIDIA Rubin và NVIDIA Vera mới.
Lưu trữ file mật độ cao được chứng nhận cho các hệ thống NVIDIA DGX BasePOD và NVIDIA OVX
HPE GreenLake for File Storage đã đạt được chứng nhận NVIDIA DGX BasePOD và xác thực lưu trữ NVIDIA OVX, cung cấp cho khách hàng giải pháp lưu trữ file doanh nghiệp đã được chứng minh để tăng tốc lượng công việc thiên về GPU, GenAI và AI trên quy mô lớn. HPE sẽ là đối tác chính trong các chương trình chứng nhận lưu trữ kiến trúc tham chiếu sắp tới của NVIDIA.
Bài viết liên quan
- GPUDirect RDMA là gì?
- GPUDirect Storage là gì?
- So sánh các GPU Tensor Core của NVIDIA: B200, B100, H200, H100, A100
- LLM: Lịch sử và tương lai của các mô hình ngôn ngữ lớn
- NVIDIA giới thiệu nền tảng microservice Metropolis để chạy ứng dụng Edge AI trên Jetson
- Hướng đến tương lai: Generative AI dành cho các giám đốc điều hành