Google Cloud và NVIDIA mở rộng quan hệ đối tác để nâng cao dịch vụ, phần mềm, điện toán AI

Công nghệ Generative AI của NVIDIA được Google DeepMind và các nhóm nghiên cứu của Google sử dụng hiện đã được tối ưu hóa và có sẵn cho khách hàng của Google Cloud trên toàn thế giới

Tại hội nghị Google Cloud Next – Google Cloud và NVIDIA đã công bố cơ sở hạ tầng và phần mềm AI mới dành cho khách hàng để xây dựng và triển khai các mô hình lớn đối với các workload Generative AI và Khoa học dữ liệu (Data Science).

Trong cuộc trò chuyện sôi nổi tại Google Cloud Next, Google Cloud CEO Thomas Kurian cùng NVIDIA founder và CEO Jensen Huang đã thảo luận về cách thức hợp tác mang lại các dịch vụ Học máy (ML) toàn diện cho một số khách hàng AI lớn nhất trên thế giới – bao gồm cả việc chạy các siêu máy tính AI dễ dàng với các dịch vụ Google Cloud được xây dựng trên công nghệ NVIDIA. Việc tích hợp phần cứng và phần mềm mới sử dụng cùng các công nghệ NVIDIA được Google DeepMind và nhóm nghiên cứu của Google sử dụng trong hai năm qua.

“Chúng ta đang ở thời điểm chuyển tiếp – nơi điện toán tăng tốc (Accelerated Computing) và AI tạo sinh (Generative AI) đã kết hợp với nhau để tăng tốc độ đổi mới với tốc độ chưa từng có”, Huang nói. “Sự hợp tác mở rộng của chúng tôi với Google Cloud sẽ giúp các nhà phát triển đẩy nhanh công việc của họ với cơ sở hạ tầng, phần mềm và dịch vụ giúp tăng cường hiệu quả sử dụng năng lượng và giảm chi phí.”

Kurian cho biết: “Google Cloud có lịch sử lâu dài về đổi mới AI để thúc đẩy và tăng tốc độ đổi mới cho khách hàng của chúng tôi”. “Nhiều sản phẩm của Google được xây dựng và phục vụ trên các NVIDIA GPU, đồng thời nhiều khách hàng của chúng tôi đang tìm kiếm điện toán tăng tốc NVIDIA để hỗ trợ phát triển LLM hiệu quả nhằm thúc đẩy Generative AI.”

Tích hợp NVIDIA để tăng tốc độ phát triển Khoa học dữ liệu và AI

Framework của Google để xây dựng các Mô hình ngôn ngữ lớn (LLMs), PaxML, hiện được tối ưu hóa cho điện toán tăng tốc của NVIDIA.

Ban đầu được xây dựng để mở rộng nhiều slice của bộ tăng tốc Google TPU, PaxML hiện cho phép các nhà phát triển sử dụng các NVIDIA H100 và A100 Tensor Core GPU để thử nghiệm và mở rộng quy mô nâng cao và có thể cấu hình đầy đủ. Container PaxML được tối ưu hóa cho GPU có sẵn ngay trong catalog phần mềm NVIDIA NGC. Ngoài ra, PaxML chạy trên JAX, đã được tối ưu hóa cho các GPU tận dụng trình biên dịch OpenXLA.

Google DeepMind và các nhà nghiên cứu khác của Google nằm trong số những người đầu tiên sử dụng PaxML với NVIDIA GPU cho nghiên cứu khám phá.

Container được NVIDIA tối ưu hóa cho PaxML sẽ có sẵn ngay trên NVIDIA NGC container registry dành cho các nhà nghiên cứu, công ty khởi nghiệp và doanh nghiệp trên toàn thế giới đang xây dựng thế hệ ứng dụng được AI hỗ trợ tiếp theo.

Ngoài ra, các công ty đã công bố việc tích hợp serverless Spark của Google với NVIDIA GPU thông qua dịch vụ Dataproc của Google. Điều này sẽ giúp các nhà khoa học dữ liệu tăng tốc các workload Apache Spark để chuẩn bị dữ liệu cho việc phát triển AI.

Những tích hợp mới này là những tích hợp mới nhất trong lịch sử hợp tác sâu rộng của NVIDIA và Google. Chúng bao gồm các thông báo về phần cứng và phần mềm:

  • Google Cloud trên các máy ảo A3 được hỗ trợ bởi NVIDIA H100: Google Cloud đã công bố các máy ảo Google Cloud A3 được xây dựng có mục đích, sẽ sẵn có rộng rãi vào tháng tới, giúp nền tảng AI của NVIDIA dễ tiếp cận hơn cho nhiều workload khác nhau. So với thế hệ trước, các máy ảo A3 cung cấp khả năng đào tạo nhanh hơn gấp 3 lần và băng thông mạng được cải thiện đáng kể.
  • NVIDIA H100 GPU để hỗ trợ nền tảng Vertex AI của Google Cloud: H100 GPU dự kiến ​​sẽ có mặt rộng rãi trên VertexAI trong những tuần tới, cho phép khách hàng nhanh chóng phát triển các LLM Generative AI.
  • Google Cloud để có quyền truy cập vào NVIDIA DGX GH200: Google Cloud sẽ là một trong những công ty đầu tiên trên thế giới có quyền truy cập vào siêu máy tính AI NVIDIA DGX GH200 – được hỗ trợ bởi NVIDIA Grace Hopper Superchip – để khám phá các khả năng của nó đối với các workload Generative AI.
  • NVIDIA DGX Cloud có mặt trên Google Cloud: Siêu máy tính và phần mềm AI NVIDIA DGX Cloud sẽ có sẵn cho khách hàng trực tiếp từ trình duyệt web của họ để cung cấp tốc độ và quy mô mở rộng cho các workload đào tạo nâng cao.
  • NVIDIA AI Enterprise trên Google Cloud Marketplace: Người dùng có thể truy cập NVIDIA AI Enterprise, một nền tảng phần mềm cloud-native an toàn giúp đơn giản hóa việc phát triển và triển khai các ứng dụng dành cho doanh nghiệp bao gồm Generative AI, speech AI, Computer Vision,…
  • Google Cloud lần đầu tiên cung cấp các NVIDIA L4 GPU: Đầu năm nay, Google Cloud đã trở thành nhà cung cấp cloud đầu tiên áp dụng NVIDIA L4 Tensor Core GPU với sự ra mắt của G2 VM. Khách hàng của NVIDIA chuyển sang L4 từ các CPU cho những workload AI video – có thể nhận ra hiệu suất cao hơn tới 120 lần với hiệu quả tốt hơn 99%. L4 GPU được sử dụng rộng rãi để tạo hình ảnh và văn bản, cũng như chuyển mã âm thanh/video được tăng tốc VDI ​​và AI.
____
Bài viết liên quan
Góp ý / Liên hệ tác giả