Trong cuộc trò chuyện bên lề, Jensen Huang và Enrique Lores đã thảo luận về cách các máy trạm di động thế hệ mới có thể cá nhân hóa và tăng tốc AI tạo sinh.
Các vị CEO của NVIDIA và HP cho biết trong một talkshow gần đây rằng năm 2024 sẽ là năm AI tạo sinh có xu hướng cá nhân hơn, và tiết lộ các thế hệ laptop mới có thể dùng để xây dựng, thử nghiệm và chạy các mô hình ngôn ngữ lớn (LLM).
Jensen Huang, người sáng lập và Giám đốc điều hành NVIDIA tại sự kiện HP Amplify, một cuộc tụ họp ở Las Vegas gồm khoảng 1.500 đại lý và nhà phân phối, cho biết: “Đây là thời kỳ phục hưng của máy tính cá nhân. Công việc của những nhà sáng tạo, nhà thiết kế và nhà khoa học dữ liệu sẽ được cách mạng hóa nhờ những máy trạm thế hệ mới này.”
“AI là thứ lớn nhất xuất hiện trên PC trong nhiều thập kỷ qua”, Enrique Lores của HP cho biết, trước khi công bố thứ mà hãng của ông nói là “danh mục PC và máy trạm AI lớn nhất trong ngành”.
Tốc độ và bảo mật cao hơn
Lores cho biết trong bài phát biểu chính tại sự kiện: So với việc chạy công việc AI của họ trên đám mây, các hệ thống mới sẽ cung cấp tốc độ và tính bảo mật cao hơn đồng thời giảm chi phí và điện năng.
Dòng sản phẩm HP ZBooks mới cung cấp danh mục máy trạm AI di động được hỗ trợ bởi đầy đủ các GPU thế hệ NVIDIA RTX Ada .
Các hệ thống cấp cơ bản với GPU máy tính xách tay thế hệ NVIDIA RTX 500 Ada cho phép người dùng chạy các ứng dụng và công cụ AI tạo sinh mọi lúc mọi nơi.
Các mô hình cao cấp trang bị RTX 5000 để cung cấp tới 682 TOPS, do đó, họ có thể tạo và chạy LLM cục bộ, sử dụng retrieval-augmented generation ( RAG ) để kết nối với nội dung của họ nhằm mang lại kết quả vừa được cá nhân hóa, lại vừa riêng tư.
Truy cập vào phần mềm tăng tốc
Các máy trạm mới có thể khai thác nền tảng AI toàn diện của NVIDIA, bao gồm phần mềm giúp tăng tốc quy trình khoa học dữ liệu trên nền tảng của AI tạo sinh.
Nền tảng “Z” AI Studio của HP — được phát triển với sự hợp tác của NVIDIA — liên kết với NVIDIA NGC, một danh mục phần mềm tăng tốc GPU dành cho AI và khoa học dữ liệu. NGC bao gồm NVIDIA NeMo, một framework cho việc xây dựng, tùy biến và triển khai các mô hình AI tạo sinh.
Ngoài ra, HP và NVIDIA đã thông báo rằng các thư viện NVIDIA CUDA-X sẽ được tích hợp với các hệ thống để tăng cường quá trình chuẩn bị và xử lý dữ liệu vốn là nền tảng cho AI tạo ra.
Tăng tốc cho các nhà khoa học dữ liệu
Các thư viện như NVIDIA RAPIDS cuDF, giúp tăng tốc Pandas, thư viện phần mềm được gần 10 triệu nhà khoa học dữ liệu sử dụng.
Huang nói: “Trước đây họ phải mất hàng giờ, đôi khi hàng ngày để xử lý dữ liệu mà giờ đây họ có thể thực hiện chỉ trong vài phút”.
Ông nói thêm: “Thư viện Pandas này cực kỳ phức tạp,” ông nói thêm và lưu ý rằng các kỹ sư của NVIDIA đã làm việc hơn 5 năm để định dạng lại mã nguồn để nó có thể được tăng tốc bằng GPU.
Bước vào kỷ nguyên mới
Song song với các hệ thống mới, HP đã công bố chương trình đào tạo đối tác được phát triển với sự cộng tác của NVIDIA. Nó sẽ trang bị cho các nhà cung cấp máy tính khả năng tư vấn cho khách hàng về các sản phẩm và giải pháp AI phù hợp để đáp ứng nhu cầu của họ.
Những chương trình như vậy mở đường cho một ngành công nghiệp đang bước vào kỷ nguyên mà AI cho phép “phần mềm viết ra phần mềm”.
“Chúng tôi đã phát minh lại máy tính. Chúng tôi đã phát minh lại cách viết phần mềm và bây giờ chúng tôi phải phát minh lại cách sử dụng phần mềm,” Huang nói. “Các mô hình ngôn ngữ lớn, được kết nối với các LLM khác, sẽ giúp giải quyết các vấn đề về ứng dụng — đó là tương lai.”
Bài viết liên quan
- GPUDirect RDMA là gì?
- GPUDirect Storage là gì?
- So sánh các GPU Tensor Core của NVIDIA: B200, B100, H200, H100, A100
- LLM: Lịch sử và tương lai của các mô hình ngôn ngữ lớn
- NVIDIA giới thiệu nền tảng microservice Metropolis để chạy ứng dụng Edge AI trên Jetson
- Hướng đến tương lai: Generative AI dành cho các giám đốc điều hành