Bài phát biểu chính của vị CEO NVIDIA từ COMPUTEX đã giới thiệu các hệ thống, phần mềm và dịch vụ mới – nhiều hệ thống được cung cấp bởi các siêu chip Grace Hopper – để khai thác Generative AI, công nghệ mang tính biến đổi nhất của thời đại chúng ta. Trong bài…
AI – HPC
Nền tảng tăng tốc Ethernet của NVIDIA dành cho Generative AI cấp độ hyperscale
Nền tảng mạng hiệu suất cao NVIDIA Spectrum-X mới kết hợp NVIDIA Spectrum-4, BlueField-3 DPU và phần mềm tăng tốc được NVIDIA công bố; Các nhà cung cấp dịch vụ cloud hàng đầu thế giới áp dụng nền tảng tăng tốc này để mở rộng các dịch vụ Generative AI. Tại COMPUTEX 2023, NVIDIA đã…
NVIDIA MGX – Kiến trúc điện toán tăng tốc module hóa dành cho các nhà sản xuất máy chủ
NVIDIA MGX là gì? NVIDIA MGX là một kiến trúc máy chủ mô-đun (modular server architecture) được NVIDIA tạo ra để giúp các nhà sản xuất hệ thống xây dựng các máy chủ hiệu suất cao cho trí tuệ nhân tạo (AI), điện toán hiệu năng cao (HPC) và các tác vụ đám mây một…
SXM vs PCIe: GPU tốt nhất dành cho đào tạo LLM như GPT-4
NLP và LLM là gì? Xử lý ngôn ngữ tự nhiên (NLP) là một nhánh của Trí tuệ nhân tạo (AI) cho phép máy móc hiểu và diễn giải ngôn ngữ của con người. Những tiến bộ gần đây trong Học sâu đã dẫn đến sự xuất hiện của các Mô hình ngôn ngữ lớn (LLM),…
H100 – GPU đầu bảng của NVIDIA có thể làm được gì?
GPU H100, được xây dựng trên kiến trúc NVIDIA Hopper tiên tiến, là lựa chọn lý tưởng cho các ứng dụng chuyên sâu yêu cầu tốc độ xử lý cao. Với Tensor Core thế hệ thứ tư, H100 cung cấp khả năng đào tạo AI nhanh hơn đến 5 lần và tốc độ suy luận AI nhanh…
Supermicro tung ra máy chủ đầu tiên dựa trên nền tảng NVIDIA HGX với hai model có 4 và 8 GPU H1008
Supermicro – Hãng cung cấp giải pháp CNTT toàn diện cho đám mây, AI/ML, Lưu trữ và 5G/Edge – tiếp tục mở rộng các sản phẩm cho data center của mình với các hệ thống rackmount NVIDIA HGX H100 làm mát bằng chất lỏng (liquid cooling). Các công nghệ làm mát bằng chất lỏng tiên tiến…
GPT-3 vs BERT: So sánh các mô hình ngôn ngữ lớn
Xử lý ngôn ngữ tự nhiên hay Natural Language Processing (NLP) là một trong những hình thức Học máy và AI phổ biến nhất cho đến nay. Việc hệ thống máy tính có thể hiểu được ngôn ngữ của con người đó là một thành tựu to lớn, chưa kể đến khả năng trò chuyện với…
NVIDIA Spectrum SN5000 Switch: Đưa Ethernet siêu cao vào mọi trung tâm dữ liệu cho trí tuệ nhân tạo và đám mây
Dóng sản phẩm SN5000 ™ là thế hệ thứ năm của NVIDIA switch Ethernet Spectrum, được thiết kế đặc biệt để tăng tốc hệ thống mạng trung tâm dữ liệu. Với tốc độ cổng từ 10 Gigabit Ethernet (GbE) đến 800GbE, các switch dòng SN5000 mang đến Ethernet tăng tốc cho mọi trung tâm dữ liệu mà…
IPU là gì?
Intel phát hành IPU (Infrastructure Processing Unit), giống như SmartNIC, nhằm tăng cường khả năng xử lý, kết nối mạng và lưu trữ bằng cách giải phóng CPU của máy tính. Trong blog này, bạn sẽ tìm hiểu IPU là gì, nó làm gì và tại sao nó lại quan trọng. Chúng tôi cũng sẽ giới…
Học sâu với nhiều GPU – Multi-GPU Deep Learning
Đa GPU trong Deep Learning là gì? Học sâu là một tập hợp con của học máy, không dựa vào dữ liệu có cấu trúc để phát triển các mô hình dự đoán chính xác. Phương pháp này sử dụng các mạng thuật toán được mô hình hóa sau các mạng thần kinh trong não để…