Hướng dẫn lựa chọn GPU phù hợp cho AI, Machine Learning

Với tốc độ phát triển chóng mặt của Trí tuệ Nhân tạo (AI) và Học máy (Machine Learning), việc lựa chọn một Bộ xử lý Đồ họa (GPU) phù hợp đã trở thành yếu tố then chốt quyết định hiệu suất và khả năng mở rộng của các dự án. NVIDIA, với vị thế dẫn đầu trong lĩnh vực này, cung cấp một dải sản phẩm GPU đa dạng, từ các giải pháp cho trung tâm dữ liệu khổng lồ đến các card đồ họa mạnh mẽ cho người dùng chuyên nghiệp và game thủ.

Bài viết này sẽ đi sâu vào việc lựa chọn GPU chuyên dụng của NVIDIA cho AI, cập nhật những thông tin và kiến trúc mới nhất tính đến giữa năm 2025, giúp bạn đưa ra quyết định tối ưu cho nhu cầu của mình.

Tại sao GPU của NVIDIA là lựa chọn hàng đầu cho AI?

NVIDIA đã xây dựng một hệ sinh thái mạnh mẽ xung quanh các GPU của mình, biến chúng thành công cụ không thể thiếu cho AI. Ngoài hai nền tảng xử  lý CUDA và Tensor Cores kể trên, NVIDIA còn sở hữu các công nghệ GPU giúp họ thống trị về AI:

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI
  • CUDA: Nền tảng tính toán song song độc quyền của NVIDIA, cung cấp một bộ công cụ phát triển, thư viện và framework tối ưu hóa cho GPU. CUDA là lý do chính khiến phần lớn các nhà nghiên cứu và phát triển AI lựa chọn NVIDIA, đảm bảo khả năng tương thích và hiệu suất cao nhất. Với các nhân xử lý CUDA Cores, đây là loại đơn vị xử lý cụ thể được thiết kế để hoạt động với NVIDIA CUDA programming model. Nó đóng vai trò cơ bản trong xử lý song song và tăng tốc nhiều tác vụ tính toán tập trung vào kết xuất đồ họa. Chúng thường sử dụng kiến ​​trúc single instruction, multiple data (SIMD) để một lệnh đơn thực thi đồng thời trên nhiều phần tử dữ liệu, dẫn đến thông lượng cao trong tính toán song song.
  • Tensor Cores: Bên cạnh CUDA Cores thì NVIDIA sở hữu công nghệ tạo ra các Tensor Cores chuyên biệt được thiết kế để tăng tốc các phép toán ma trận và tích lũy.
  • NVLink: Công nghệ kết nối tốc độ cao độc quyền, cho phép nhiều GPU giao tiếp trực tiếp với nhau với băng thông cực lớn, loại bỏ tắc nghẽn PCIe và cho phép gộp VRAM của nhiều GPU thành một bộ nhớ lớn hơn, cực kỳ quan trọng cho việc đào tạo các mô hình AI khổng lồ.
  • Hệ sinh thái phần mềm phong phú: NVIDIA cung cấp các thư viện tối ưu như cuDNN, NCCL, TensorRT, Triton Inference Server, giúp tối ưu hóa hiệu suất cho các tác vụ đào tạo và suy luận AI.

Các dòng GPU chuyên dụng cho AI của NVIDIA

NVIDIA phân chia GPU của mình thành nhiều phân khúc khác nhau, mỗi phân khúc được tối ưu cho các trường hợp sử dụng AI khác nhau:

Phân khúc Data Center / Enterprise (Dòng NVIDIA Hopper & Blackwell)

Đây là những GPU mạnh mẽ nhất, được thiết kế đặc biệt cho các trung tâm dữ liệu, nghiên cứu khoa học, và các tác vụ AI/HPC (High-Performance Computing) quy mô lớn.

Mục đích: Đào tạo các mô hình ngôn ngữ lớn (LLM), mô hình đa phương thức (multimodal models), mô phỏng khoa học phức tạp, suy luận AI ở quy mô công nghiệp.

Đặc điểm nổi bật

  • VRAM cực lớn (HBM): Sử dụng High Bandwidth Memory (HBM) với dung lượng từ 80GB đến hàng trăm GB, cung cấp băng thông bộ nhớ cực cao, cần thiết cho các mô hình AI khổng lồ và tập dữ liệu lớn.
  • Hiệu suất Tensor Core vượt trội: Tối ưu hóa cho các phép toán ở độ chính xác thấp (FP16, BF16, TF32, FP8) với hiệu suất TFLOPS cực cao.
  • NVLink và NVSwitch: Cho phép kết nối hàng chục, hàng trăm, thậm chí hàng ngàn GPU lại với nhau để tạo thành các siêu máy tính AI, cho phép huấn luyện các mô hình AI mà chỉ có thể thực hiện được ở quy mô này.
  • ECC Memory: Bộ nhớ có khả năng sửa lỗi, đảm bảo độ tin cậy và ổn định cho các tác vụ tính toán quan trọng.
  • Độ tin cậy và khả năng mở rộng: Được thiết kế để hoạt động 24/7 trong môi trường trung tâm dữ liệu, với các tính năng quản lý và giám sát tiên tiến.

So sánh các thế hệ trong dòng Data Center GPU

Kiến trúc Hopper (NVIDIA H100/H200)

  • Ra mắt: H100 năm 2022, H200 (phiên bản nâng cấp VRAM) năm 2024.
  • Điểm nổi bật: Là GPU AI hàng đầu trước khi Blackwell ra đời. Giới thiệu Transformer Engine giúp tăng tốc đáng kể việc huấn luyện các mô hình Transformer, và hỗ trợ định dạng FP8. H200 có thêm VRAM HBM3e (lên tới 141GB) và băng thông cao hơn so với H100.
  • Hiệu suất AI: Cung cấp hiệu suất cao cho huấn luyện và suy luận AI, đặc biệt mạnh mẽ với các mô hình ngôn ngữ lớn.

Kiến trúc Blackwell (NVIDIA B100/B200/GB200)

  • Ra mắt: Được công bố vào tháng 3 năm 2024 tại GTC, dự kiến có mặt rộng rãi vào năm 2025.
  • Điểm nổi bật: Đại diện cho bước nhảy vọt lớn nhất về hiệu suất AI.
    • Thiết kế Multi-Die: Blackwell là GPU lớn nhất từ trước đến nay của NVIDIA, với 208 tỷ bóng bán dẫn, kết hợp hai die lớn thành một GPU duy nhất thông qua giao tiếp NV-HBI 10 TB/s tốc độ cao.
    • Transformer Engine thế hệ thứ hai: Cải tiến mạnh mẽ cho các mô hình ngôn ngữ lớn (LLM) và Mixture-of-Experts (MoE), với các tùy chọn độ chính xác mới như FP4 giúp tăng hiệu suất và hiệu quả năng lượng lên gấp nhiều lần.
    • NVLink thế hệ thứ 5: Cung cấp băng thông hai chiều 1.8 TB/s mỗi GPU, cho phép kết nối tới 576 GPU trong các cụm siêu máy tính.
    • Engine giải nén tích hợp: Tăng tốc truy vấn cơ sở dữ liệu và phân tích dữ liệu.
    • Confidential Computing: Hỗ trợ tính toán bảo mật, bảo vệ dữ liệu nhạy cảm và tài sản trí tuệ AI.
    • GB200 Superchip: Đây là một cấu hình đột phá kết hợp một CPU Grace và hai GPU Blackwell thông qua NVLink, tạo thành một siêu chip mạnh mẽ, là nền tảng của hệ thống GB200 NVL72 (gồm 72 GPU Blackwell và 36 CPU Grace trong một rack tản nhiệt chất lỏng).
  • Hiệu suất AI: Blackwell mang lại hiệu suất vượt trội so với Hopper.
    • Huấn luyện: GB200 NVL72 có thể huấn luyện các mô hình lớn nhanh hơn tới 4 lần so với các hệ thống Hopper tương đương.
    • Suy luận: Có thể nhanh hơn tới 30 lần (cho các LLM nghìn tỷ tham số) so với Hopper, đồng thời giảm chi phí và năng lượng tiêu thụ đáng kể.
    • Độ chính xác FP4/FP8: Đặc biệt tối ưu cho các tác vụ suy luận và huấn luyện AI tạo sinh.

Các mẫu GPU phổ biến: NVIDIA H100 Tensor Core GPU, NVIDIA H200, NVIDIA B100/B200 Tensor Core GPU, NVIDIA GB200 Superchip.

Phân Khúc Professional / Prosumer / Workstation (Dòng NVIDIA RTX Pro & GeForce RTX Cao Cấp)

Phân khúc này phục vụ người dùng chuyên nghiệp, nhà phát triển AI, các studio sáng tạo và những ai cần hiệu suất AI mạnh mẽ trên máy tính cá nhân hoặc workstation.

Mục đích: Đào tạo/fine-tuning các mô hình AI vừa và nhỏ, phát triển và thử nghiệm mô hình, suy luận AI cục bộ, rendering 3D, chỉnh sửa video 8K, mô phỏng phức tạp.

Đặc điểm nổi bật

  • VRAM lớn (GDDR6X/GDDR6): Dung lượng VRAM từ 24GB trở lên, đủ cho nhiều tác vụ AI và sáng tạo chuyên nghiệp.
  • Bộ nhớ ECC (Error Correcting Code) VRAM: Tự động phát hiện và sửa lỗi bộ nhớ, cực kỳ quan trọng cho các tác vụ tính toán kéo dài và yêu cầu độ chính xác tuyệt đối, tránh hỏng dữ liệu hoặc lỗi tính toán.
  • Tensor Cores mạnh mẽ: Cung cấp hiệu suất AI đáng kể, hỗ trợ DLSS và các tính năng AI khác.
  • Driver chuyên nghiệp (dòng RTX Ada Generation): Các card như RTX 6000 Ada đi kèm driver NVIDIA Studio tối ưu hóa cho các ứng dụng sáng tạo và AI chuyên nghiệp, đảm bảo độ ổn định và tương thích.
  • Chứng nhận ISV (Independent Software Vendor): Driver được tối ưu và chứng nhận bởi các nhà cung cấp phần mềm chuyên nghiệp (như Autodesk, Adobe, Dassault Systèmes), đảm bảo độ ổn định và tương thích cao nhất cho các ứng dụng quan trọng.
  • Kết nối NVLink (tùy mẫu): Cho phép kết nối 2 GPU lại với nhau để hợp nhất VRAM và tăng gấp đôi băng thông, tạo thành một “siêu GPU” ảo.
  • Hiệu suất FP64 (Double Precision): Một số dòng có hiệu suất FP64 tốt hơn dòng GeForce, cần thiết cho các ứng dụng mô phỏng khoa học và kỹ thuật yêu cầu độ chính xác kép.

So sánh các thế hệ trong dòng RTX Professional

  • RTX Ada Generation (ví dụ: RTX 6000 Ada Generation):
    • Kiến trúc: Ada Lovelace.
    • Điểm nổi bật: Mạnh mẽ với VRAM lên tới 48GB GDDR6 (RTX 6000 Ada). Đây là dòng dẫn đầu cho AI và đồ họa chuyên nghiệp thế hệ trước. Các nhân RT Cores thế hệ 3 và Tensor Cores thế hệ 4 mang lại hiệu năng ấn tượng cho Ray Tracing và AI (hỗ trợ FP8 cho Generative AI).
    • Hiệu quả năng lượng: Cung cấp hiệu suất trên mỗi watt tốt.
  • RTX Blackwell Professional Series (ví dụ: RTX 4000/5000/6000 Pro – dự kiến):
    • Kiến trúc: Blackwell.
    • Điểm nổi bật: Đây là thế hệ tiếp theo của GPU chuyên nghiệp, kế thừa và cải tiến từ kiến trúc Ada Lovelace. Mặc dù thông tin chi tiết về các mẫu cụ thể như RTX 4000/5000/6000 Pro chưa được công bố đầy đủ, nhưng chúng sẽ được hưởng lợi từ những đột phá của Blackwell:
      • Hiệu năng AI vượt trội: Với Transformer Engine thế hệ thứ hai và hỗ trợ các định dạng độ chính xác mới như FP4, dòng Blackwell Pro sẽ mang lại hiệu suất đáng kinh ngạc cho việc huấn luyện và suy luận các mô hình AI phức tạp, đặc biệt là LLM và AI tạo sinh.
      • Hiệu suất đồ họa nâng cao: Cải thiện hiệu suất Ray Tracing và rasterization, lý tưởng cho các tác vụ dựng hình 3D, mô phỏng và VFX phức tạp nhất.
      • Dung lượng VRAM lớn hơn và băng thông cao hơn: Đáp ứng nhu cầu ngày càng tăng của các tập dữ liệu và mô hình lớn.
      • Hiệu quả năng lượng cải thiện: Nhờ quy trình sản xuất tiên tiến và tối ưu hóa kiến trúc.
    • Vai trò: Các GPU RTX Blackwell Professional sẽ là lựa chọn hàng đầu cho các máy trạm cao cấp, cho phép các chuyên gia thực hiện các dự án AI và đồ họa với quy mô và tốc độ chưa từng có trên một hệ thống máy trạm cá nhân.

Các mẫu phổ biến hiện tại (Ada Generation): RTX 6000 Ada Generation, RTX 5000 Ada Generation, RTX 4000 Ada Generation.

Các mẫu dự kiến trong tương lai gần (Blackwell Professional Series): RTX 6000 Pro (Blackwell), RTX 5000 Pro (Blackwell), RTX 4000 Pro (Blackwell) và các biến thể khác.

Bảng so sánh các phân khúc GPU NVIDIA:

Consumer/Gaming
(GeForce RTX)
Professional
(Ada Gen. & Blackwell Pro)
Data Center
(Hopper/Blackwell)
Mục đích chính Gaming, Sáng tạo cá nhân, AI nhỏ Đồ họa chuyên nghiệp, AI lớn (Workstation) AI quy mô công nghiệp, HPC, LLMs
VRAM Tối đa 24GB (GDDR6X) Lên đến 48GB+ (GDDR6/ECC) Lên đến 192GB+ (HBM3/HBM3e, ECC)
Độ chính xác Gaming, FP32, FP16/BF16 AI ISV-certified, FP32, FP16/BF16, FP64 (tùy mẫu) FP4, FP8, FP16/BF16, TF32, FP64
Kết nối Multi-GPU SLI (hạn chế trên gen mới) NVLink (2 GPU) (tùy mẫu) NVLink, NVSwitch (cụm GPU lớn)
Giá thành Thấp – Trung bình Cao – Rất cao Cực kỳ cao, chỉ dành cho doanh nghiệp
Tính năng AI nổi bật DLSS, Tensor Cores Tensor Cores, ECC VRAM, FP4 (Blackwell Pro) Transformer Engine (thế hệ 2 trên Blackwell), HBM, FP4/FP8, NVLink (Gen 5)
Model ví dụ RTX 4090, 4080 SUPER RTX 6000 Ada, RTX 6000 Pro (Blackwell) H100/H200, B100/B200, GB200

Các thông số kỹ thuật và hiệu năng quan trọng cần xem xét

Khi lựa chọn GPU NVIDIA cho AI, hãy tập trung vào các thông số sau:

  1. Kiến trúc GPU: Đây là yếu tố quan trọng nhất. Các kiến trúc mới hơn (Blackwell > Hopper > Ada Lovelace > Ampere) luôn mang lại hiệu suất trên mỗi watt tốt hơn và các tính năng AI tiên tiến hơn.
  2. VRAM (Dung lượng và Loại):
    • Dung lượng: Càng nhiều VRAM càng tốt, đặc biệt cho đào tạo mô hình lớn. Các mô hình LLM hiện nay dễ dàng tiêu tốn hàng chục đến hàng trăm GB VRAM.
    • Loại VRAM (GDDR vs. HBM):
      • GDDR6/GDDR6X: Phổ biến trên các card gaming/prosumer (RTX 4090, RTX 6000 Ada). Cung cấp băng thông tốt.
      • HBM3/HBM2e: Chỉ có trên các GPU data center (H100, H200, MI300X). Cung cấp băng thông cực cao, rất quan trọng cho các tác vụ AI/HPC ngốn dữ liệu.
  3. Hiệu suất Tensor Core (TFLOPS theo độ chính xác): Đây là “trái tim” của hiệu suất AI.
    • FP16/BF16 TFLOPS: Quan trọng nhất cho đào tạo Deep Learning. Các mô hình thường được đào tạo ở độ chính xác này.
    • TF32 TFLOPS: Độ chính xác “lai” của NVIDIA, cung cấp hiệu suất gần FP16 nhưng với độ chính xác của FP32.
    • INT8/FP8 TOPS/TFLOPS: Cực kỳ quan trọng cho AI Inference, giúp tăng tốc suy luận và giảm tiêu thụ năng lượng.
    • FP32 TFLOPS: Vẫn quan trọng cho các tác vụ tính toán khoa học truyền thống và một số phần của quy trình đào tạo.
    • FP64 TFLOPS: Chỉ thực sự quan trọng cho các tác vụ HPC yêu cầu độ chính xác kép cao nhất (ví dụ: mô phỏng vật lý, khí tượng). GPU data center có hiệu suất FP64 cao hơn đáng kể.
  4. Băng thông Bộ nhớ (Memory Bandwidth): Đo bằng GB/s. Băng thông cao giúp GPU truy cập dữ liệu nhanh hơn, giảm tắc nghẽn, đặc biệt quan trọng khi làm việc với các tập dữ liệu lớn hoặc mô hình phức tạp.
  5. NVLink: Nếu bạn có kế hoạch sử dụng nhiều GPU trong một hệ thống để đào tạo các mô hình rất lớn, NVLink là yếu tố bắt buộc để đảm bảo khả năng mở rộng hiệu quả và gộp VRAM.
  6. TDP (Thermal Design Power): Mức tiêu thụ điện năng. GPU mạnh hơn thường tiêu thụ nhiều điện hơn và cần hệ thống tản nhiệt tốt hơn. Điều này ảnh hưởng đến chi phí vận hành và thiết kế hệ thống.
  7. Hỗ trợ phần mềm và driver: Đảm bảo GPU được hỗ trợ tốt bởi các framework AI bạn sử dụng (PyTorch, TensorFlow) và có các driver ổn định, cập nhật.

Bảng so sánh các model GPU NVIDIA tiêu biểu cho AI (Cập nhật giữa 2025)

Dưới đây là bảng so sánh một số GPU NVIDIA phổ biến và mạnh mẽ nhất cho các tác vụ AI, từ data center đến workstation.

GPU Kiến trúc VRAM Loại VRAM Băng thông bộ nhớ (GB/s) FP16 TFLOPS (Tensor) FP32 TFLOPS (CUDA) NVLink TDP (W) Phân khúc chính Mức giá tham khảo (USD)
H100 (SXM) Hopper 80 GB HBM3 3360 267.6 66.91 700 Data Center ~$25,000 – $30,000+
H200 (SXM) Hopper 141 GB HBM3e 4890 267.6 66.91 700 Data Center ~$33,500+
GB200 (Blackwell) Blackwell Lên đến 372 GB HBM3e (mỗi Grace Blackwell Superchip – 2 B200 GPUs) HBM3e Lên đến 16 TB/s (mỗi Grace Blackwell Superchip) 10 PFLOPS (mỗi Grace Blackwell Superchip) 160 TFLOPS (mỗi Grace Blackwell Superchip) Có (NVLink-C2C, NVLink) ~1000W+ (mỗi Superchip, tùy cấu hình) Data Center
~$60,000 – $70,000+ (mỗi GB200 Superchip) / ~$500,000+ (DGX GB200)
L40S Ada Lovelace 48 GB GDDR6 (có ECC) 864 1466 (INT8 Tensor) / 733 (FP16 Tensor) 91.6 Không 350 Data Center, Prosumer ~$7,500 – $9,500+
RTX Pro 6000 Blackwell Server Edition Blackwell 96 GB GDDR7 (có ECC) 1600 3800 (FP4 Tensor) / 1900 (FP8 Tensor) / ~950 (FP16 Tensor) 117.3 400-600 (có thể cấu hình) Data Center, Prosumer Chưa có giá công bố chính thức
RTX 6000 Ada Generation Ada Lovelace 48 GB GDDR6 (có ECC) 960 1457 91.1 Không 300 Prosumer, Workstation ~$7,900+
GeForce RTX 5090 Blackwell 32 GB GDDR7 1,792 GB/sec 3,352 AI TOPS 21,760 Không 575 Prosumer, Workstation ~$1,999 (giá ra mắt dự kiến)
GeForce RTX 5080 Blackwell 16 GB GDDR7 960 GB/sec 1,801 AI TOPS 10,752 Không 360 Prosumer, Workstation ~$999 (giá ra mắt dự kiến)
GeForce RTX 4090 Ada Lovelace 24 GB GDDR6X 1008 82.58 82.58 Không 450 Consumer ~$1,599+
GeForce RTX 4080 Ada Lovelace 16 GB GDDR6X 736.3 48.74 48.74 Không 320 Consumer ~$999+

Lưu ý: Các thông số hiệu suất (TFLOPS) có thể là giá trị lý thuyết (theoretical peak) và hiệu suất thực tế có thể thay đổi tùy thuộc vào workload, phần mềm, và cấu hình hệ thống. Giá tham khảo chỉ mang tính ước tính và có thể biến động rất lớn trên thị trường.

Lời khuyên cuối cùng

Việc lựa chọn GPU NVIDIA cho AI phụ thuộc rất nhiều vào nhu cầu cụ thể và ngân sách của bạn:

  • Đối với các dự án AI quy mô lớn, đào tạo mô hình khổng lồ, hoặc nghiên cứu khoa học chuyên sâu: Các GPU Data Center (Hopper, Blackwell) là lựa chọn duy nhất. Chúng cung cấp hiệu suất, VRAM và khả năng mở rộng không thể so sánh được, nhưng đi kèm với chi phí rất cao.
  • Đối với các nhà phát triển AI, nghiên cứu sinh, hoặc các studio cần hiệu suất mạnh mẽ trên workstation: Các GPU RTX Ada Generation (như RTX 6000 Ada, L40S) là sự cân bằng tuyệt vời giữa hiệu suất AI, VRAM lớn, và độ ổn định của driver chuyên nghiệp.
  • Đối với người dùng muốn bắt đầu với AI, đào tạo/fine-tuning các mô hình vừa phải, hoặc kết hợp AI với gaming/sáng tạo: Các GPU GeForce RTX cao cấp (như RTX 4090, RTX 4080 SUPER) là lựa chọn có giá thành/hiệu suất rất tốt. Chúng mang lại Tensor Cores mạnh mẽ và VRAM đủ lớn cho nhiều tác vụ.

Hãy luôn xem xét kỹ lưỡng yêu cầu về VRAM của mô hình bạn định chạy, ngân sách, và khả năng mở rộng trong tương lai để đưa ra quyết định phù hợp nhất.

Nếu bạn đang tìm kiếm GPU cho dự án AI của mình nhưng đang gặp khó khăn với việc lựa chọn hoặc khó tiếp cận nguồn hàng, hãy liên hệ Thế Giới Máy Chủ để được tư vấn miễn phí.


Một số mẫu GPU cho AI đang được Thế Giới Máy Chủ cung cấp:

GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Server Edition) GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Workstation Edition) GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Max-Q WS Edition) GPU NVIDIA RTX Pro 5000 Blackwell 48GB GDDR7 GPU NVIDIA RTX Pro 4000 Blackwell 24GB GDDR7 GPU NVIDIA RTX6000 ADA 48GB GDDR6
GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Server Edition) GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Workstation Edition) GPU NVIDIA RTX Pro 6000 Blackwell 96GB GDDR7 (Max-Q WS Edition) GPU NVIDIA RTX Pro 5000 Blackwell 48GB GDDR7 GPU NVIDIA RTX Pro 4000 Blackwell 24GB GDDR7 GPU NVIDIA RTX6000 ADA 48GB GDDR6
Giá tham khảo 286.000.000 VNĐ 273.000.000 VNĐ 273.000.000 VNĐ 182.000.000 VNĐ 52.000.000 VNĐ 208.000.000 VNĐ
Mã hàng GPU NVIDIA RTX PRO 6000 96GB Blackwell Server Edition GPU NVIDIA RTX PRO 6000 96GB GDDR7 GPU NVIDIA RTX PRO 6000 96GB GDDR7 GPU NVIDIA RTX PRO 5000 Blackwell 48GB GDDR7 NVIDIA RTX PRO 4000 Blackwell 24GB GDDR7 GPU NVIDIA RTX6000 ADA 48GB GDDR6 PCIe 4.0
Thương hiệu NVIDIA NVIDIA NVIDIA NVIDIA NVIDIA NVIDIA
GPU
GPU Memory 96GB GDDR7 96GB GDDR7 96GB GDDR7 48GB GDDR7 24GB GDDR7
CUDA Cores 24064 24064 24064 14080 8960
Tensor Cores 752 752 752 440 280
Max Power 600W 600W 300W 300W 140W

____
Bài viết liên quan

Góp ý / Liên hệ tác giả