ChatRTX là gì? ChatRTX là một ứng dụng demo cho phép bạn cá nhân hóa mô hình ngôn ngữ lớn GPT (LLM) được kết nối với nội dung của riêng bạn — tài liệu, ghi chú, hình ảnh hoặc các dữ liệu khác. Tận dụng công nghệ Retrieval-Augmented Generation (RAG), TensorRT-LLM và RTX, bạn có thể truy vấn…
AI – HPC
Làm cách nào lựa chọn GPU phù hợp cho các công cụ AI tạo sinh?
Để chọn đúng GPU cho các công cụ AI tạo sinh (Generative AI), bạn cần xem xét một số yếu tố như thuật toán cụ thể bạn sẽ sử dụng, kích thước của các mô hình bạn sẽ làm việc, và giới hạn về ngân sách. Dưới đây là một số bước bạn có thể…
GPU NVIDIA RTX A400 và A1000 mới giúp nâng cao hiệu quả quy trình thiết kế được hỗ trợ bởi AI
Được xây dựng trên kiến trúc NVIDIA Ampere, GPU mới cung cấp khả năng dò tia theo thời gian thực và hỗ trợ các công cụ AI tạo sinh (Generative AI) cho mọi máy trạm. Tích hợp AI trên các ứng dụng thiết kế và năng suất đang trở thành tiêu chuẩn mới, thúc đẩy…
Giới thiệu giải pháp Training AI trên các máy chủ thông dụng
Training AI (Huấn luyện AI) là quá trình cung cấp dữ liệu cho một mô hình AI để nó có thể học cách thực hiện một nhiệm vụ cụ thể. Dữ liệu này có thể bao gồm văn bản, hình ảnh, âm thanh, video hoặc bất kỳ loại dữ liệu nào khác có liên quan…
Máy chủ Supermicro X14: Hiệu suất mạnh mẽ, hiệu quả tối đa cho AI, Cloud, Storage, 5G/Edge
Tại Intel Vision 2024, Supermicro, một nhà cung cấp giải pháp IT toàn diện cho Cloud, AI/ML, Lưu trữ và 5G/Edge đã công bố danh mục máy chủ X14 với sự hỗ trợ trong tương lai cho bộ xử lý Intel® Xeon® 6. Sự kết hợp giữa Kiến trúc khối xây dựng của Supermicro, các giải…
PowerScale: Nền tảng kiến trúc cho các tác vụ Generative AI
Bắt tay vào hành trình Generative AI (GenAI), sự kết hợp mang tính đột phá giữa Trí tuệ nhân tạo và dữ liệu phi cấu trúc (unstructured data) đòi hỏi một kiến trúc lưu trữ mạnh mẽ có khả năng điều hướng sự phức tạp và mở rộng quy mô đi cùng với sự đổi…
Hướng dẫn build một cụm GPU cho AI
GPU Cluster là gì? GPU Cluster (cụm các máy chủ GPU) là một nhóm máy tính được trang bị GPU trên từng node. Nhiều GPU cung cấp sức mạnh điện toán tăng tốc cho các tác vụ tính toán cụ thể, chẳng hạn như xử lý hình ảnh và video cũng như đào tạo mạng lưới thần…
Suy luận AI trên các máy chủ thông dụng của HPE, Dell và Supermicro
Inference (suy luận) là workload quan trọng trong các ứng dụng của Trí tuệ Nhân tạo. Inference giúp xử lý các tác vụ phân loại, nhận dạng và dự đoán trong thời gian thực trên dữ liệu đầu vào. Nó là một tập hợp các giải pháp công nghệ phần cứng và phần mềm, bao…
GDDR6 vs HBM – Định nghĩa các loại bộ nhớ GPU
Kiến thức cơ bản về bộ nhớ GPU Khi nói đến bộ xử lý đồ họa (GPU), đặc biệt là đối với các tải xử lý nhạy cảm về độ trễ, chủng loại bộ nhớ có tác động đáng kể đến hiệu suất của hệ thống. Bộ nhớ GPU thường được gọi là VRAM, Video…
NVIDIA hỗ trợ hành trình hướng tới Generative AI thuận lợi hơn cho các doanh nghiệp
NVIDIA AI Enterprise 5.0 bao gồm các cloud API dành cho suy luận (inference) và những dịch vụ khác, mở đường cho các ứng dụng được AI hỗ trợ. Nền tảng AI của NVIDIA sẵn có cho mọi doanh nghiệp có tư duy tiến bộ – và nó dễ sử dụng hơn bao giờ hết….