Mẫu máy tính trí tuệ nhân tạo (AI PC) MSI EdgeXpert được thiết kế như một siêu máy tính AI để bàn nhỏ gọn, giúp các nhà phát triển, nhà nghiên cứu và nhà khoa học dữ liệu có thể khai thác sức mạnh tính toán hiệu năng cao ngay tại bàn làm việc. Bạn…
AI – HPC
MSI EdgeXpert: Chiếc máy tính AI dành cho kỷ nguyên mới
MSI vừa chính thức ra mắt một sản phẩm đột phá mới dành cho những người làm về AI, thổi thêm sức nóng vào giới công nghệ: chiếc máy tính AI mini để bàn MSI EdgeXpert, model MS-C931. Được mệnh danh là “siêu máy tính AI để bàn”, sản phẩm này không chỉ là một chiếc…
NVIDIA Merlin: Tổng quan về toolkit cho hệ thống gợi ý quy mô lớn
Hệ thống gợi ý (recommendation system) là thành phần quan trọng trong nhiều ứng dụng hiện đại như thương mại điện tử, mạng xã hội, dịch vụ phát nhạc và video. Khi quy mô dữ liệu và số lượng người dùng tăng lên hàng triệu hoặc hàng tỷ, việc huấn luyện và triển khai các…
NVIDIA NVLink Fusion: Tương lai của Trung tâm Dữ liệu AI
1. Giới thiệu: Cuộc cách mạng kết nối trong Điện toán Hiệu năng cao 1.1. Bối cảnh: Điểm nghẽn PCIe và Nhu cầu Bùng nổ của AI/HPC Sự bùng nổ của trí tuệ nhân tạo (AI) và điện toán hiệu năng cao (HPC) đã thúc đẩy nhu cầu về khả năng xử lý và truyền…
Cần bao nhiêu GPU cho máy trạm Deep Learning của bạn?
Giới thiệu Khi nói đến học sâu và AI, GPU là yếu tố chính thúc đẩy tốc độ đào tạo, kích cỡ mô hình và năng suất tổng thể của hệ thống. Số lượng GPU mà bạn chọn ảnh hưởng trực tiếp đến tốc độ chạy thử nghiệm, quy mô tập dữ liệu hay loại…
NVIDIA ConnectX-8 SuperNIC – Nền tảng switch siêu tốc cho các máy chủ MGX có 8x GPU PCIe
Giới thiệu Tại Computex 2025 vào tháng 5 vừa qua, NVIDIA đã cho ra mắt một công nghệ rất thú vị dành cho kiến trúc máy chủ GPU PCIe truyền thống. CEO Jensen Huang của NVIDIA đã giới thiệu về thế hệ server rack NVIDIA RTX PRO™ với công nghệ mà họ gọi là NVIDIA…
Hướng dẫn triển khai máy chủ GPU tại chỗ trong các phòng máy doanh nghiệp
Giới thiệu Không phải mọi hệ thống tính toán đều nên được đặt trên đám mây. Các đội nhóm làm việc về suy luận, mô phỏng hoặc huấn luyện AI thường được hưởng lợi từ việc giữ tài nguyên điện toán ngay tại chỗ. Khi các tập dữ liệu lớn, nhạy cảm hoặc thường xuyên…
NVIDIA ConnectX-8 SuperNIC: Đột phá kiến trúc hạ tầng AI với PCIe Gen6
Sự bùng nổ của trí tuệ nhân tạo (AI), đặc biệt là các mô hình ngôn ngữ lớn (LLM), đã tạo ra một nhu cầu chưa từng có về hiệu suất tính toán và băng thông dữ liệu. Các “nhà máy AI” (AI factories) hiện đại được xây dựng để xử lý các mô hình…
Hướng dẫn chi tiết sử dụng mô hình GPT-OSS-20B trên máy tính của bạn
Trong bài viết trước, chúng ta đã cùng phân tích tổng quan về GPT-OSS – bộ mô hình ngôn ngữ mở trọng số (open-weight) do OpenAI phát hành, bao gồm hai biến thể chủ lực: GPT-OSS-20B và GPT-OSS-120B. Chúng ta đã tìm hiểu về kiến trúc, nguyên lý và tiềm năng ứng dụng của nó….
Tăng tốc các mô hình mở mới của OpenAI ngay trên GPU NVIDIA GeForce RTX và RTX PRO
Hợp tác với OpenAI, NVIDIA đã tối ưu hóa các mô hình mở gpt-oss mới của công ty cho GPU NVIDIA, mang lại khả năng suy luận hiệu quả và nhanh chóng, từ đám mây đến cả các PC tại bàn làm việc. Các mô hình suy luận mới này cho phép các ứng dụng AI như tìm kiếm…