Bạn đang tìm kiếm một chiếc máy trạm, hay máy chủ HPC cho tải xử lý của mình để tăng tốc công việc? Bạn tự hỏi liệu có nên sử dụng hệ thống cấu hình CPU kép (dual-CPU) để có hiệu suất cao hơn không? Bài này sẽ làm rõ một số vấn đề trong…
AI – HPC
Những lợi ích của việc chạy suy luận AI ngay tại biên, thay vì trong trung tâm dữ liệu
Chuyển đổi suy luận AI từ nền tảng đám mây (Cloud) sang môi trường biên (Edge) tăng cường khả năng ra quyết định theo thời gian thực bằng cách đưa quá trình xử lý dữ liệu đến gần hơn với các nguồn dữ liệu. Đối với các doanh nghiệp, sự thay đổi này làm giảm…
Xây dựng hệ thống dữ liệu hiệu suất cao cho AI với VAST Data Platform
Hiện nay, vẫn còn hiều người nghĩ rằng trí tuệ nhân tạo (AI) chỉ xoay quanh GPU, nhưng đây chỉ là một phần nhỏ của toàn bộ câu chuyện. Đúng là việc huấn luyện mô hình nền tảng tiêu tốn nhiều tài nguyên từ GPU, và tùy thuộc vào lượng dữ liệu cũng như kích…
CPU cho các hệ thống hiệu suất cao: Số lượng nhân so với tốc độ xung nhịp
Số lượng nhân và tốc độ xung nhịp ảnh hưởng đến hiệu suất như thế nào? Khi cấu hình một hệ thống, CPU – bộ não của máy tính – là ưu tiên hàng đầu. Đối với dòng vi xử lý AMD Ryzen và Intel Core, cấu trúc sản phẩm rất dễ hiểu: Bộ xử…
Edge AI: Lợi ích và các ứng dụng
Kết hợp giữa Điện toán biên (Edge Computing) và Trí tuệ nhân tạo(AI), Edge AI là hệ thống sử dụng thuật toán Học máy để xử lý dữ liệu do thiết bị phần cứng thực hiện ở cấp độ cục bộ. Điện toán biên là một bộ khung điện toán phân tán hoạt động trên…
Hướng dẫn lựa chọn GPU phù hợp cho AI, Machine Learning
Yêu cầu về phần cứng khác nhau đối với AI, học máy và các tải xử lý tính toán chuyên sâu khác. Bài viết này sẽ tìm hiểu các mẫu GPU chuyên dụng cho AI và các thông số kỹ thuật của chúng. Các nhà sản xuất chip đang đều đặn tung các GPU mới…
So sánh các GPU Tensor Core của NVIDIA: B200, B100, H200, H100, A100
NVIDIA Tensor Core là GPU gì? Theo tên chính thức của dòng Tesla, GPU NVIDIA Tensor Core là dòng GPU tiêu chuẩn vàng cho các phép tính AI nhờ kiến trúc độc đáo được thiết kế riêng để thực hiện các phép tính trong AI và mạng nơ-ron. Tensor là kiểu dữ liệu cơ bản…
LLM: Lịch sử và tương lai của các mô hình ngôn ngữ lớn
Sự ra đời của LLM – NLP và Neural Networks Việc tạo ra các Mô hình ngôn ngữ lớn không diễn ra trong một sớm một chiều. Đáng chú ý là khái niệm đầu tiên về các mô hình ngôn ngữ bắt đầu với các hệ thống dựa trên quy tắc được gọi là Xử…
LM Studio – Chạy Generative AI trên máy tính của riêng bạn
Giới thiệu Sự xuất hiện của các Mô hình ngôn ngữ lớn (LLM) đã mang lại sự tiến bộ đáng kể trong xử lý ngôn ngữ tự nhiên (NLP), cho phép máy móc hiểu và tương tác tốt hơn với con người. Trong số đó, các mô hình nguồn mở nổi bật như Mistral 7B,…
NVIDIA giới thiệu nền tảng microservice Metropolis để chạy ứng dụng Edge AI trên Jetson
Xây dựng các ứng dụng AI thị giác (Vision AI) cho môi trường biên thường đi kèm với các chu kỳ phát triển tốn kém và dong dài. Đồng thời, việc phát triển nhanh chóng các ứng dụng AI biên (Edge AI) có tính năng thuần đám mây, linh hoạt và an toàn chưa bao…