Suy luận dành cho mọi tác vụ AI Chạy suy luận trên các mô hình Học máy (ML) hoặc Học sâu (DL) đã được đào tạo từ bất kỳ framework nào trên bất kỳ bộ xử lý nào – GPU, CPU hay các loại khác – với NVIDIA Triton Inference Server. Là một phần của nền tảng…
Tác giả: Anh Huy
NVIDIA CEO Jensen Huang sẽ chủ trì AI Summit tại Tel Aviv
Nhà sáng lập kiêm Giám đốc điều hành của NVIDIA – Jensen Huang sẽ nêu bật những điểm mới nhất về Generative AI và Điện toán đám mây (Cloud Computing) trong sự kiện NVIDIA AI Summit tại Tel Aviv, Israel từ ngày 15 đến ngày 16 tháng 10 này. Hội nghị kéo dài hai ngày dự kiến…
NVIDIA Morpheus: Nền tảng phát triển ứng dụng Cybersecurity AI
Khi các mối đe dọa an ninh mạng tiếp tục leo thang và đa dạng hóa, các tổ chức phải tìm kiếm những cách mới để giải quyết chúng. An ninh mạng (cybersecurity) là một vấn đề về dữ liệu. Việc thu thập và phân tích tất cả dữ liệu trên mạng theo thời gian thực…
“Siêu chip” NVIDIA Grace Hopper thống lĩnh các bài test benchmark MLPerf về suy luận
Siêu chip NVIDIA GH200, GPU H100, L4 và các module Jetson Orin cho thấy hiệu suất vượt trội khi chạy AI ở môi trường sản xuất, từ đám mây đến rìa mạng. Trong lần kiểm tra đầu tiên trên điểm benchmark chuyên ngành MLPerf, NVIDIA GH200 Grace Hopper Superchip đã chạy tất cả các bài test suy…
Khởi động hành trình AI của bạn với NVIDIA và Dell Technologies
Trí tuệ nhân tạo (AI) đã trở thành một công cụ ngày càng mang tính nền tảng cho các doanh nghiệp muốn đạt được lợi thế cạnh tranh. Tuy nhiên, xây dựng hạ tầng AI từ đầu có thể là một nhiệm vụ khó khăn, đặc biệt đối với những công ty mới khởi đầu. Đó…
Google Cloud và NVIDIA mở rộng quan hệ đối tác để nâng cao dịch vụ, phần mềm, điện toán AI
Công nghệ Generative AI của NVIDIA được Google DeepMind và các nhóm nghiên cứu của Google sử dụng hiện đã được tối ưu hóa và có sẵn cho khách hàng của Google Cloud trên toàn thế giới Tại hội nghị Google Cloud Next – Google Cloud và NVIDIA đã công bố cơ sở hạ tầng…
Google Cloud và NVIDIA đưa sự hợp tác lên một tầm cao mới
Khi AI tạo sinh (Generative AI) và các Mô hình ngôn ngữ lớn (LLMs) tiếp tục thúc đẩy sự đổi mới, các yêu cầu điện toán cho hoạt động đào tạo (training) và suy luận (inference) đã tăng lên với tốc độ đáng kinh ngạc. Để đáp ứng nhu cầu đó, Google Cloud hôm nay…
GPU NVIDIA kiến trúc Ampere: So sánh Multi-Instance GPU vs Virtual GPU
NVIDIA Ampere là một trong hai thế hệ GPU mới nhất của NVIDIA. NVIDIA Ampere GPU trên VMware vSphere 7 Update 2 (hoặc cao hơn) có thể được chia sẻ giữa các máy ảo (VMs) ở một trong hai mode: Virtual GPU (vGPU) mode của VMware hoặc Multi-instance GPU (MIG) mode của NVIDIA. NVIDIA vGPU đã…
Hướng dẫn triển khai NVIDIA AI Enterprise trên các máy chủ vật lý thông dụng
NVIDIA AI Enterprise là gì? NVIDIA AI Enterprise là bộ phần mềm AI toàn diện, an toàn, cloud-native, cho phép các tổ chức giải quyết những thách thức mới đồng thời tăng hiệu quả hoạt động. Nó tăng tốc quy trình khoa học dữ liệu và chuẩn hóa quá trình phát triển và triển khai các…
Phát triển và triển khai liền mạch các mô hình Generative AI có thể mở rộng với NVIDIA AI Workbench
Phát triển các mô hình và ứng dụng Generative AI (GenAI) tùy biến là một hành trình, không phải là đích đến. Nó bắt đầu bằng việc chọn một mô hình được đào tạo trước (pretrained), chẳng hạn như Mô hình ngôn ngữ lớn (Large Language Model) cho những mục đích khám phá – sau đó, các developer thường…