Giải pháp điện toán cho AI và Deep Learning dựa trên công nghệ của Supermicro
Nắm lấy AI với công nghệ Deep Learning của Supermicro
Deep Learning, một tập con của Trí tuệ nhân tạo (AI) và Machine Learning (ML), là quy trình tiên tiến trong khoa học máy tính thực hiện các mạng thần kinh nhân tạo đa lớp để thực hiện các nhiệm vụ rất phức tạp để lập trình. Ví dụ: Google Maps xử lý hàng triệu điểm dữ liệu mỗi ngày để tìm ra tuyến đường tốt nhất cho việc di chuyển hoặc dự đoán thời gian để đến đích mong muốn. Deep Learning bao gồm hai phần – đào tạo (training) và suy luận (inference). Phần đào tạo của Deep Learning bao gồm xử lý càng nhiều điểm dữ liệu càng tốt để làm cho mạng thần kinh tự ‘học’ đặc tính và tự sửa đổi để hoàn thành các nhiệm vụ như nhận dạng hình ảnh, nhận dạng giọng nói, v.v… Phần suy luận đề cập đến quá trình lấy một mô hình đã được đào tạo trước đó và sử dụng nó để đưa ra những dự đoán và quyết định hữu ích.
Nền tảng AI & Deep Learning
Giải pháp của Supermicro là cài đặt các framework tùy biến cho Deep Learning, để người dùng cuối có thể trực tiếp bắt đầu triển khai các dự án Deep Learning mà thậm chí không cần đụng đến lập trình GPU. Các giải pháp cung cấp cài đặt tùy biến các framework học sâu bao gồm TensorFlow, Caffe2, MxNet, Chainer, Microsoft Cognitive Toolkit cũng như các bộ công cụ khác.
Giải pháp Supermicro AI & Deep Learning cung cấp một lớp phần mềm AI / Deep Learning hoàn chỉnh. Bên dưới là các bộ phần mềm kèm với giải pháp tích hợp đầy đủ từ đầu đến cuối:
Phần mềm cho AI & Deep Learning | ||
---|---|---|
Môi trường Deep Learning | Framework | Caffe, Caffe2, Caffe-MPI, Chainer, Microsoft CNTK, Keras, MXNet, TensorFlow, Theano, PyTorch |
Libraries | cnDNN, NCCL, cuBLAS | |
User Access | NVIDIA DIGITS | |
Operating Systems | Ubuntu, Docker, Docker NVIDIA |
Ưu điểm của giải pháp AI & Deep Learning do
Supermicro cung cấp
- Một “powerhouse” cho điện toán toán
- Cụm máy tính Supermicro AI & Deep Learning được cung cấp bởi các hệ thống Supermicro SuperServer®, là những powerhouse có mật độ cao và nhỏ gọn cho việc xử lý. Cụm được trang bị GPU mới nhất từ đối tác NVIDIA. Mỗi node xử lý sử dụng GPU NVIDIA® Tesla® V100.
- Xử lý song song mật độ cao
- Lên đến 32 GPU với bộ nhớ GPU lên đến 1TB cho khả năng xử lý song song tối đa, giúp giảm thời gian đào tạo cho workload chạy hệ thống Deep Learning.
- Tăng băng thông với NVLink
- Sử dụng công nghệ NVLink™, cho phép giao tiếp GPU-GPU nhanh hơn, nâng cao hơn nữa hiệu năng hệ thống trong các Deep Learning workload lớn.
- Xử lý nhanh hơn với Tensor Core
- GPU NVIDIA Tesla V100 sử dụng kiến trúc Tensor Core. Các Tensor Cores chứa hỗ trợ Deep Learning và có thể cung cấp tới 125 TFLOPS cho các ứng dụng đào tạo và suy luận.
- Thiết kế mở rộng
- Kiến trúc mở rộng với nền tảng fibre 100G IB EDR, hoàn toàn có thể mở rộng để phù hợp với sự phát triển trong tương lai.
- Rapid Flash Xtreme (RFX) – Lưu trữ NVMe all-flash hiệu suất cao
- RFX là hệ thống lưu trữ hoàn chỉnh hàng đầu, được phát triển và thử nghiệm hoàn toàn cho các ứng dụng AI & Deep Learning kết hợp với Supermicro BigTwin™ cùng với hệ thống lưu trữ song song WekaIO.
Kiến trúc tham khảo cho hệ thống AI & Deep Learning
Supermicro hiện đang cung cấp các giải pháp hoàn chỉnh sau đây đã được kiểm tra kỹ lưỡng và sẵn sàng hoạt động. Các cụm này có thể được thu nhỏ lên xuống để đáp ứng nhu cầu của các dự án Deep Learning của bạn.
14U Rack |
24U Rack |
|
Product SKU | SRS-14UGPU-AIV1-01 | SRS-24UGPU-AIV1-01 |
---|---|---|
Compute Capability | 2PFLOPS (GPU FP16) | 4PFLOPS (GPU FP16) |
Compute Node | 2 SYS-4029GP-TVRT | 4 SYS-4029GP-TVRT |
Total GPUs | 16 NVIDIA® Tesla® V100 SXM2 32GB HBM | 32 NVIDIA® Tesla® V100 SXM2 32GB HBM |
Total GPU Memory | 512GB HBM2 | 1TB HBM2 |
Total CPU | 4 Intel® Xeon® Gold 6154, 3.00GHz, 18-cores | 8 Intel® Xeon® Gold 6154, 3.00GHz, 18-cores |
Total System Memory | 768GB DDR4-2666MHz ECC | 3TB DDR4-2666MHz ECC |
Networking | InfiniBand EDR 100Gbps; 10GBASE-T Ethernet | InfiniBand EDR 100Gbps; 10GBASE-T Ethernet |
Total Storage* | 15.2TB (8 SATA3 SSDs) | 30.4TB (16 SATA3 SSDs) |
Operating System | Ubuntu Linux OS or CentOS Linux | Ubuntu Linux OS or CentOS Linux |
Software | Caffe, Caffe2, Digits, Inference Server, PyTorch, NVIDIA® CUDA®, NVIDIA® TensorRT™, Microsoft Cognitive Toolkit (CNKT), MXNet, TensorFlow, Theano, and Torch | Caffe, Caffe2, Digits, Inference Server, PyTorch, NVIDIA® CUDA®, NVIDIA® TensorRT™, Microsoft Cognitive Toolkit (CNKT), MXNet, TensorFlow, Theano, and Torch |
Max Power Usage | 7.2kW (7,200W) | 14.0kW (14,000kW) |
Dimensions | 14 Rack Units, 600 x 800 x 1000 (mm, W x H x D) | 24 Rack Units, 598 x 1163 x 1000 (mm, W x H x D) |
Các nền tảng máy chủ sẵn sàng cho AI & Deep Learning từ Supermicro
SYS-1029GQ-TVRT
|
SYS-4029GP-TVRT
|
SYS-6049GP-TRT
|
SYS-9029GP-TNVRT
|