Việc chia sẻ tài nguyên là điều tốt, nhưng có thể gặp một số về hiệu suất với lưu trữ đám mây riêng. Hãy xem xét đến các tùy chọn về SSD và network mới để có được tốc độ bạn cần.
Các đám mây riêng cung cấp sự nhanh nhẹn, linh hoạt và mô hình định giá chi tiêu hoạt động – nhưng hiệu suất, đặc biệt liên quan đến lưu trữ, có thể là một thách thức. Khi quản lý một đám mây riêng, quản trị viên cần nhìn sâu vào bên trong để tránh tình trạng storage gridlock.
Tất cả người dùng trong một tổ chức chia sẻ chung vùng lưu trữ đám mây riêng. Điều này thực hiện được là do nó là hệ lưu trữ được nối mạng và, tùy thuộc vào cấu hình trung tâm dữ liệu, có thể chỉ nằm cách các máy chủ vài bước chân. Độ trễ mạng và giao thức làm giảm băng thông khả dụng, nhưng tác động thực sự đến hiệu suất lưu trữ đám mây riêng lại xuất phát từ việc lưu trữ được chia sẻ. Ổ đĩa cứng – vẫn là hình thức lưu trữ chủ yếu trong môi trường đám mây – mỗi ổ có thể thực hiện khoảng 150 thao tác I/O mỗi giây (IOPS), bất kể dung lượng. Với các ổ đĩa được cài đặt hiện ở mức khoảng 4 terabyte (TB), điều này có nghĩa chỉ là một phần tư IOPS trên mỗi TB của ba năm trước. Nói cách khác, lưu trữ đang chậm lại.
Các vấn đề thay đổi hiệu suất cũng đến từ bản chất chung của lưu trữ đám mây riêng. I/O có xu hướng bùng nổ hơn là ổn định. Nếu lưu lượng truy cập nhẹ, một loạt thao tác I/O sẽ nhận được sự đáp ứng nhanh chóng – trên cả mức trung bình. Tuy nhiên, đôi khi một hàng xóm ồn ào làm hỏng hệ thống I/O trong một thời gian dài, gây ra sự chậm trễ cho tất cả những người thuê nhà khác trên máy chủ và thời gian làm việc lâu hơn.
SSD tăng hiệu năng lưu trữ đám mây
Một cách để điều chỉnh hệ thống lưu trữ đám mây riêng của bạn là mô phỏng các nhà cung cấp dịch vụ đám mây lớn. CSP trình bày nhiều lựa chọn instance cho cả compute và storage. Lưu trữ SSD và bộ nhớ cache all-flash là các tùy chọn bạn có thể triển khai để tăng IOPS và với việc giá SSD ngày càng tiệm cận với giá ổ đĩa cứng (HDD), chúng tôi có thể hy vọng lưu trữ SSD sẽ trở thành tùy chọn hàng đầu trong tương lai gần.
SSD tăng IOPS bởi các yếu tố rất lớn, từ mức tăng 100 lần đến 1000 lần so với ổ cứng. Bước nhảy hiệu suất này sẽ làm giảm sự chậm chạp của lưu trữ mạng chung, nhưng bộ điều khiển thiết bị lưu trữ và mạng hiện trở thành nút cổ chai và vẫn còn bị tắc nghẽn và hàng xóm ồn ào. Các mạng nhanh hơn so với 10 Gigabit Ethernets (GbE) điển hình ngày nay chỉ đang tiếp cận thị trường, chẳng hạn như 25 GbE và các phiên bản xương sống với bốn làn mỗi liên kết.
Network nhanh hơn có thể loại bỏ các tắc nghẽn và tăng hiệu suất lưu trữ đám mây, mặc dù việc triển khai sẽ mất một thời gian và vấn đề hàng xóm ồn ào vẫn còn. Một giải pháp, một giải pháp thay thế cho việc sử dụng bộ lưu trữ liên tục SSD giá cao, là có các cửa hàng SSD cá thể cục bộ trong các máy chủ. Lưu trữ sơ thẩm không liên tục và yêu cầu sao chép mạng để ghi, nhưng điều đó làm giảm đáng kể tải I/O trong các trường hợp sử dụng với tỷ lệ một lần đọc-tám-lần đọc điển hình. Mặc dù đó là một thực tiễn tốt để phản ánh tất cả ghi vào lưu trữ liên tục được nối mạng, hầu hết các lần đọc có thể là cục bộ.
Với lưu trữ cá thể, có đủ I/O từ SSD để che giấu hàng xóm ồn ào và cung cấp hiệu suất lớn cho các ứng dụng. Bạn có thể tránh viết lại các thường trình I/O nếu hệ điều hành (HĐH) hỗ trợ chế độ I/O của gương không đối xứng.
Bài học lưu trữ được học từ Google Cloud Platform
Theo một báo cáo từ công ty phân tích đám mây Cloud Spectator, Google Cloud Platform đáng chú ý vì có 2% thay đổi về tỷ lệ I/O. Điều này cho thấy nhà cung cấp đám mây có các cơ chế nội bộ để giải quyết các vấn đề hàng xóm ồn ào, cũng như các cơ chế phân phối I/O hiệu quả. Mặc dù Google coi việc điều chỉnh là một bí mật thương mại, chúng tôi biết rằng công ty đã bản địa hóa các trường hợp vào dữ liệu được lưu trữ của mình, điều này giúp giảm độ trễ.
Nhiều khả năng, phần mềm điều phối của Google giám sát tỷ lệ I/O theo ví dụ và có thể điều chỉnh chất lượng dịch vụ để bù cho các trình tải cao hoặc thậm chí di chuyển các trường hợp ra khỏi tải nặng. Trong một đám mây riêng, điều này có thể yêu cầu các trường hợp I/O đặc biệt, cao với các ràng buộc về vị trí máy chủ.
Vai trò của in-memory, công nghệ container
Các tùy chọn in-memory có thể sẽ thúc đẩy tương lai của I/O trong đám mây. Google, ví dụ, đã có các tùy chọn lưu trữ trên RAM và các mô-đun bộ nhớ song song không biến đổi (NVDIMM) sẽ giúp điều đó trở nên hợp lý hơn, đồng thời mở rộng bộ nhớ cho nhiều TB. Bộ nhớ NVDIMM sẽ thay thế bộ nhớ cá thể cục bộ khi tăng tốc I/O ưa thích. Cách tiếp cận NVDIMM cũng phù hợp với cấu trúc liên kết siêu hội tụ, đưa tất cả các storage và compute gần nhau.
Các container thêm một chút tín hiệu vui vào vấn đề hiệu năng lưu trữ đám mây. Cách tiếp cận được đóng gói để ảo hóa làm tăng số lượng instance trên bất kỳ máy chủ cụ thể nào từ ba đến năm lần. Mặc dù chỉ cần một hình ảnh hệ điều hành, I/O liên tục trên mỗi máy chủ sẽ tăng đáng kể. Tuy nhiên, với các thay đổi về SSD và NVDIMM được mô tả ở trên, sẽ có rất nhiều I/O để làm việc.
Hãy chú ý đến các lựa chọn phần mềm lưu trữ khi xây dựng lưu trữ đám mây riêng. Red Hat và SanDisk đã hợp tác để điều chỉnh Ceph khi sử dụng SSD, sẽ chơi tốt trong cộng đồng OpenStack. Scality và Caringo cũng hoạt động trong lĩnh vực này, trong khi về phía thiết bị tích hợp, hệ thống WOS của DDN đang báo cáo hiệu suất rất cao.
Bài viết liên quan
- Lựa chọn lưu trữ hàng đầu cho đào tạo mô hình AI là gì?
- Hậu trường: Tầm quan trọng của việc lưu trữ dữ liệu tại các sự kiện hiện đại
- Hệ thống lưu trữ DDN đạt được hiệu suất vượt trội với MLPerf Benchmarking, thúc đẩy kết quả kinh doanh đột phá từ AI
- Giải pháp lưu trữ của Infortrend cho camera an ninh
- VAST Data Platform – Nền tảng dữ liệu doanh nghiệp toàn diện
- COMPUTEX 2024: QNAP giới thiệu các giải pháp mạng và lưu trữ cho AI, sản xuất…