Các xu hướng hàng đầu liên quan đến Software-defined Storage

Trí tuệ nhân tạo (AI) trong các hệ thống lưu trữ

Trí tuệ nhân tạo (AI) sẽ ngày càng đóng vai trò quan trọng trong lĩnh vực lưu trữ vì nói một cách đơn giản, sự can thiệp của con người đang trở thành một trở ngại cho sự thành công. AI giúp tự động hóa việc sắp xếp dữ liệu bằng cách đánh giá tài nguyên, đánh giá lại mô hình và thực hiện các mục tiêu kinh doanh mờ nhạt xung quanh mức độ quan trọng, khả năng đáp ứng và mức độ liên quan mà không cần sự can thiệp của con người. Ngoài ra, phân tích dựa trên AI có thể cung cấp thông tin chi tiết từ nhiều tập dữ liệu khổng lồ với hiệu quả cao hơn, cung cấp cho các tổ chức thông tin chi tiết dự đoán mà không cần sự tham gia của con người.

Trong thế giới lưu trữ xác định bằng phần mềm, AI đã được sử dụng để phân tích hiệu suất và việc sử dụng không gian nhằm giúp quản trị viên đưa ra quyết định sáng suốt về việc bổ sung dung lượng, giải quyết tắc nghẽn và ngừng hoạt động các hệ thống lưu trữ cũ. Chúng ta sẽ thấy nhiều tình huống hơn trong đó phân tích dựa trên AI cải thiện hiệu quả lưu trữ, khả năng phục hồi và hiệu quả chi phí, vì vậy nhiều nhà cung cấp Software-defined Storage sẽ bao gồm nó.

DataCore Insight Services là một nền tảng phân tích dự đoán dựa trên AI / ML, cung cấp thông tin chi tiết hữu ích thông qua một ô kính duy nhất.

Giải pháp ảo hóa hạ tầng lưu trữ

Lưu trữ thông minh hơn thông qua AI

Khi nhiều tổ chức tiếp tục mở rộng nỗ lực của họ vào phân tích dữ liệu dự đoán, dựa trên AI, họ sẽ có nhu cầu về các loại dịch vụ lưu trữ mới. Quá nhiều nền tảng lưu trữ thiếu quy mô, hiệu suất, kết nối đám mây và khả năng xử lý các yêu cầu chuyên sâu và lưu trữ. Bạn sẽ thấy các nhà cung cấp thúc đẩy Software-defined Storage, cung cấp một nền tảng lưu trữ mở rộng và thống nhất , tự điều chỉnh âm thầm thông qua AI, dễ dàng điều chỉnh để xử lý cả tập dữ liệu lưu trữ và phi cấu trúc từ cùng một giao diện.

Khả năng phục hồi cao hơn từ lưu trữ đa đám mây kết hợp

Lưu trữ đám mây gần như đồng nghĩa với dung lượng đàn hồi. Ngày nay, các tổ chức có dữ liệu được lưu trữ trong nhiều đám mây, đám mây riêng và cơ sở hạ tầng tại chỗ. Chúng tôi cảm thấy như thể đây sẽ là một năm mà các tổ chức làm việc để chăn thả tất cả những con mèo đó khi họ chuyển dữ liệu không có cấu trúc không hoạt động lên đám mây khi chi phí lưu trữ giảm. Cần có Software-defined Storage, trải dài trên nhiều đám mây công cộng, đám mây riêng và cơ sở hạ tầng tại chỗ. Các nhà cung cấp có thể mở rộng phân chia công khai / tư nhân sẽ có lợi thế hơn.

Sự phân biệt chính / phụ cũ ngày càng mờ nhạt

Khi dữ liệu phát triển và khối lượng công việc nhân lên, việc quản lý phương pháp lưu trữ chính cũ so với phương pháp lưu trữ thứ cấp trở nên khó khăn. Các vấn đề về dung lượng bị mắc kẹt, sự không tương thích của phần mềm từ nền tảng này sang nền tảng khác và đơn giản là sự kém rõ ràng hơn về vị trí dữ liệu bắt đầu làm tăng chi phí và độ phức tạp đồng thời ảnh hưởng đến hiệu suất và khả năng phục hồi.

Một số nhà cung cấp dự báo về một tương lai hoàn toàn chớp nhoáng, nơi mọi thứ đều nằm trên bộ lưu trữ hiệu suất cao. Các nhà cung cấp khác khẳng định rằng ổ cứng không chết và sẽ luôn có chỗ đứng. Nhưng mọi người đều đồng ý một điều rằng các nền tảng mới nổi làm mờ ranh giới giữa chính và phụ để tối ưu hóa hiệu quả và giá trị. Với điều này ngày càng tăng nhu cầu loại bỏ việc phân biệt thủ công và tách biệt dữ liệu nào sẽ đi đến đâu. Các tổ chức sẽ bắt đầu dựa nhiều hơn vào trí tuệ học máy từ các công cụ do phần mềm xác định để tự động hóa việc ra quyết định về vị trí dữ liệu.

Ràng buộc siêu hội tụ Dễ thấy hơn

Cơ sở hạ tầng siêu hội tụ ( HCI ) đã có một bước đi tốt đẹp, nhưng đã có đủ thế hệ của nó trôi qua để các tổ chức thấy được giới hạn của nó.

HCI về cơ bản là một giải pháp phù hợp với một kích thước nào đó – hãy tưởng tượng chạy phân tích Dữ liệu lớn trên đó và bạn có thể bắt đầu thấy những thách thức. Nó cũng kết thúc được cung cấp quá mức hoặc cung cấp dưới mức do hiệu suất lưu trữ, máy tính và mạng phải chia tỷ lệ với nhau, bất kể khối lượng công việc cần nhiều máy tính hơn hay nhiều dung lượng lưu trữ hơn.

Chúng ta có thể sẽ thấy các tổ chức bắt đầu chuyển hướng sang các sửa đổi của HCI, như HCI phân tách (dHCI), nơi lưu trữ và tính toán có thể mở rộng quy mô độc lập. Những người khác sẽ nghĩ về việc xây dựng cơ sở hạ tầng lưu trữ phù hợp cho từng khối lượng công việc và nhiều cơ sở hạ tầng trong số đó sẽ do phần mềm định nghĩa.

Khai thác metadata – thông tin mô tả – để ứng dụng thực tế

Ngày xưa, bộ nhớ là các khối dữ liệu và các khối đó nằm trên các đĩa. Xu hướng lưu trữ đã thay đổi. Ngày nay, giá trị của dữ liệu ngày càng bị chi phối bởi mức độ liên quan của nó — và mức độ liên quan bắt nguồn từ siêu dữ liệu. Siêu dữ liệu trao quyền cho các tổ chức xây dựng quản lý dữ liệu theo hướng chính sách và thậm chí dựa trên AI để bảo vệ một số tệp nhất định bằng mọi giá, tự động di chuyển một số tập dữ liệu sang nền tảng lưu trữ chi phí thấp nhất và thậm chí tăng tốc hiệu suất bằng cách giữ một số tệp trên lưu trữ nhanh nhất. Quản lý dữ liệu theo hướng siêu dữ liệu sẽ trở thành một động lực đột phá vào năm 2020 trong thế giới lưu trữ dữ liệu phi cấu trúc và vào năm 2022 được coi là một khả năng cần thiết cho một tổ chức ở bất kỳ quy mô nào.

Chúng ta sẽ thấy hiệu suất tăng chưa từng có và có thể là một cấp bộ nhớ mới

Chúng tôi đã có một vài năm lưu trữ toàn bộ flash và đã quen với những ưu điểm (và hạn chế) của ổ flash SAS trong việc lưu trữ, dù là phần cứng hay phần mềm được xác định. Nhưng năm nay, chúng ta sẽ chứng kiến ​​một sự thay đổi đáng kể đối với một cấp hiệu suất mới (chúng tôi gọi nó là Cấp 0 hay Cấp 1?) Các tổ chức tiên tiến hàng đầu sẽ bắt đầu áp dụng ổ đĩa NVMe và thậm chí cả NVMe-over Fabric (IP hoặc Fibre Channel) như một cách để đẩy nhanh thời gian đến kết quả và thời gian để hiểu rõ hơn về khối lượng công việc đòi hỏi khắt khe nhất của họ.

Các nhà cung cấp sẽ chào hàng Bộ nhớ lớp lưu trữ (SCM) như là tất cả và kết thúc tất cả việc tối ưu hóa hiệu suất lưu trữ. Dù vậy, sự thay đổi mới này sẽ bắt đầu mở ra những khả năng mới về đổi mới dịch vụ nhưng cũng sẽ đặt ra những nhu cầu mới về mạng và cơ sở hạ tầng máy tính. Nền tảng Software-defined Storage (SDS) phải được định vị tốt để tận dụng các ổ đĩa và giao thức mạng mới.

Hợp nhất NAS cũng sẽ tăng tốc

Có bao nhiêu tổ chức có hàng chục máy chủ lưu trữ, trình tập tin, nền tảng SAN / NAS thống nhất, cũ hơn so với mức cần thiết, cung cấp hiệu suất thấp hơn mức có thể và buộc các tổ chức phải thỏa hiệp do chi phí và độ phức tạp? Các nhà cung cấp dịch vụ lưu trữ do phần mềm định nghĩa đã quảng cáo về khả năng của họ để tổng hợp chúng dưới một lớp ảo hóa lưu trữ, lớp này sẽ tóm tắt tệp chia sẻ từ phần cứng bên dưới. Khả năng đó sẽ trở nên quan trọng hơn bao giờ hết khi các tổ chức tìm cách di chuyển tệp giữa các lớp lưu trữ khác nhau khi chúng già đi. Một lớp quản lý do phần mềm xác định duy nhất giúp cho việc thay đổi đó trở nên dễ dàng và một số nhà cung cấp dịch vụ Software-defined Storage cũng cung cấp tính năng di chuyển tự động.

Đây là năm dành cho Software-defined Storage

Bạn có thể cho chúng tôi biết ý kiến ​​về Software-defined Storage không? Là công ty dẫn đầu thị trường SDS, DataCore nhìn thấy tất cả những lợi thế của nó – từ các tính năng như di trú tự động, AI tích hợp, khả năng đồng hóa và tổng hợp năng lực hiện có; lợi thế giúp giảm thời gian, chi phí và rủi ro cho các tổ chức thuộc mọi quy mô. Những “ngày xưa” của việc thêm các nền tảng lưu trữ khối, tệp và đối tượng độc quyền đang bắt đầu mờ nhạt dần. Các tổ chức thông minh biết rằng sự nhanh nhẹn và tính linh hoạt đến từ phần mềm, và Software-defined Storage sẽ mở ra các khả năng mà các phương pháp khác không thể thực hiện được. Đó là lý do tại sao các báo cáo cho thấy thị trường lưu trữ toàn cầu do phần mềm xác định có thể trị giá  tới 7 tỷ USD vào năm 2020.

____
Bài viết liên quan

Góp ý / Liên hệ tác giả