Điện toán phi tập trung chính là nền móng của Metaverse

Metaverse vẫn là một thứ gì đó, một trải nghiệm, một dịch vụ đang trong quá trình hình thành, ý tưởng về một thế giới 3D này phần lớn được thúc đẩy bởi Trí tuệ nhân tạo và đồ họa nhập vai, nhiều người hy vọng nó sẽ là nơi mà người dùng có thể chơi game và tương tác với những người khác, và các công ty có thể kinh doanh theo những cách mà hiện nay chưa thể làm được.

Metaverse có một loạt các mô tả khác nhau dựa trên người đang nói chuyện và đang tạo ra nhiều ý kiến ​​từ các nhà quan sát trong ngành, từ việc nó là một công nghệ mang tính thay đổi cuộc chơi, hơn một chút so với sự xuất hiện của Second Life, với hứa hẹn về một kết quả tương tự.

Điều đó nói lên rằng, hàng tỷ đô la đang được chi để tạo nền tảng cho metaverse, với Meta Platforms, trước đây là Facebook, đang dẫn đầu cho cuộc chơi này, với người đồng sáng lập và giám đốc điều hành Mark Zuckerberg và những người khác trong công ty đang cầm lá cờ trong tay. Vào tháng trước, Microsoft thông báo họ đã chi 69 tỷ USD để mua lại nhà sản xuất trò chơi Activision Blizzard và các công nghệ trải nghiệm nhập vai của họ. Apple và Google cũng đang thực hiện các bước để tạo ra trải nghiệm điện toán nhập vai; Nvidia đang tận dụng GPU, DPU và sắp tới là CPU để xây dựng nền tảng mô phỏng 3D Omniverse, kết xuất ra metaverse của riêng mình.

Khuyến mãi máy chủ Dell PowerEdge

Sẽ mất nhiều năm để xem metaverse diễn ra như thế nào, nhưng có một điều chắc chắn là nó sẽ đẩy nhanh sự phi tập trung hóa của các hệ thống máy tính, một xu hướng mới trong quá trình chuyển đổi đi song hành với các xu hướng khác như IoT và điện toán biên. Tại hội nghị Ignite một năm trước, giám đốc điều hành của Microsoft, Satya Nadella, đã lưu ý điều này, nói rằng ngành công nghiệp đã đạt đến “mức độ tập trung hóa cao nhất”. Loại trải nghiệm nhập vai mà những người ủng hộ metaverse đang nói đến sẽ cần đến kết nối băng thông cao và độ trễ thấp và điều đó sẽ yêu cầu máy tính phải gần gũi hơn với người dùng cuối.

“Ý tưởng là nếu bạn muốn có một trải nghiệm nhập vai, ngay cả như Meta đang cho thấy, bạn sẽ phải thực hiện phần lớn điều đó tại chỗ”, Matt Baker, Phó chủ tịch cấp cao về chiến lược công ty tại Dell Technologies, cho hay. “Nếu bạn nhìn vào những thứ hiện tại mà chúng tôi có thể nói là tương tự như metaverse, thì có một lý do tại sao nó chủ yếu là về vật thể và avatar. Đó là bởi vì thật dễ dàng để hiển thị những hình ảnh động gần giống như truyện tranh này của tôi như một hình đại diện. Tại sao bạn làm điều đó? Đó là bởi vì bạn không thể hiển thị một thứ gì đó ba chiều, thực sự tinh vi và qua kết nối ở xa”.


Matt Baker, phó chủ tịch cấp cao về chiến lược công ty tại Dell Technologies

Như đã trình bày trong một bài đăng trên blog gần đây của Baker, máy tính và dữ liệu sẽ được phân tán ra nhiều hơn, điều này sẽ thúc đẩy nhu cầu về nhiều dung lượng xử lý trong các trung tâm dữ liệu và các máy tính mạnh hơn cũng như các ứng dụng máy khách khác đi kèm với các bộ tăng tốc (accelerator), nhiều bộ nhớ hơn và số lượng lõi cao hơn. Cũng sẽ xuất hiện nhu cầu về các chuẩn và giao tiếp ở dạng mở.

Nhu cầu của doanh nghiệp về trải nghiệm nhập vai thời gian thực, mang tính thực tế cao là “cuối cùng sẽ thu hút sức mạnh điện toán từ các trung tâm dữ liệu siêu tập trung và chuyển ra thế giới xung quanh chúng ta. Đó có thể là các địa điểm dành cho viễn thông hoặc nhiều khả năng là các tháp di động. Điều đó đang xảy ra ngay bây giờ. Có rất nhiều nhà cung cấp dịch vụ Tier 2 và Tier 3 đang cố gắng tìm ra một thị trường ngách từ những ông lớn như Equinix để tạo ra các trung tâm dữ liệu nhỏ ở các thị trường nhỏ hơn vì họ muốn có thể cung cấp điều đó”.

Baker nói: Cố gắng tạo ra thế giới 3D này từ các trung tâm dữ liệu tập trung, ở xa sẽ thách thức quy luật tự nhiên. Ông ấy chỉ ra các giới hạn được chấp nhận chung cho các hoạt động thời gian thực là độ trễ từ 5 mili giây đến 9 mili giây. Hai khu vực dịch vụ Amazon Web Services tương đối gần nhau – ở Bắc Virginia và Ohio – vẫn cách xa 300 dặm hoặc hơn với độ trễ không thấp hơn 28 mili giây.

Điều này có nghĩa là các trung tâm dữ liệu nhỏ hơn – hoặc môi trường giống như trung tâm dữ liệu – ở nhiều nơi hơn, chẳng hạn như các nhà cung cấp dịch vụ theo tháp không dây hoạt động, hoàn chỉnh với thiết bị máy tính, lưu trữ và mạng. Điều đó cũng có nghĩa là sẽ có nhiều máy tính hơn ở những nơi như cửa hàng bán lẻ và các site khác, Baker nói. Nó cũng sẽ tạo ra một thế giới mà các nhà cung cấp siêu quy mô (hyperscaler) như AWS, Microsoft Azure và Google Cloud sẽ phải thích ứng.

Ông nói: “Bạn sẽ không thấy sự trống rỗng zero-sum của các trung tâm dữ liệu siêu quy mô”. “Khi mọi thứ di chuyển ra xa, sẽ có nhiều thứ hơn nữa là tất cả những thứ này đều có mối quan hệ với nhau, đó là lý do tại sao ý tưởng về đa đám mây mà chúng ta tiếp tục nói đến đã được xem như một cuộc chiến giữa tại chỗ và trên đám mây. Hoạt động thực sự có khả năng xảy ra ở “third-premise””.

Nó có thể bao gồm việc tạo ra các trung tâm dữ liệu nhỏ hơn và tận dụng các cơ sở đồng địa điểm. Điều đó cũng có nghĩa là các nhà cung cấp đám mây tiếp tục mở rộng dịch vụ của họ bên ngoài các trung tâm dữ liệu của riêng họ, Baker nói. AWS đã thực hiện điều đó với Outposts – phần cứng được đặt tại cơ sở để cung cấp cho các doanh nghiệp quyền truy cập vào các dịch vụ đám mây từ trung tâm dữ liệu của họ – và gần đây hơn với chương trình EKS và ECS Anywhere để cung cấp dịch vụ AWS trong các máy chủ chính thống. Microsoft cũng đang làm điều tương tự với Azure Arc và Google Cloud với Anthos .

Ngược lại, như chúng ta đã nói trước đây, các công ty hạ tầng CNTT truyền thống như Dell, Hewlett Packard Enterprise, Lenovo và Cisco đang đưa môi trường của họ vào đám mây. Dell đã hợp tác với VMware để kích hoạt các công nghệ của họ trên nền tảng đám mây và ngày càng cung cấp nhiều hơn các sản phẩm “như một dịch vụ” thông qua sáng kiến ​​Apex của họ. Các hãng khác, chẳng hạn như IBM với Red Hat, cũng như HPE với GreenLake, Lenovo với TruScale và Cisco Systems với Cisco+ cũng đang làm như vậy.

Khi bản chất phân tán của CNTT tăng tốc theo metaverse, điện toán biên và các hệ thống tương tự, các cấu trúc phần cứng và phần mềm, sẽ thích ứng theo. Ngày càng có nhiều sự đổi mới xung quanh các nền tảng xử lý, với sự gia tăng của các chip được tối ưu hóa cho AI, phân tích và các tải công việc khác và điều đó có thể thúc đẩy việc chuyển sang các hệ thống composable nhiều hơn. Ngoài ra, các doanh nghiệp tiếp tục áp dụng các kiến ​​trúc dựa trên phần mềm như cơ sở hạ tầng siêu hội tụ (HCI) – trong trường hợp của Dell là VxRail – để giảm độ phức tạp và cải thiện tính linh hoạt.

Ông nói: “Chúng ta sẽ bắt đầu thấy các hệ thống composable sâu hơn, nơi bạn có thể trộn và kết hợp các kiến ​​trúc theo những cách mới và thú vị để đạt được các kết quả mới và cũng có thể mang lại nhiều bộ nhớ hơn cho ứng dụng này”. “Cách mà tôi thích nghĩ về nó là các kiến ​​trúc trong tương lai về cơ bản sẽ “thổi bay” các tấm vỏ kim loại của các máy chủ và bộ lưu trữ. Những ranh giới đó sẽ biến mất và chúng sẽ được kết nối qua các mạng tốc độ cao, độ trễ thấp. Có những cái nhìn thoáng qua về điều này trong những gì chúng tôi đang làm với NVMe-over-Fabric. Đó là những nhân tố đang thúc đẩy [những thay đổi về mặc kiến ​​trúc]. Đó là sự khát khao lớn về sức mạnh điện toán đang thúc đẩy những thay đổi về kiến ​​trúc”.

Container, microservice, ứng dụng cloud-native và sự gia tăng của phương pháp “mười hai yếu tố” để xây dựng các ứng dụng phần mềm như một dịch vụ (SaaS) cũng sẽ giúp thúc đẩy sự phân tán của máy tính sẽ cần thiết khi metaverse được chú trọng.

Baker nói: “Chúng được xây dựng để tạo điều kiện thuận lợi cho điện toán song song trong trung tâm dữ liệu”. “Nhưng cách tiếp cận tương tự có thể được sử dụng để phân đoạn việc thực thi các ứng dụng – hai dịch vụ khác nhau chạy ở các địa phương khác nhau để đạt được một kết quả. Vì vậy, container hóa, microservices, tất cả những thứ này là một công cụ không nhất thiết được thiết kế để tạo điều kiện cho việc phân tán, nhưng nó chắc chắn giúp ích cho việc phân quyền vì giờ đây chúng ta đã giải phóng tâm trí khỏi suy nghĩ về các ứng dụng nguyên khối sang các ứng dụng được phân đoạn”.

Sự trở lại của kiến ​​trúc CNTT phân tán hơn sẽ mang lại lợi ích cho các nhà cung cấp như Dell, HPE và Lenovo, những nhà cung cấp vào buổi ban đầu của kỷ nguyên đám mây được coi là những con khủng long sẽ không thể cạnh tranh với Googles và Amazons cũng như các trung tâm dữ liệu khổng lồ của họ. Hyperscalers đã thành thạo trong việc quản lý một lượng lớn máy tính ở một số địa điểm nhỏ. Dell và những hãng khác trong lịch sử đã “cực kỳ giỏi trong việc triển khai và quản lý các hệ thống dựa trên rack và nằm trong trung tâm dữ liệu đến hàng triệu địa điểm khác nhau”, ông nói.

____
Bài viết liên quan

Góp ý / Liên hệ tác giả