Hoạt động hết công suất: Trung tâm dữ liệu trong kỷ nguyên AI

Nếu có một thời điểm nào đó mà công nghệ định nghĩa nên “hệ tư tưởng” thì đó chính là bây giờ! Sự đổi mới về trí tuệ nhân tạo (AI) đã làm rung chuyển mọi ngành công nghiệp và đang thay đổi cách chúng ta làm việc và sống theo những cách cơ bản, sâu sắc và có thể không thể thay đổi được. Đáng chú ý hơn, Bill Gates đã khẳng định AI là sự đổi mới quan trọng và mang tính cách mạng nhất trong 30 năm qua, có thể so sánh cuộc đua công nghệ AI ngày nay với sự xuất hiện của giao diện đồ họa người dùng (GUI) trong đầu những năm 1980, điện thoại di động và Internet. Nó thú vị, gây rối, và có chút đáng sợ.

Tất nhiên, cùng với việc tăng cường áp dụng các công cụ AI, những thách thức mới đã xuất hiện – đặc biệt là trong cách chúng ta lưu trữ, truyền tải và xử lý dữ liệu cũng như khả năng của chúng ta để thực hiện điều đó.

Trung tâm dữ liệu “làm việc ngoài giờ”

Không có gì đáng ngạc nhiên khi các ứng dụng AI tiêu tốn rất nhiều điện năng. Đặc biệt, các mô hình học sâu dẫn đến yêu cầu xử lý cao hơn cho các trung tâm dữ liệu vì việc đào tạo và thực thi các mô hình AI phụ thuộc vào sức mạnh xử lý đáng kể. Việc chạy các ứng dụng này đòi hỏi phần cứng tiên tiến như GPU (các mạch điện tử chuyên dụng giúp tăng tốc kết xuất đồ họa và hình ảnh) và TPU (các mạch điện tử được thiết kế để tăng tốc tải xử lý AI và ML).

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI

Các trung tâm dữ liệu (DC) truyền thống được thiết kế với mật độ trung bình từ 5 đến 10 kilowatt trên mỗi tủ rack; Sự ra đời của AI hiện nay đòi hỏi 60 kilowatt trở lên trên mỗi tủ. Hơn nữa, các ứng dụng AI tạo ra nhiều dữ liệu hơn các loại tải xử lý khác và do đó đòi hỏi khả năng cung cấp của trung tâm dữ liệu đáng kể.

Các trung tâm dữ liệu mới phải được xây dựng với mật độ nguồn điện cao hơn rất nhiều; đó là một phần của việc khả thi hóa AI. Các trung tâm dữ liệu hiện tại đang thích ứng với những thay đổi này, tăng cường năng lực cung cấp bằng cách triển khai các giải pháp kết nối, máy chủ xử lý và hệ thống lưu trữ được tối ưu hóa – điều mà một số DC cũ và hầu hết các DC tại chỗ sẽ gặp khó khăn khi thực hiện ở quy mô cần thiết để theo kịp các hệ thống mới nhất.

Những chiếc GPU và TPU “khát điện” tỏa ra nhiều nhiệt đến mức có thể cần phải tăng cường kiểm soát môi trường, bao gồm cả giải pháp làm mát bằng chất lỏng. Vấn đề nhiệt này vừa là vấn đề kỹ thuật vừa là vấn đề môi trường.

Lợi ích gia tăng của dịch vụ colocation

Trước đây, giống như cách các ngân hàng lớn có kho tiền lớn, các công ty lớn cũng có các trung tâm dữ liệu khổng lồ được xây dựng có mục đích riêng cho hoạt động của họ. Sự ra đời của điện toán đám mây (AWS, Google Cloud, Microsoft Azure, v.v.) đã tạo ra một tiện ích mới cho các doanh nghiệp sử dụng các dịch vụ này theo yêu cầu, thay vì lưu trữ chúng tại chỗ hoặc đi mua “chỗ ngồi”.

Một số ngành vẫn còn rất truyền thống: Các công ty bảo hiểm, ngân hàng và công ty y tế thường giữ máy chủ của họ rất gần và sở hữu chúng do các hạn chế về bảo mật dữ liệu và quyền riêng tư. Nhưng ngay cả những công ty này cũng đã bắt đầu dựa nhiều hơn vào SaaS và trở nên thoải mái hơn khi sử dụng đám mây cũng như các trung tâm dữ liệu của bên thứ ba cho nhiều dịch vụ với số lượng ngày càng tăng.

Các công ty đã phải giải quyết một nền kinh tế số tự phục vụ khi đại dịch bùng phát, dẫn đến việc ngày càng có xu hướng di chuyển tải xử lý từ trung tâm dữ liệu tư nhân sang đám mây, và gần đây hơn là chuyển sang kiến ​​trúc đa đám mây (multi-cloud). Quá trình chuyển đổi này cũng dẫn đến các mô hình kết hợp (hybrid), trong đó một công ty có một số ứng dụng nằm trong trung tâm dữ liệu và các ứng dụng khác trên đám mây riêng của họ. Khi đó, một vai trò của các trung tâm dữ liệu colocation hiện đại là cung cấp “đường cao tốc” giữa các đám mây riêng và dịch vụ đám mây công cộng.

Đối với các công ty sử dụng nhiều công cụ AI, các trung tâm dữ liệu được đặt cùng vị trí mang đến một lựa chọn hiệu quả hơn nhiều so với các trung tâm dữ liệu tại chỗ trước đây: Chúng cung cấp các tùy chọn kết nối mạnh mẽ và khả năng truy cập có độ trễ thấp vào các loại tài nguyên điện toán mạnh mẽ mà trên đó những ứng dụng này phụ thuộc vào khả năng xử lý theo thời gian thực, giảm thời gian truyền dữ liệu và tăng tốc thời gian kết nối lên đám mây.

Và đừng quên khả năng mở rộng. Các trung tâm dữ liệu colocation cung cấp không gian, sức mạnh, khả năng làm mát và hạ tầng tuyệt đối để cho phép các công ty mở rộng việc sử dụng AI theo nhu cầu kinh doanh của họ. Cuối cùng, kết quả mang lại cho các doanh nghiệp là hiệu suất AI tăng lên, giảm chi phí, tính bền vững cao hơn, lượng khí thải carbon nhỏ hơn và tính linh hoạt cao hơn về tổng thể khi tải xử lý của họ được điều khiển bởi AI nhiều hơn.

Nhìn về phía trước

Theo quan điểm của tôi, cấu trúc tối ưu cho doanh nghiệp cần bao gồm việc có hạ tầng CNTT gần với đám mây, do đó, bạn có khả năng truy vấn đám mây đó – để lưu trữ, phân tích, cho AI – trong tầm tay, với độ trễ gần với thời gian thực và chi phí truyền dữ liệu tối thiểu. Đó là một trong những lý do khiến chúng ta thấy nhiều kiến ​​trúc đám mây phân tán hoặc kết hợp hơn; các công ty có thể có tài nguyên điện toán tức thời gần hơn với người dùng cuối của họ trong khi sử dụng ngày càng nhiều dữ liệu hơn, phần lớn là do sự phụ thuộc vào AI.

Tuy nhiên, về cơ bản, các công ty nên xem xét hạ tầng trung tâm dữ liệu của mình với mục đích chuẩn bị và sẵn sàng cho tương lai. Chúng ta đang bước vào một thế giới kinh doanh trong đó ngày càng có nhiều quy trình cần được hỗ trợ bởi AI, dựa trên dữ liệu và hoạt động hiệu quả nhất có thể trong những thời kỳ kinh tế bất ổn và biến đổi khí hậu lan rộng.

Cuối cùng, tại thời điểm này, mọi doanh nghiệp đều đang trong quá trình phát triển kiến trúc hỗn hợp, giữ một sự liên tục giữa đám mây “hoàn toàn riêng tư” và đám mây “hoàn toàn công cộng” – và các lãnh đạo doanh nghiệp phải đảm bảo rằng hạ tầng dữ liệu và đám mây của họ biến đổi theo thời gian, có thể đặt chúng ở bất cứ nơi nào họ cần, ở trong sự liên tục đó. Nếu không, họ sẽ bị tụt lại phía sau.

Juan Font
Forbes

____
Bài viết liên quan

Góp ý / Liên hệ tác giả