AI đang “nóng” lên nhanh chóng: Liệu các Trung tâm Dữ liệu có đủ sức “gánh”?

Trí tuệ nhân tạo (AI) đang bùng nổ, len lỏi vào mọi ngóc ngách của công nghệ và cuộc sống. Nhưng đằng sau những mô hình AI ngày càng thông minh và phức tạp là một “cơn khát” điện năng và tài nguyên điện toán khổng lồ. Điều này đang đặt ra một thách thức chưa từng có cho “xương sống” của thế giới số: các trung tâm dữ liệu. Các cuộc thảo luận sôi nổi trong giới công nghệ đang tập trung vào việc hạ tầng hiện tại liệu có đủ sức chống đỡ trước làn sóng AI hay không, buộc toàn ngành công nghiệp phải suy nghĩ lại hoàn toàn về cách thiết kế, vận hành hệ thống mạng, hệ thống làm mát và vấn đề công suất nguồn điện.

Khi AI “đòi hỏi” nhiều hơn: Gánh nặng xử lý chưa từng có

Sự trỗi dậy của AI không chỉ là câu chuyện về phần mềm. Theo các chuyên gia, chính nhu cầu tính toán khủng khiếp của các mô hình AI tiên tiến mới là yếu tố cốt lõi đang định hình lại tương lai của trung tâm dữ liệu.

Luke Mackinnon, một chuyên gia về DC tại Úc, chỉ ra sự khác biệt đáng kể khi các mô hình AI chuyển từ “suy luận” (inference) đơn thuần sang “lý luận” (reasoning) phức tạp hơn. Ông lưu ý các mô hình lý luận có thể tạo ra lượng “token” (đơn vị thông tin) gấp 50 lần và đòi hỏi sức mạnh tính toán cao gấp 150 lần. “Những mô hình lý luận này thực sự là chất xúc tác cho vô số các đám mây AI của chính phủ và doanh nghiệp mà chúng tôi kỳ vọng,” Mackinnon nói. “Và tất nhiên, tất cả đều quay về bài toán làm mát và mật độ điện năng.”

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI

Cuộc chiến chống “nóng”: Từ Kilowatt đến Megawatt

Mật độ điện năng tăng vọt đã là nỗi trăn trở của ngành từ lâu, nhưng AI đang đẩy vấn đề này lên một cấp độ mới. Sunil Gupta tại Yotta Data Services (Ấn Độ) đưa ra một so sánh rõ ràng: nếu các bộ xử lý trung tâm (CPU) truyền thống cần khoảng 6-10kW cho mỗi tủ rack, thì các bộ xử lý đồ họa (GPU) chuyên dụng cho AI lại ngốn điện hơn nhiều.

“Tôi đang chứng kiến mức 50kW mỗi rack, cao gấp 8 đến 10 lần công suất thông thường,” Gupta cho biết, ngay cả khi đã dùng các giải pháp làm mát tiên tiến như bộ trao đổi nhiệt cửa sau. Ông nhấn mạnh rằng làm mát bằng chất lỏng sẽ sớm trở thành yêu cầu bắt buộc “ngay từ đầu” để hỗ trợ các thiết kế GPU tương lai, vốn có thể đòi hỏi tới 250kW mỗi rack. Đó là một mức tăng trưởng phi mã!

Nâng cấp hay xây mới: Bài toán kinh tế nan giải

Vậy tại sao không đơn giản là nâng cấp các trung tâm dữ liệu hiện có? Eugene Seo, CEO tại CapitaLand, giải thích rằng dù về mặt kỹ thuật là khả thi, việc “đại tu” một cơ sở hạ tầng đám mây truyền thống thành trung tâm dữ liệu AI lại ẩn chứa nhiều thách thức.

“Vấn đề nằm nhiều hơn ở khía cạnh quản lý tài chính,” ông nói. Các nhà vận hành phải đối mặt với nguy cơ mất khách hàng hiện tại trong quá trình chuyển đổi, cùng với chi phí vốn khổng lồ cho các thiết bị mới như hệ thống phân phối chất làm mát. “Sẽ có nhiều đường ống hơn, và hoạt động trở nên phức tạp, chuyên sâu hơn rất nhiều.”

Hệ thống mạng cho AI: Không chỉ là tốc độ

Hạ tầng mạng bên trong các trung tâm dữ liệu AI cũng hoàn toàn khác biệt. Miles Tang tại China Unicom Global chỉ ra yêu cầu kết nối tốc độ siêu cao giữa các cụm máy chủ AI (east-west communication) để phục vụ quá trình đào tạo mô hình. Đồng thời, các máy chủ AI “ngốn” điện đòi hỏi nhiều bộ cấp nguồn phải hoạt động song song và ổn định.

Khi AI thực hiện nhiệm vụ “suy luận” để trả kết quả cho người dùng, luồng dữ liệu lại chuyển sang hướng “bắc-nam” (north-south), đòi hỏi độ trễ cực thấp. Mackinnon ví von sự phát triển này sẽ tương tự như các mạng phân phối nội dung (CDN), cần đưa năng lực xử lý đến gần người dùng hơn. Gupta bổ sung rằng độ trễ là yếu tố sống còn, có thể thúc đẩy việc đưa các tải xử lý suy luận ra các vị trí điện toán biên (edge locations).

Năng lượng xanh: Không còn là lựa chọn mà là yêu cầu bắt buộc

Khi nhu cầu năng lượng tăng vọt, câu hỏi về nguồn cung bền vững trở nên cấp thiết hơn bao giờ hết. Asher Ling, Giám đốc công nghệ tại Princeton Digital Group, nhấn mạnh nhu cầu tiếp cận năng lượng tái tạo đáng tin cậy và giá cả phải chăng.

“Liệu có thể tiếp cận không giới hạn năng lượng tái tạo giá rẻ, với các quy định cho phép chúng ta thực hiện hành trình chuyển đổi ‘từ nâu sang xanh’ không? Đó là điều mà nhiều công ty công nghệ lớn nhất đang trăn trở,” Ling chia sẻ. Ông cũng lưu ý rằng các quốc gia như Ấn Độ và Úc đang có những khung pháp lý thuận lợi hơn cho việc này.

Seo từ CapitaLand đồng tình, xem trung tâm dữ liệu như một phần mở rộng của hệ thống phân phối điện năng. “Nó thực sự là một trạm biến áp. Vì vậy, năng lượng tái tạo và việc phân phối điện cho trung tâm dữ liệu là hai mặt của cùng một đồng tiền.”

Tương lai rộng mở nhưng đầy biến động

Nhìn về phía trước, ngành công nghiệp dự đoán sẽ có thêm nhiều đổi mới, ví dụ như “phân mảnh GPU” (GPU fragmentation) để xử lý song song các tác vụ AI nhỏ hơn, hay “làm mát bằng chất lỏng dưới dạng dịch vụ” để quản lý chi phí hạ tầng AI.

Tuy nhiên, sự không chắc chắn cũng là điều hiện hữu. Gupta cảnh báo về nguy cơ lỗi thời khi công nghệ GPU phát triển quá nhanh, khiến hạ tầng xây dựng hôm nay có thể sớm lạc hậu. Bên cạnh đó, các hợp đồng thuê tài nguyên GPU thường ngắn hạn (dưới 1 năm) so với các hợp đồng thuê chỗ đặt máy chủ dài hạn, tạo ra sự bấp bênh về lợi tức đầu tư (ROI). “Đây sẽ là một thị trường rất khó đoán trong một thời gian nữa,” Gupta nhận định.

Lời kết

Bất chấp những thách thức khổng lồ về năng lượng, làm mát, kết nối mạng và chi phí, các công ty dẫn đầu ngành công nghiệp đều đồng thuận rằng chúng ta đang đứng trước một sự thay đổi công nghệ mang tính cách mạng. Như Ling đã nói: “Chúng ta chỉ mới ở ngưỡng cửa của cuộc cách mạng AI này… Chúng ta chắc chắn đang ở đúng ngành vào đúng thời điểm trong lịch sử loài người.”

Cuộc đua xây dựng hạ tầng cho tương lai AI chỉ mới bắt đầu, và nó hứa hẹn sẽ định hình lại bộ mặt của ngành công nghệ trong nhiều năm tới.

____
Bài viết liên quan

Góp ý / Liên hệ tác giả