Các ông lớn như Microsoft, Meta, Google, Amazon và Oracle dự kiến sẽ chi hơn 350–400 tỷ USD vào hạ tầng AI trong năm 2025, thúc đẩy nhu cầu dữ liệu, nguồn điện và server tăng mạnh
Google vừa ký hợp tác với các nhà cung cấp điện như Indiana Michigan Power và TVA để thực hiện chiến lược “demand‑response” – giảm mức tiêu thụ năng lượng trong khung thời gian lưới quá tải, bảo đảm hoạt động AI data centers ổn định và bền vững
Foxconn và TECO hợp tác để xây dựng trung tâm dữ liệu AI tại Malaysia, nhằm mở rộng mạng lưới server AI toàn khu vực Đông Nam Á, đáp ứng nhu cầu tăng kéo dài từ các tập đoàn công nghệ
Các công ty lớn như Meta, Microsoft, Amazon, Alphabet, và Oracle dự kiến sẽ chi khoảng 381 tỷ USD trong năm 2025 để xây dựng trung tâm dữ liệu AI, tăng hơn 50% so với năm trước. Các nhà cung cấp về hệ thống cung cấp năng lượng và làm mát như Vertiv và Applied Digital ghi nhận tăng trưởng mạnh nhờ nhu cầu cao từ thị trường AI
Samsung ra mắt SSD dung lượng lớn nhất: BM1743 61.44 TB PCIe Gen5 BM1743 là SSD dung lượng lớn nhất từ Samsung đến thời điểm hiện tại, hỗ trợ giao thức PCIe 5.0 x4 NVMe, sử dụng QLC V‑NAND.
Ban đầu niêm yết ở mức 7.500 USD, nay giảm còn 5.593 USD, tương đương dưới 0,09 USD/GB, cực kỳ cạnh tranh trong phân khúc doanh nghiệp của PCIe Gen5
AMD đang hợp tác chặt chẽ với các startup AI như Cohere và OpenAI để tối ưu hóa thiết kế chip MI450 và nền tảng ROCm nhằm giảm thời gian chuyển đổi sang AMD cho các nhà phát triển AI. Đây là nỗ lực tăng sức cạnh tranh với Nvidia trong phần mềm lẫn hardware.
Dù chịu lệnh cấm xuất khẩu H100/H200 từ Mỹ, tại Trung Quốc, nhu cầu sửa chữa GPU AI Nvidia vẫn tăng vọt do nhiều chip bị sử dụng quá mức, dẫn đến hỏng hóc. Điều này cho thấy dù bị hạn chế xuất khẩu, chip Nvidia vẫn lan rộng qua các kênh xám và ngành sửa chữa phát triển tương ứng.
Asus vừa ra mắt workstation ExpertCenter Pro ET900N G3 được trang bị chip GB300 Grace Blackwell Ultra từ Nvidia. Máy hỗ trợ tới 784 GB bộ nhớ hợp nhất (LPDDR5X + HBM3E) và hiệu năng AI đạt 20 PFLOPS. Đây là nỗ lực mở rộng hệ sinh thái AI server vượt khỏi DGX của Nvidia, hỗ trợ PCIe slots, SuperNIC, phù hợp cho workloads huấn luyện và inference lớn
Chính phủ Vương Quốc Anh và OpenAI vừa ký kết một thỏa thuận hợp tác chiến lược, tập trung vào nghiên cứu an ninh AI và đầu tư mạnh vào cơ sở hạ tầng dữ liệu (data centers). Cơ quan này sẽ đẩy mạnh tăng gấp đôi công suất compute công khai lên 20 lần trong 5 năm tới, với ngân sách đầu tư khoảng £1 tỷ (~$1,26 tỷ). Ưu tiên hướng đến lĩnh vực y tế, giáo dục và quốc phòng.
• Ngày 16/7/2025, Supermicro chính thức phát hành dòng server X14 4-socket cao cấp, tích hợp đến 344 lõi CPU và hỗ trợ tới 6 GPU kép – hướng tới các workload AI/Mission critical, cơ sở dữ liệu lớn và HPC.
• Những máy chủ này tương thích với chuẩn CXL 2.0, bộ nhớ tối đa 16 TB, phù hợp cho ứng dụng như SAP HANA và Oracle, tối ưu hóa bộ nhớ, giảm độ trễ liên kết…