• Ngày 16/7/2025, Supermicro chính thức phát hành dòng server X14 4-socket cao cấp, tích hợp đến 344 lõi CPU và hỗ trợ tới 6 GPU kép – hướng tới các workload AI/Mission critical, cơ sở dữ liệu lớn và HPC.
• Những máy chủ này tương thích với chuẩn CXL 2.0, bộ nhớ tối đa 16 TB, phù hợp cho ứng dụng như SAP HANA và Oracle, tối ưu hóa bộ nhớ, giảm độ trễ liên kết…
Trong đợt báo cáo lợi nhuận Q2, Alphabet đang phải đối mặt với thách thức từ chatbot AI như ChatGPT và Claude, có thể ảnh hưởng tới doanh thu từ search quảng cáo. Dù vậy, mảng cloud và YouTube vẫn được dự báo tăng trưởng – phản ánh chiến lược đầu tư đa dạng hóa AI của hãng.
Các công ty AI và data center đang tăng cường đầu tư vào hệ thống cooling hiệu quả năng lượng, chip tiết kiệm điện, và tối ưu hóa hạ tầng để giảm thiểu tác động môi trường của AI. Mục tiêu là giảm áp lực năng lượng trong bối cảnh nhu cầu AI ngày càng tăng.
AWS chính thức triển khai P6e-GB200 UltraServers tích hợp chip NVIDIA Blackwell, hướng đến xử lý các mô hình AI quy mô lớn và training frontier models. Đây là bước tiến mạnh mẽ trong cuộc đua AI server giữa các hyperscaler.
Tại New Carlisle, Indiana, Amazon đã biến 1.200 mẫu đất nông nghiệp thành cụm 7 trung tâm dữ liệu chuyên xử lý AI như Anthropic, tiêu thụ dự kiến 2,2 GW điện, tương đương năng lực của não người — đánh dấu bước mở rộng hạ tầng AI đầy tham vọng và cũng đầy thách thức về điện năng.
·IBM vừa trình làng dòng Power11, hệ thống server và chip thiết kế đặc biệt cho AI inference doanh nghiệp, với tỷ lệ uptime lên đến 99.9999% (chỉ còn khoảng 32 giây downtime mỗi năm).
·Hệ thống tích hợp sẵn các tính năng như Power Cyber Vault để phát hiện ransomware trong dưới 1 phút và mã hóa “quantum-safe” theo chuẩn NIST.
·So với Power10, Power11 cải thiện hiệu năng lõi +55%, giảm đến gấp đôi tiêu thụ điện so với server x86 tương đương.
·Sản phẩm sẽ có mặt từ 25/7/2025, phiên bản “Spyre Accelerator” sẽ được ra mắt vào Q4/2025
Dự kiến ra mắt năm 2026, tích hợp MI400 (HBM4 432 GB, memory b/w 19.6 TB/s, 40 PF_FP4) + EPYC Venice + Pensando Vulcano NIC + Ultra Accelerator Link Hỗ trợ tới 72 GPU/rack, băng thông nội bộ lên đến 260 TB/s – tối ưu cho training & inference skale lớn