1. Dòng GPU Instinct MI350 (MI350X & MI355X)
• Kiến trúc CDNA4 trên tiến trình 3 nm, gồm MI350X (air cooled) và MI355X (liquid cooled).
• Bộ nhớ HBM3E 288 GB, băng thông 8 TB/s cho mỗi module OAM.
• Hiệu năng AI: tăng hơn 4× so với MI300X, inferencing tăng 35×, MI355X tạo ra thêm ~40% token/đô so với GPU Nvidia B200.
• MI350X đạt ~72 TFLOPS FP64, MI355X khoảng 79 TFLOPS, với tiêu thụ công suất 1,000–1,400 W.
________________________________________
2. Giải pháp rack-scale tích hợp
• Tích hợp sẵn: MI350 + CPU EPYC Gen5 (“Venice”) + NIC Pensando Pollara (400 GbE Ultra Ethernet).
• Hệ thống khai thác open standards (OCP, Ethernet UEC), hỗ trợ cả làm mát khí và chất lỏng: air-cooled lên đến 64 GPU, liquid-cooled hỗ trợ 96–128 GPU/rack.
• EPYC “Venice”: lên đến 256 lõi Zen6, băng thông RAM 1.6 TB/s, tối ưu cho cấp dữ liệu tới GPU.
• Pensando Pollara NIC hỗ trợ 400 GbE RDMA, packet-spray và kiểm soát congestion – cải thiện độ trễ và throughput inter-GPU.
________________________________________
3. Bộ rack "Helios" thế hệ kế tiếp
• Dự kiến ra mắt năm 2026, tích hợp MI400 (HBM4 432 GB, memory b/w 19.6 TB/s, 40 PF_FP4) + EPYC Venice + Pensando Vulcano NIC + Ultra Accelerator Link (UALink).
• Hỗ trợ tới 72 GPU/rack, băng thông nội bộ lên đến 260 TB/s – tối ưu cho training & inference skale lớn.
________________________________________
4. Tiến bộ về hiệu năng, năng lượng & thị trường
• MI350 giúp tăng hiệu suất/training node gấp 38×, hướng đến mục tiêu rack efficiency tăng 20× vào năm 2030 với tiêu thụ điện giảm 95%.
• Rack MI350 đã được triển khai thực tế trên OCI của Oracle và triển khai qua các partner như Dell/HPE/Supermicro.
• Pegatron cũng phát triển rack-scale 128× MI350X, đạt 1 177 PFLOPS (FP4), là bước đà trước khi MI400 xuất hiện
• AMD vừa ra mắt hệ thống rack AI hoàn chỉnh (MI350 + EPYC + Pollara NIC) sắp ra mắt Q3/2025.
• Ưu thế dựa trên hiệu năng/thông lượng AI, năng lực energy, khả năng làm mát, và openness để hỗ trợ doanh nghiệp mở rộng hệ thống dễ dàng.
• Dự kiến ra mắt Helios năm 2026 với MI400 + UALink, nâng cấp lên 10× inference generation và 260 TB/s bandwidth nội bộ.
• Triển khai với HPE, Dell, Supermicro, Oracle & Pegatron – khẳng định tiềm năng thực tế của AMD trong cuộc đua AI server.