OpenAI xác nhận rằng hiện họ không có kế hoạch sử dụng chip TPU của Google dù từng thử nghiệm, và chủ yếu vẫn dùng GPU của Nvidia và AMD. Họ cũng đang phát triển chip nội bộ, dự kiến hoàn tất giai đoạn tape‑out trong năm nay. Đồng thời, OpenAI đã bắt đầu thuê thêm dịch vụ đám mây từ Google Cloud nhưng phần lớn vẫn dựa vào hạ tầng CoreWeave về GPU serve
Tăng 60 % IOPS trên NVMe so với bản trước, hỗ trợ dedup + compression ReFS, Storage Spaces Direct Tính năng SDN multisite và policy mạng tập trung giúp mở rộng cấu hình hybrid / đám mây linh hoạt hơn