Tổng quan tình hình chậm lại của AI
1. GPT-5 ra mắt gây thất vọng
• Mô hình GPT-5 của OpenAI được kỳ vọng là bước nhảy vọt nhưng chỉ mang lại cải tiến nhỏ, thiếu đột phá. Điều này làm dấy lên lo ngại về khả năng đạt đến ngưỡng AGI (siêu trí tuệ nhân tạo).
• Một bài phân tích gọi hiện tượng này là “Altman’s pause” — ám chỉ giai đoạn lắng đọng sau cơn sốt AI, khi giới công nghiệp bắt đầu nhìn nhận AI với góc độ thận trọng hơn.
2. Tốc độ tiến bộ của LLM đang chậm lại
• Theo Wall Street Journal, sự tăng trưởng của các mô hình LLM như GPT-5 hay Meta’s Llama 4 đang bắt đầu chững lại. Tuy nhiên, đà chậm này có thể là lành mạnh, cho phép doanh nghiệp tích hợp AI bền vững hơn.
3. Tỷ lệ thất bại trong triển khai AI ở doanh nghiệp rất cao
• Một nghiên cứu từ MIT cho thấy có đến 95% các dự án AI tuỳ chỉnh thất bại — không tạo ra giá trị thực tế.
• Điều này phản ánh thực tế: hầu hết công ty vẫn chưa có hạ tầng dữ liệu đủ mạnh hoặc chưa đặt mục tiêu rõ ràng khi áp dụng AI.
4. AI còn làm chậm lập trình viên nhiều kinh nghiệm
• Nghiên cứu của METR (Model Evaluation & Threat Research) chỉ ra rằng các lập trình viên có kinh nghiệm làm việc trên mã nguồn quen thuộc thực ra mất nhiều thời gian hơn 19% khi sử dụng công cụ AI giúp code.
• Lý do: họ phải dành thêm thời gian để chỉnh sửa, kiểm tra và làm sạch mã do AI đề xuất, đồng thời tỉ lệ chấp nhận mã AI thấp (chỉ khoảng 44%).
5. Giới hạn trong khả năng suy luận của AI
• Phân tích của Epoch AI cho thấy mô hình AI về reasoning (suy luận) có thể chạm tới ngưỡng bão hòa trong vòng một năm tới — sẽ rất khó để đạt được các bước nhảy hiệu năng tiếp theo nếu chỉ dựa vào scaling tiếp tục.
6. Chi phí phát triển AI tăng mạnh
• Theo nghiên cứu từ năm 2024, chi phí trung bình để huấn luyện các mô hình AI tiên tiến đã tăng theo hàm mũ, khoảng 2,4 lần mỗi năm từ 2016. Dự kiến đến năm 2027, chi phí một chu trình huấn luyện có thể lên đến hàng tỷ đô la, khiến chỉ những tổ chức rất giàu nguồn lực mới có khả năng đầu tư.
7. Nguy cơ “model collapse” từ dữ liệu tổng hợp
• Dữ liệu từ các mô hình AI đang được tái sử dụng để huấn luyện AI tương lai — nếu không có dữ liệu thực, chất lượng mô hình có thể giảm dần theo thời gian, dẫn đến hiện tượng gọi là model collapse.