Phân tích Kỹ thuật
Thách thức kỹ thuật để vượt qua các kiến trúc hiện có là đa chiều. Ở mặt trận phần mềm, sự thống trị của CUDA không chỉ đơn thuần là một API mà là một hệ sinh thái tích hợp sâu bao gồm thư viện (cuDNN, TensorRT), công cụ phát triển và một kho mã được tối ưu hóa khổng lồ. Ngăn xếp phần mềm của một đối thủ thành công phải đạt được hai mục tiêu có vẻ mâu thuẫn: phải cực kỳ đơn giản để nhà phát triển chấp nhận, đồng thời phải đủ hiệu suất để biện minh cho việc chuyển đổi. Điều này có thể liên quan đến chiến lược ưu tiên trình biên dịch, trong đó một biểu diễn trung gian (IR) cấp cao, độc lập với framework có thể được biên dịch hiệu quả xuống các phần cứng nền tảng đa dạng, trừu tượng hóa sự phức tạp của phần cứng. Mã nguồn mở hóa ngăn xếp lõi không chỉ là một cử chỉ thiện chí; đó là một sự cần thiết mang tính chiến lược để xây dựng niềm tin cộng đồng và tăng tốc độ phát triển hệ sinh thái.
Về mặt kiến trúc, trọng tâm đang chuyển từ hiệu suất huấn luyện thuần túy sang hiệu quả cả huấn luyện *và* suy luận cho các khối công việc mới nổi. GPU ngày nay xuất sắc trong các phép nhân ma trận dày đặc, có thể dự đoán được của quá trình huấn luyện transformer. Tuy nhiên, đồ thị tính toán cho các tác nhân tự trị thực hiện lập kế hoạch dài hạn, hoặc các mô hình thế giới mô phỏng môi trường vật lý, lại thưa thớt và năng động hơn nhiều. Điều này đòi hỏi phần cứng có băng thông và dung lượng bộ nhớ đặc biệt để xử lý các cửa sổ ngữ cảnh lớn, và có lẽ là những thay đổi cơ bản hơn như tích hợp các kiến trúc phi Von Neumann (ví dụ: tính toán trong bộ nhớ) cho các chức năng cụ thể. Thiết kế dựa trên chiplet với các kết nối liên chip siêu nhanh (như UCIe) sẽ rất quan trọng để mở rộng quy mô vượt ra ngoài giới hạn reticle trong khi cho phép tùy chỉnh mô-đun—trộn lõi mục đích chung với các bộ tăng tốc chuyên biệt cho cơ chế chú ý (attention), định tuyến hoặc quản lý trạng thái.
Tác động Ngành công nghiệp
Hệ quả của sự chuyển dịch này là sâu sắc đối với toàn bộ chuỗi cung ứng AI. Nếu một đối thủ thành công với ngăn xếp phần mềm mở, nó có thể dân chủ hóa việc tiếp cận phần cứng, giảm tính dễ bị tổn thương của ngành trước các điểm nghẽn từ nhà cung cấp đơn lẻ. Các nhà cung cấp dịch vụ đám mây siêu cấp (thường tự thiết kế chip) sẽ có được đòn bẩy và sự linh hoạt, có khả năng áp dụng chiến lược đa nhà cung cấp 'tốt nhất' cho các phân khúc khối công việc AI khác nhau. Điều này sẽ phân mảnh thị trường nhưng cũng thúc đẩy sự đổi mới chưa từng có.
Xu hướng hướng tới các kiến trúc mới được tối ưu hóa cho khối công việc suy luận và tác nhân có thể tách rời thị trường phần cứng AI khỏi các điểm chuẩn HPC và đồ họa cổ điển, tạo ra các chỉ số hiệu suất và tiêu chí mua hàng hoàn toàn mới. Các công ty xây dựng ứng dụng AI quy mô lớn có thể ưu tiên tổng chi phí sở hữu (TCO) để phục vụ một tỷ tương tác người dùng mỗi ngày hơn là tốc độ huấn luyện thô. Điều này điều chỉnh lại lợi thế cạnh tranh cho các công ty có sự tích hợp dọc sâu, từ chip đến ứng dụng người dùng cuối, hoặc những công ty cung cấp mô hình tiêu thụ minh bạch và linh hoạt nhất.
Triển vọng Tương lai
3-5 năm tới sẽ chứng kiến sự xuất hiện của một số ứng viên cố gắng thực hiện một hoặc nhiều hơn trong số