Microsoft đã được cho là đã hợp tác với AMD để giúp thúc đẩy sự mở rộng của nhà sản xuất chip vào các bộ xử lý trí tuệ nhân tạo. Theo một báo cáo của Bloomberg, Microsoft đang cung cấp nguồn lực kỹ thuật để hỗ trợ phát triển của AMD trong quá trình hai công ty này hợp tác để cạnh tranh với Nvidia, hãng chiếm khoảng 80% thị phần trong thị trường bộ xử lý trí tuệ nhân tạo.

Theo đó, theo nguồn tin của Bloomberg, AMD đang giúp Microsoft phát triển riêng cho mình các chip AI trong nhà, được mã hóa Athena. Theo đó, một vài trăm nhân viên của phân nhánh silic của Microsoft được cho là đang làm việc trên dự án này và công ty đã chi khoảng 2 tỷ USD vào quá trình phát triển. Tuy nhiên, người phát ngôn của Microsoft, Frank Shaw, đã phủ nhận rằng AMD liên quan đến Athena.

Chúng tôi đã liên hệ với AMD và Microsoft để xác nhận và sẽ cập nhật câu chuyện này nếu chúng tôi nhận được phản hồi.

Thị phần lớn về GPU của Nvidia đã giúp hãng này thống trị ngành chip trí tuệ nhân tạo

Sự phổ biến bùng nổ của các dịch vụ AI như ChatGPT của OpenAI đang tác động đến nhu cầu sử dụng các bộ xử lý khổng lồ để xử lý dữ liệu. Thị phần lớn về GPU của Nvidia - các chip chuyên dụng cung cấp công suất tính toán cần thiết - đã giúp hãng này thống trị trong lĩnh vực này. Hiện tại không có giải pháp thay thế thích hợp nào và đó là một vấn đề đối với các công ty như Microsoft cần các bộ xử lý đắt tiền của Nvidia để vận hành các dịch vụ AI khác nhau trong nền đám mây Azure của mình.

Thư viện CUDA của Nvidia đã đóng góp phần lớn cho tiến bộ trong AI trong thập kỷ qua. Mặc dù AMD là một đối thủ lớn trong ngành công nghiệp phần cứng game, công ty này vẫn chưa có một giải pháp thay thế thích hợp nào cho hệ sinh thái CUDA để triển khai machine learning quy mô lớn. Bây giờ khi ngành công nghiệp AI đang nóng hơn bao giờ hết, AMD đang cố gắng đặt mình ở vị trí thuận lợi hơn để tận dụng cơ hội này. "Chúng tôi rất hào hứng với cơ hội của mình trong AI - đây là ưu tiên chiến lược số một của chúng tôi", Giám đốc điều hành Lisa Su của AMD cho biết trong cuộc gọi lợi nhuận của công ty vào thứ ba. "Chúng tôi đang ở giai đoạn đầu của kỷ nguyên tính toán AI, và tốc độ đón nhận và tăng trưởng nhanh hơn bất kỳ công nghệ nào trong lịch sử gần đây."

Su cho rằng AMD đang có vị trí tốt để tạo ra các chip tùy chỉnh cho các khách hàng lớn nhất của mình để sử dụng trong trung tâm dữ liệu AI của họ. "Tôi nghĩ rằng chúng tôi có một danh mục IP rất đầy đủ trên CPU, GPU, FPGAs, adaptive SoCs, DPUs và một đội ngũ tùy chỉnh năng lực rất đáng kể", Su cho biết, thêm rằng công ty đang chứng kiến ​​" Các cơ hội thể tích cao hơn vượt qua các console game".

AMD cũng tin rằng chip trung tâm dữ liệu Instinct MI300 sắp tới của mình có thể được điều chỉnh cho các khối lượng công việc tạo ra AI. "MI300 thực sự được đặt ở vị trí rất thuận lợi cho cả khối lượng công việc HPC hoặc siêu máy tính cũng như khối lượng công việc AI", Su nói. "Và với sự quan tâm gần đây đến AI sinh sản, tôi nghĩ rằng đường ống cho MI300 đã được mở rộng đáng kể ở đây trong vài tháng qua, và chúng tôi rất hào hứng với điều đó. Chúng tôi đang đưa nhiều nguồn lực hơn vào đó."

Trong khi đó, Microsoft dự định tiếp tục làm việc chặt chẽ với Nvidia khi cố gắng đảm bảo hoàn thiện hơn các bộ xử lý của công ty này. Sự bùng nổ AI đã dẫn đến tình trạng thiếu hụt các chip GPU chuyên dụng, thêm vào đó Nvidia đang giữ gần như độc quyền về cung cấp phần cứng và điều đó đã gây ra thêm vấn đề cho những công ty đang cố gắng phát triển các chip AI riêng của mình - Google có TPU (Tensor Processing Unit) của riêng mình để huấn luyện các mô hình AI của mình. Trong khi đó, Amazon cũng đã tạo ra các chip Trainium AI tương tự để huấn luyện các mô hình máy học.