Trong khi tiềm năng của trí tuệ nhân tạo phát sinh (AI) có vẻ không giới hạn, năng lực tính toán mà nó đòi hỏi có thể gặp các hạn chế. Một ước tính đặt giá cho một truy vấn ChatGPT là 1.000 lần so với câu hỏi tương tự được đặt cho một tìm kiếm Google bình thường. Trong giai đoạn phát triển ban đầu, khi các công ty như OpenAI cố gắng tạo ra sự quan tâm của công chúng, đó có thể là một chi phí chấp nhận được, thậm chí với 100 triệu người dùng hoạt động được thêm vào trong một tháng duy nhất.
Tuy nhiên, loại chi phí đó có thể dễ dàng trở thành không thể duy trì đối với một sản phẩm sử dụng chung hơn. Ngay cả Nhà Trắng cũng đã phát biểu về câu hỏi này, lưu ý tiềm năng tác động môi trường của lượng tiêu thụ năng lượng và không gian trung tâm dữ liệu tăng lên do các ứng dụng AI phát sinh kéo dài.
Giải quyết Chi phí Cơ bản
Trước khi xử lý chi phí của việc vận hành mô hình ngôn ngữ lớn (LLM), hầu hết các công ty quan tâm đến phát triển các giải pháp AI phát sinh riêng của họ sẽ phải đối mặt với chi phí huấn luyện chúng. Huấn luyện trí tuệ nhân tạo phát sinh đòi hỏi sở hữu hoặc thuê thời gian sử dụng phần cứng, nhu cầu lưu trữ dữ liệu đáng kể và tiêu thụ năng lượng tổng hợp. Chi phí chỉ để huấn luyện GPT-3 của OpenAI - phiên bản trước khi áp dụng vào ChatGPT - đã vượt quá 5 triệu đô la.
Tuy nhiên, đã có một số tiến bộ trong việc giảm ngưỡng nhập cảnh vào AI phát sinh. Một giải pháp được phát triển tại Viện Công nghệ Massachusetts (MIT) khẳng định giảm chi phí huấn luyện LLM đi 50%. Ngoài ra, phương pháp huấn luyện hiệu quả hơn cũng đào tạo LLM chỉ trong một nửa thời gian.
Làm việc Một cách Thông minh, Chứ không Phô trương
Các nhà nghiên cứu tại Trung tâm Khoa học Máy tính và Trí tuệ Nhân tạo (CSAIL) của MIT cũng đã đề xuất tiềm năng của LLM nhỏ hơn, chuyên biệt như một cách để giảm chi phí và cải thiện hiệu suất. Giới hạn tập dữ liệu mà mô hình đang làm việc không chỉ cho phép nó vượt trội hơn so với các mô hình với 500 lần số tham số nhưng cũng hứa hẹn giải quyết một số vấn đề liên quan đến quyền riêng tư và độ chính xác.
Các nhà nghiên cứu đã sử dụng một mô hình trong LLM của họ cho phép nó đơn giản hóa cách tính toán các phản hồi tiềm năng. Việc này được thực hiện bằng cách so sánh một giả thuyết, hoặc nhận định tiềm năng được tạo ra, với một giả thiết - một sự thật đã biết. Ngoài việc dựa vào một tập dữ liệu nhỏ hơn và chuyên biệt hơn, mô hình cũng yêu cầu ít quá trình huấn luyện hơn để đạt được kết quả chính xác, các nhà nghiên cứu đã tìm thấy.
Xem thêm tại: AI, AI-ID, Trí tuệ nhân tạo, ChatGTP, CSAIL, Generative AI, Generative AI Tracker, Đổi mới, Mô hình ngôn ngữ lớn, LLMs, Viện Công nghệ Massachusetts, Tin tức, OpenAI, Công nghệ