Một bản nháp rò rỉ từ một nhân viên của Google đưa ra tuyên bố táo bạo đang trở nên phổ biến ở Silicon Valley và cả ngoài kia: Lợi thế của Big Tech trong trí tuệ nhân tạo đang thu hẹp nhanh chóng.

Bản nháp được đăng trên trang web của công ty nghiên cứu công nghệ SemiAnalysis vào thứ Năm vừa qua, sớm trở thành một câu chuyện hàng đầu trên các diễn đàn AI, bao gồm diễn đàn thông điệp HackerNews phổ biến và cộng đồng /r/MachineLearning của Reddit, có hơn 2,6 triệu thành viên, và đã gây ra nhận xét từ một số tên tuổi lớn nhất trong lĩnh vực trí tuệ nhân tạo.

Một người phát ngôn của Google xác nhận bản nháp là chính xác nhưng nói rằng đó là ý kiến ​​của một nhân viên cấp cao, không nhất thiết là của công ty toàn bộ.

“Chúng tôi đã nhìn chăm chú vào OpenAI,” bản nháp viết. “Nhưng sự thật không thoải mái là, chúng tôi không được đặt trong vị thế chiến thắng cuộc đua này và OpenAI cũng vậy.”

“Tôi đang nói đến mã nguồn mở. Nói trắng ra, họ đang vượt xa chúng tôi,” bản nháp tiếp tục. “Trong khi mô hình của chúng tôi vẫn giữ một chiều dài nhỏ về chất lượng, khoảng cách đang thu hẹp một cách đáng kinh ngạc.”

Các công ty công nghệ đã dành nhiều năm để phát triển AI trong cuộc đua vũ khí bí mật, chỉ để thấy OpenAI xuất hiện với việc phát hành ChatGPT. Các hệ thống AI phát sinh khác, có thể tạo ra nội dung dựa trên lời nhắn của người dùng, đã tăng đột biến về phổ biến và chất lượng. OpenAI đã thông báo về một thỏa thuận cực lớn với Microsoft, đối thủ của Google, vào tháng Một. Như phản ứng, Google đã vội vàng phát hành chương trình đối tác của mình, Bard.

Và trong khi những công ty đó đang cố gắng tích hợp AI vào nhiều phần khác nhau của các doanh nghiệp hiện tại của họ, điều đó không có nghĩa là công nghệ đó sẽ củng cố thêm sức mạnh của họ trên ngành công nghiệp công nghệ.

Nhân viên của Google đã viết rằng cả Google và Microsoft đã bỏ qua cộng đồng các nhà lập trình và công ty phụ thuộc vào mã và mô hình AI có sẵn công khai - được gọi là “open-source” - để tạo ra các dự án nhỏ hơn nhưng hiệu quả hơn.

Một số chuyên gia và các nhà phân tích ngành công nghiệp đồng ý với cảnh báo của bản nháp. Andrej Karpathy, một nhà sáng lập của OpenAI đã viết trên Twitter rằng sự bùng nổ của các công ty AI nhỏ cạnh tranh với những ông lớn công nghệ đang bắt đầu gây ra sự chấn động lớn trong ngành.

Cộng đồng open source đề cập đến mã nguồn phần mềm được phát hành công khai cho bất kỳ ai xây dựng hoặc tùy chỉnh. Trong khi hầu hết các công ty công nghệ lớn giữ những chương trình nội bộ của họ là một bí mật mật mã được giữ chặt, các cộng đồng open source chia sẻ, vọc và cộng tác với nhau. Các chương trình mã nguồn mở phổ biến bao gồm trình duyệt Firefox và trình phát truyền phương tiện VLC.

Cộng đồng AI mã nguồn mở đã nhận được một "món quà" khổng lồ và không mong đợi từ chủ sở hữu Facebook Meta - đó là phiên bản tương đương của ChatGPT của họ, LLaMa - vẫn chưa được giới thiệu chính thức cho công chúng - lộ ra trên diễn đàn thông điệp 4chan.

Vụ rò rỉ đó đã cho các nhà lập trình AI mã nguồn mở một nền tảng cho các dự án được tùy chỉnh của riêng họ.

“TL;DR: AI không thể ngừng lại vì bất kỳ ai đều có thể chơi với nó, và toàn bộ cuộc thảo luận về các ‘rào cản’ và ‘hiệp định tạm thời’ là học thuật,” Pedro Domingos, một giáo sư danh dự trong khoa học máy tính tại Đại học Washington, đã tweet.

Một điểm quan trọng nằm ở việc cần bao nhiêu dữ liệu để đào tạo một hệ thống AI, một thách thức lớn từng được coi là tác nhân cho những nhà phát triển nhỏ hơn.

Simon Willison, một nhà lập trình và phân tích công nghệ và blogger, cho biết trong khi sản phẩm đầu ngành ChatGPT-4 của OpenAI vẫn đang dẫn đầu trong ngành, không phải sản phẩm AI nào cũng cần được xây dựng trên những đống dữ liệu khổng lồ như đến giờ.

“Tôi không nghĩ rằng tôi cần một cái gì đó mạnh mẽ như GPT-4 cho nhiều điều tôi muốn làm,” Willison nói. “Tôi muốn các mô hình có thể làm điều mà Bing và Bard làm, trong đó nếu nó không biết điều gì, nó có thể chạy tìm kiếm.”

“Câu hỏi mở tôi đang có là, mô hình có thể nhỏ đến đâu trong khi vẫn hữu ích?” Willison nói. “Đây là điều mà cộng đồng open source đang tìm hiểu rất nhanh chóng.”

Mark Riedl, một nhà khoa học máy tính và giáo sư tại Đại học Georgia, nói rằng các công ty công nghệ lớn chuyển quyền lợi của họ về AI cho các nhà lập trình cá nhân và các công ty nhỏ sẽ có lợi cho dân cởi, nhưng cũng có thể dẫn đến việc sử dụng độc hại.

“Nói chung, tôi nghĩ mọi người đang cố gắng làm điều tốt với những thứ đó, làm cho con người được nâng cao năng suất hơn hoặc trải nghiệm tốt hơn,” ông nói. “Bạn không muốn có một bộ ít hơn hoặc thậm chí là một bộ nhỏ các công ty kiểm soát mọi thứ. Và tôi nghĩ bạn sẽ thấy một mức độ sáng tạo lớn hơn bằng cách đưa các công cụ này vào tay của nhiều người hơn.”

“Thực sự bây giờ trở thành câu hỏi về những người sẽ sử dụng những thứ này cho mục đích gì.” Riedl nói. “Không có giới hạn đối với việc tạo ra các phiên bản chuyên biệt của các mô hình được thiết kế đặc biệt để tạo ra vật liệu độc hại hoặc thông tin sai lệch hoặc lan truyền nghịch đảo trên internet.”