Các nhà báo, nhà biên kịch và giáo sư đại học đang trong nhóm những người lo ngại có thể mất nguồn sống của mình cho các chương trình trí tuệ nhân tạo như ChatGPT, có thể tạo ra bản sao nhanh hơn và có thể tốt hơn con người. Nhưng một doanh nhân đang theo đuổi công nghệ để làm cho việc phân biệt giữa văn bản được viết bởi con người và được viết bởi máy dễ dàng hơn.

Edward Tian, một sinh viên đại học Princeton 22 tuổi đang học ngành khoa học máy tính và báo chí, đã phát triển một ứng dụng gọi là GPTZero để ngăn chặn việc sử dụng chatbot virut ChatGPT trong lớp học. Ứng dụng này đã có tới 1,2 triệu người dùng đăng ký kể từ tháng 1.

Hiện tại, anh ấy đang triển khai một chương trình mới mang tên Origin nhằm mục đích "giải cứu báo chí", bằng cách phân biệt giữa thông tin sai lệch do trí tuệ nhân tạo tạo ra và sự thật trên truyền thông trực tuyến. Tian đã thu hút được 3,5 triệu USD từ đầu tư của Uncork Capital và Neo Capital, với các nhà đầu tư công nghệ bao gồm Emad Mostaque, giám đốc điều hành của Stability AI Ltd, và Jack Altman.

GPTZero phân tích tính ngẫu nhiên của văn bản, được gọi là nhịp độ khó đoán của thông điệp, và sự đồng đều này trong văn bản để xác định khi nào trí tuệ nhân tạo được sử dụng. Theo công ty, công cụ này có độ chính xác 99% đối với văn bản của con người và 85% đối với văn bản của AI.

Nhóm 10 người của công ty đang muốn giúp đỡ cho báo chí và đang trò chuyện với các tổ chức truyền thông lớn như BBC và các nhà quản lý trong ngành, bao gồm cựu giám đốc điều hành New York Times Mark Thompson, để thảo luận về các đối tác cho phát hiện và phân tích trí tuệ nhân tạo. Công ty cũng nhìn nhận rằng công nghệ của nó có thể được sử dụng trong lĩnh vực tin cậy và an toàn, chính phủ, bản quyền, tài chính, luật và nhiều hơn nữa.

"Tôi tin rằng chúng tôi có thể có được những người thông minh nhất làm việc về phát hiện trí tuệ nhân tạo trong cùng một phòng," Tian cho biết. "Lĩnh vực phát hiện còn rất mới và chúng tôi tin rằng nó xứng đáng được sự quan tâm và hỗ trợ."

Công ty Open AI, người đứng sau ChatGPT, đã phát triển một bộ phân loại văn bản trí tuệ nhân tạo để phát hiện nội dung được tạo ra bởi máy, nhưng nó chưa đảm bảo. Công cụ chỉ xác định đúng 26% của văn bản được tạo bởi AI là "có thể được tạo bởi AI", trong khi đánh dấu sai văn bản được viết bởi con người là "có thể được tạo bởi AI" 9% của thời gian. Bộ phân loại còn hoạt động "kém hơn nhiều" trong các ngôn ngữ khác ngoài tiếng Anh và là "không đáng tin cậy" đối với mã và văn bản ngắn. Đối với các đầu vào rất khác so với bộ huấn luyện của công cụ, bộ phân loại cũng có thể sai, theo OpenAI.

"Công cụ phân loại của chúng tôi có nhiều giới hạn quan trọng", công ty nhận thấy trên trang web của mình. "Nó không nên được sử dụng như một công cụ quyết định chính, mà thay vào đó là để bổ sung cho các phương pháp khác để xác định nguồn gốc của một đoạn văn."

Sự bất định của công cụ phát hiện đặt ra một bài toán cho các giáo viên.  Ngay cả khi giáo viên tìm thấy một bài báo đáng ngờ của một học sinh mà máy đánh dấu là có khả năng được tạo ra bởi AI lên đến 70% thì chỉ cần độ chính xác của các công cụ phát hiện đó không đạt 100%, thì rất khó để các giáo viên có thể lựa chọn hành động xác định.

"Chúng ta không biết phải làm gì với một lời cảnh báo nói rằng có thể có vấn đề," Jack Cushman, giám đốc của Harvard Library Innovative Lab, cho biết. "Tất cả những gì bạn có thể làm ở thời điểm đó là nói chuyện với học sinh và nói rằng theo công cụ này bạn có thể sử dụng tiếp thuật ngữ học thuật không đứng đắn".

Trong khi đó, định nghĩa về việc đạo văn cũng đang thay đổi với sự xuất hiện của trí tuệ nhân tạo. "Nó sẽ thách thức cho toàn bộ khái niệm về danh dự học thuật vì đôi khi việc sử dụng công cụ để đề xuất một hoặc hai câu hoặc giúp về chú thích sẽ là hợp lệ cũng giống như việc sử dụng máy tính để thực hiện các công việc toán học", theo ông ấy. "Phương án tốt nhất là bạn không nên để nó viết toàn bộ nội dung."

Nick Loui, đồng sáng lập và giám đốc điều hành của PeakMetrics, một công ty khởi nghiệp giúp đỡ chính phủ và các công ty lớn đối phó với tin tức giả mạo, cho biết các khách hàng của anh ấy không quá quan tâm đến mối đe dọa của văn bản được tạo ra bởi trí tuệ nhân tạo vì tiềm năng gây hại ít hơn so với sự lan đột của video deepfake, ví dụ như đã có nhiều trường hợp nội dung bị thao tác bị lợi dụng.

Sự hạn chế kỹ thuật cho đến nay của bất kỳ công nghệ phát hiện nào và thiếu đường lối rõ ràng để tạo lợi nhuận đã làm cho việc thu hút đầu tư trở nên khó khăn. Công cụ phát hiện hiện tại là các sản phẩm tạm thời, theo Sheila Gulati, giám đốc điều hành tại Tola Capital, một công ty mạo hiểm tập trung vào các công ty khởi nghiệp trí tuệ nhân tạo, do chặn các công nghệ mới và mới nổi không phải là một cách tốt để mọi người khai thác. "Tôi nghĩ rằng trạng thái cuối cùng của điều này sẽ chỉ đơn giản là cao cấp hơn nhiều."

Một số nhà quan sát ngành cảm thấy open source, điều này là tốt cho các sản phẩm mô hình ngôn ngữ lớn vì nó giảm chi phí, tăng tính minh bạch và khuyến khích sự đổi mới. Tuy nhiên, mã nguồn mở cũng dễ bị hack và có thể làm cho các công cụ phát hiện dễ bị khai thác hơn. "Nó giống như đưa cho một tên trộm biểu đồ để thiết lập mạng giám sát nhà của bạn", Alex Cui, giám đốc công nghệ cũng là một trong những người sáng lập của GPTZero, cho biết.