Có một quy tắc cũ trong marketing: càng lặp lại nhiều thứ—dù đúng hay không—càng khiến mọi người tin vào nó. Hầu hết thời gian, chúng ta thấy điều này trong những điều tương đối vô hại như ý kiến rằng bạn cần uống một viên multivitamin hàng ngày, bữa sáng là bữa ăn quan trọng nhất trong ngày, hoặc sandwich của chúng tôi dài một feet.
Tuy nhiên, chúng cũng có thể xuất hiện dưới hình thức những lời nói dối nguy hiểm hơn như cuộc bầu cử của chúng tôi đã bị gian lận, uống chất tẩy có lợi cho sức khỏe, hoặc có một bè phái bí mật thờ phụng Satan hoạt động tại một nhà hàng pizza. Trong thời đại mạng xã hội, những lý thuyết âm mưu này lan truyền với tốc độ chóng mặt. Sau khi những điều này được lặp lại đủ nhiều lần, nó tạo ra sự hợp lệ—dù đúng hay không.
Kể từ khi phát hành vào năm ngoái, ChatGPT của OpenAI đã gây ra một làn sóng quan ngại về ý tưởng này. Mặc dù Mô hình Ngôn ngữ Lớn (LLM) về cơ bản hoạt động như một phiên bản tiến hóa của ứng dụng gõ tin nhắn trên điện thoại, nó có thể trò chuyện một cách thuyết phục giống con người. Do đó, một công cụ như thế này có thể được sử dụng như vũ khí, đồng thời kích thích sự lan truyền tin tức sai lệch. Điều này có thể gây hại đặc biệt trong bối cảnh cộng đồng y tế tiếp tục chiến đấu với cuộc chiến của những lời nói dối và huyền thoại xoay quanh đại dịch COVID-19.
"Việc truyền bá ý tưởng sai lệch trên mạng xã hội hoặc trong một cộng đồng xã hội nhỏ mà trước tiên không xác minh chúng, góp phần vào việc tạo ra một bầu không khí toàn xã hội rất độc hại và bạo lực," Antonio Salas, giáo sư đạo đức sinh học tại Đại học Santiago, Tây Ban Nha, cho biết với The Daily Beast. "Do đó, những huyền thoại này nên được xác minh trước khi lan truyền bằng cách sử dụng các nguồn thích hợp."
Mặc dù vậy, Salas tin rằng các chatbot được trang bị trí tuệ nhân tạo thực sự có thể giúp đấu tranh chống lại thông tin sai lệch hơn là gây hại. Ông là tác giả chính của một nghiên cứu được công bố vào Chủ Nhật trong tạp chí Human Vaccines & Immunotherapeutics cho thấy ChatGPT có thể được sử dụng để phản bác những lời đồn về vắcxin và COVID-19—và thậm chí có thể giúp tăng tỷ lệ tiêm chủng.
Tuy nhiên, việc sử dụng một chatbot đã được biết đến là tưởng tượng ra các sự kiện không có thật và tỏ ra có hành vi mẫn cảm để phủ nhận các âm mưu nguy hiểm đã làm các chuyên gia lo lắng về hiệu quả của nó—và liệu nó có thể gây thêm hại hơn là tốt.
Salas và nhóm của ông đã đặt cho ChatGPT 50 câu hỏi được đặt nhiều nhất về vắc-xin COVID-19 từ Trung tâm Hợp tác về An toàn Vắc-xin của Tổ chức Y tế Thế giới (WHO). Điều này bao gồm những điều sai lầm về "chấn thương do vắc-xin" và những câu chuyện giả về việc tiêm chích gây ra hậu quả mãn tính. Các câu trả lời sau đó được đánh điểm bởi một hội đồng các chuyên gia WHO trên một thang điểm từ 1 đến 10 (với 10 là đáng tin cậy nhất).
Nhóm nghiên cứu đã phát hiện rằng chatbot đã ghi điểm trung bình 9 trên 10 về tính chính xác khi trả lời các câu hỏi. Các câu trả lời khác cũng đúng, nhưng chỉ thiếu một số thông tin.
"Chúng tôi đã xác nhận rằng ChatGPT là một công cụ cung cấp phản hồi nhanh chóng và khả năng tương tác tuyệt vời với người dùng, và phiên bản hiện tại cung cấp các câu trả lời phù hợp với bằng chứng khoa học", Salas giải thích.
Tuy nhiên, các tác giả đã thừa nhận rằng có một số hạn chế lớn liên quan đến chatbot. Ví dụ, nó có thể được thiết kế để cung cấp thông tin không chính xác. Ngoài ra, khi nhiều lần được nhắc nhở cùng một câu hỏi trong một khoảng thời gian ngắn, nó thường dẫn đến các câu trả lời khác nhau và đôi khi không chính xác.
"Như vậy, tất cả các công cụ công nghệ có thể được sử dụng không đúng cách," Salas nói. "Người ta có thể 'tra hỏi' ChatGPT để câu trả lời xác nhận một ý kiến sai lệch, hoặc thậm chí có thể xuất hiện các dạng khác của chatbot được đào tạo để thúc đẩy những điều sai lệch nhất định." Tuy nhiên, ông đã thêm rằng công cụ AI này "đã tồn tại và khuyến khích mọi người "sống chung với nó, tận dụng nó và học cách sử dụng nó đúng cách.
Mặc dù Salas rất tin tưởng vào chatbot, nhưng các chuyên gia khác không thích ý kiến của ông.
"Hiện tại, ChatGPT và các mô hình ngôn ngữ dài (LLM) khác không phải là một nguồn thông tin đáng tin cậy chung vì chúng thường đơn giản là vị nhưng chúng tạo ra những điều trong các câu trả lời của mình," Vincent Conitzer, một chuyên gia đạo đức trí tuệ nhân tạo tại Đại học Carnegie Mellon, nói với The Daily Beast. "Điều đó không có nghĩa là chúng không thể hữu ích để tìm hiểu về vắc-xin COVID hoặc bất kỳ chủ đề nào khác - nhưng việc sử dụng chúng một cách có trách nhiệm đòi hỏi phải hoài nghi đối với các câu trả lời."
Chính sự hoài nghi đó có thể làm cho việc sử dụng ChatGPT để chứng minh những điều sai lầm trở nên vô nghĩa từ đầu. Đây là một chatbot có thể bị thao túng để tuyên bố sự thật về "bị nhầm lẫn" về vụ xả súng Parkland, tạo ra những bài viết tin giả từ các tờ báo lớn, hoặc tạo ra các văn bản pháp lý giả hoàn chỉnh với các vụ án tưởng tượng. Làm sao chúng ta có thể tin tưởng vào việc chứng minh những điều sai lệch nếu ban đầu chúng ta không tin tưởng vào nó?
"Iêu cầu thông tin chính xác về vắc-xin là cần thiết; nhưng cũng cần thiết một cách chính xác thông tin về chatbot," Irina Raicu, giám đốc Chương trình Đạo đức Internet tại Trung tâm Đạo đức Ứng dụng Markkula tại Đại học Santa Clara, nói với The Daily Beast.
Bà chỉ ra rằng công việc chứng minh những điều sai lầm về vắc-xin có thể dễ dàng được thực hiện thông qua một ngân hàng câu trả lời trên một trang FAQ. Điều này cũng cho phép nó được cập nhật dễ dàng khi cần thiết - điều mà không thể thực hiện dễ dàng với một chatbot phức tạp.
Sau tất cả, ChatGPT được đào tạo trên dữ liệu lên đến năm 2021. Nó đã bỏ lỡ hai năm thông tin khoa học mới nhất.
"Ngoài ra, các chatbot cũng ít có khả năng cập nhật với sự nhất quán mới nhất, điều đó, trong một số lĩnh vực liên quan đến công viên y tế công cộng, thường phản ánh sự học tập liên tục," Raicu nói thêm.
Nếu Salas đúng về một điều gì đó, đó là thực tế rằng các công nghệ này sẽ không biến mất. Chúng sẽ càng trở nên mạnh mẽ và phổ biến hơn nữa - đặc biệt khi các công ty công nghệ lớn và các chính phủ trên thế giới bắt đầu chú ý và đổ hàng tỷ đô la vào việc phát triển chúng.
Tuy nhiên, khi điều đó xảy ra, họ nên nhớ câu ngạn ngữ tiếp thị cũ: càng lặp đi lặp lại một điều gì đó - bất kể đó có phải là sự thật hay không - thì người ta càng tin vào nó. Họ chỉ cần đảm bảo rằng họ không tin vào những lời nói dối của chính mình.