Một năm rưỡi trước cuộc bầu cử tổng thống năm 2024, Ủy ban Quốc gia Đảng Cộng hòa Mỹ đã bắt đầu chiếu các quảng cáo tấn công chính Hội đồng Tổng thống Joe Biden. Lần này, tuy nhiên, ban này làm điều gì đó khác biệt.

Nó đã sử dụng trí tuệ nhân tạo sinh sản để tạo ra một quảng cáo chính trị đầy hình ảnh miêu tả một thực tại thay thế với một góc nhìn chủ nghĩa — điều mà nó muốn chúng ta tin rằng đất nước sẽ trông như thế nào nếu Biden được tái cử. Quảng cáo này liên tục dùng hình ảnh của người nhập cư đổ xô qua biên giới Mỹ, một cuộc chiến tranh thế giới sắp tới và binh lính tuần tra trên những con phố hoang tàn của các thành phố Mỹ. Và ở góc trên bên trái của video, một thông báo nhỏ nhặt, mờ nhạt — dễ bỏ sót — ghi chú, "Xây dựng toàn bộ hình ảnh bằng trí tuệ nhân tạo."

Chưa rõ những gì đã thúc đẩy Ủy ban Quốc gia Đảng Cộng hòa Mỹ sử dụng video này. Ban này không đáp lại các yêu cầu cung cấp thông tin thêm. Tuy nhiên, có vẻ như nó đã làm việc dựa trên những ý tưởng như "tàn phá," "sự sụp đổ chính quyền" và "sự thất bại về kinh tế."

Quảng cáo chính trị không phải là nơi duy nhất mà chúng ta thấy sự xuất hiện thông tin sai lệch thông qua hình ảnh và văn bản được tạo ra bằng trí tuệ nhân tạo. Và chúng không luôn có nhãn cảnh báo. Ví dụ, các hình ảnh giả về Đức Giáo hoàng Phi-rơ mặc áo khoác gió phong cách đã lan truyền rầm rộ vào tháng Ba, sugguretion incorrectly rằng nhà lãnh đạo tôn giáo đang trưng bày một trang phục từ thương hiệu thời trang sang trọng Balenciaga. Một video TikTok về các con phố Paris bị đống rác xếp chồng lên nhau đã thu hút hơn 400.000 lượt xem chỉ trong tháng này, và tất cả những hình ảnh đó hoàn toàn giả mạo.

Công cụ trí tuệ nhân tạo tiếp thục như ChatGPT của OpenAI và Google Bard đã được đề cập nhiều nhất trong năm 2023, và không có dấu hiệu chấm dứt, trong hầu hết mọi lĩnh vực, từ lập trình máy tính, báo chí đến giáo dục. Công nghệ này đang được sử dụng cho các bài viết trên mạng xã hội, các chương trình truyền hình quan trọng và viết sách. Các công ty như Microsoft đang đầu tư hàng tỷ USD vào trí tuệ nhân tạo.

Công cụ Trí tuệ Nhân tạo phát sinh - được xây dựng bằng cách sử dụng lượng lớn dữ liệu, thường được lấy từ khắp mạng internet và đôi khi từ nguồn độc quyền - được lập trình để trả lời một câu hỏi hoặc đáp ứng theo một khởi nguồn bằng cách tạo ra văn bản, hình ảnh, âm thanh hoặc các hình thức truyền thông khác. Nhiệm vụ như chụp ảnh, viết mã và tạo âm nhạc có thể dễ dàng được thực hiện với công cụ Trí tuệ Nhân tạo; chỉ cần điều chỉnh yêu cầu của bạn cho đến khi bạn nhận được điều bạn muốn. Điều này đã tạo ra sự sáng tạo cho một số người, trong khi những người khác lại lo lắng về những mối đe dọa tiềm năng từ các hệ thống Trí tuệ Nhân tạo này. 

Vấn đề xuất hiện khi chúng ta không thể phân biệt Trí tuệ Nhân tạo và hiện thực. Hoặc khi nội dung do Trí tuệ Nhân tạo tạo ra được làm cố ý để lừa dối mọi người - vì vậy không chỉ là thông tin sai lầm (thông tin sai hoặc đánh đồng) mà còn là thông tin sai lầm (sự diễn tả giả nhằm đánh lừa hoặc gây thiệt hại). Những người nhằm lan truyền thông tin sai lầm có thể sử dụng Trí tuệ Nhân tạo để tạo nội dung giả mạo với chi phí thấp, và các chuyên gia cho biết kết quả đầu ra có thể làm công việc lừa dối công chúng tốt hơn nội dung do con người tạo ra. 

Sự tổn hại tiềm năng do thông tin sai lầm do Trí tuệ Nhân tạo tạo ra có thể rất nghiêm trọng: Nó có thể ảnh hưởng đến việc bỏ phiếu hoặc làm lung lay thị trường chứng khoán. Trí tuệ Nhân tạo cũng có thể làm suy giảm sự tin tưởng và cảm giác hiện thực chung của chúng ta, theo Wasim Khaled, chuyên gia Trí tuệ Nhân tạo. 

"Khi Trí tuệ Nhân tạo làm mờ ranh giới giữa sự thật và sự hư cấu, chúng tôi đang chứng kiến sự gia tăng của các chiến dịch thông tin sai lầm và deepfake có thể tác động đến ý kiến công chúng và phá vỡ quy trình dân chủ," Wasim Khaled, CEO và đồng sáng lập của Blackbird.AI, một công ty cung cấp công cụ trí tuệ nhân tạo và thông tin rủi ro cho doanh nghiệp, cho biết. "Sự biến dạng hiện thực này đe dọa làm suy yếu niềm tin của công chúng và gây ra những thách thức đáng kể về mặt xã hội và đạo đức."

Trí tuệ Nhân tạo đã được sử dụng cho các mục đích thông tin sai lầm ngay cả khi các gigants công nghệ tạo ra công nghệ này đang cố gắng giảm thiểu rủi ro. Trong khi các chuyên gia không chắc chúng ta có công cụ để ngăn chặn việc lạm dụng Trí tuệ Nhân tạo, họ có một số gợi ý về cách bạn có thể phát hiện nó và làm chậm quá trình lan truyền. 

Thông tin sai lầm của Trí tuệ Nhân tạo là gì và tại sao nó hiệu quả?

Công nghệ luôn là một công cụ cho thông tin sai lầm. Cho dù đó là một email đầy âm mưu điên rồ được chuyển tiếp từ một người thân, các bài đăng về COVID-19 trên Facebook hoặc cuộc gọi tự động lan truyền thông tin sai lầm về phiếu gửi bưu điện, những người muốn lừa dối công chúng sẽ sử dụng công nghệ để đạt được mục tiêu của họ. Điều này đã trở thành một vấn đề nghiêm trọng trong những năm gần đây - một phần nhờ mạng xã hội cung cấp một công cụ phân phối tăng cường cho những người bán thông tin sai lầm - đến mức bác sĩ Trưởng Bộ Y tế Hoa Kỳ, bác sĩ Vivek Murthy, gọi đó là "mối đe dọa khẩn cấp" vào năm 2021, nói rằng thông tin sai lầm về COVID đang đe dọa tính mạng con người.

Công nghệ AI tạo ra không hoàn hảo – những con chatbot AI có thể cung cấp những câu trả lời không chính xác về sự kiện và những hình ảnh tạo bởi AI có thể có gương mặt không giống người nhưng dễ sử dụng. Điều này làm cho các công cụ AI tạo nội dung trở nên dễ bị lạm dụng.

Thông tin sai được tạo ra bởi AI có nhiều hình thức khác nhau. Vào tháng 5, cơ quan tin tức RT.com do chính phủ Nga kiểm soát đã đăng một hình ảnh giả về một vụ nổ gần Pentagon ở Washington, DC. Các chuyên gia được trích dẫn bởi NBC cho biết hình ảnh này có thể đã được tạo bởi AI và đã trở nên phổ biến trên mạng xã hội, gây sụt giảm trên thị trường chứng khoán.

NewsGuard, một tổ chức đánh giá độ tin cậy của các trang tin tức, đã phát hiện hơn 300 trang web mà nó gọi là "các trang web tin tức và thông tin được tạo bởi AI không đáng tin cậy". Những trang web này có tên rất tổng quát nhưng âm hưởng chính xác, nhưng nội dung mà chúng sản xuất đã bao gồm một số tin đồn tử tế như thói miên về cái chết của người nổi tiếng và các sự kiện giả tưởng khác.

Những ví dụ này có thể dường như chỉ là những bức tranh giả mạo rõ ràng đối với người dùng trực tuyến thông thường hơn, nhưng loại nội dung được tạo ra bởi AI đang ngày càng cải thiện và khó phát hiện hơn. Nó cũng trở nên hấp dẫn hơn, điều này rất hữu ích cho những kẻ ác ý đang cố gắng đẩy mạnh một chính sách thông qua hoạt động tuyên truyền mang tính chất hoạt động phỉ báng.

"Thông tin sai được tạo ra bởi AI thực sự có sức hấp dẫn cảm xúc mạnh hơn", Munmun de Choudhury, giáo sư đồng hợp tác tại Trường Công nghệ Tương tác của Đại học Georgia, người đồng tác giả của một nghiên cứu về thông tin sai được tạo ra bởi AI đã được xuất bản vào tháng 4 nói.

"Chỉ cần sử dụng những công cụ AI tạo nội dung này để tạo ra thông tin rất thuyết phục, có vẻ như chính xác và sử dụng nó để thúc đẩy bất kỳ chủ trương tuyên truyền hoặc lợi ích chính trị nào mà họ đang muốn thúc đẩy", de Choudhury nói. "Thể loại lạm dụng như vậy là một trong những mối đe dọa lớn nhất mà tôi thấy trong tương lai."

Những kẻ ác ý sử dụng AI tạo nên chất lượng của thông tin sai của họ bằng cách tạo sự hấp dẫn cảm xúc, nhưng cũng có những trường hợp mà AI không cần được chỉ thị để tạo ra thông tin sai. Nó tự tạo ra thông tin sai, được gọi là một trạng thái mê sảng, Javin West, giáo sư đồng hợp tác tại Trường Thông tin Đại học Washington và là người sáng lập Trung tâm Công chúng đã cho biết trong buổi trình bày Mini MisinfoDay của mình vào tháng 5.

Khi được giao nhiệm vụ, AI nên tạo ra một phản hồi dựa trên dữ liệu thực tế. Tuy nhiên, trong một số trường hợp, AI sẽ tạo ra các nguồn thông tin giả mạo - nghĩa là, nó đang "mê sảng". Điều này có thể là việc đề cập đến những cuốn sách cụ thể không tồn tại hoặc những bài viết giả mạo từ các trang web nổi tiếng như The Guardian.

Bard của Google đã gây chấn động với các nhân viên công ty đã thử nghiệm AI trước khi nó được công bố cho công chúng vào tháng ba. Những người đã thử nghiệm nó cho biết công nghệ này được thúc đẩy quá nhanh và Bard là một 'kẻ nói dối bệnh hoạn'. Nó cũng đưa ra lời khuyên tồi, thậm chí nguy hiểm, về cách hạ cánh máy bay hoặc lặn biển.

Sự kết hợp của hai nội dung được tạo ra bởi AI coi là có thể xảy ra và thuyết phục là tồi tệ đủ rồi. Tuy nhiên, việc có một số người tin rằng nội dung giả này là sự thật đã giúp nó lan truyền mạnh.

Phải làm gì với thông tin sai lệch của AI?

Khi đến việc đối phó với thông tin sai lệch của AI, và nguy hiểm của AI nói chung, những nhà phát triển của các công cụ này cho biết họ đang làm việc để giảm thiểu bất kỳ nguy hại nào mà công nghệ này có thể gây ra, nhưng họ cũng đã thực hiện những động thái có vẻ trái với ý đồ của mình.

Microsoft, đã đầu tư hàng tỷ đô la vào OpenAI - nhà tạo ra ChatGPT, đã sa thải 10.000 nhân viên vào tháng ba, bao gồm nhóm trách nhiệm đảm bảo nguyên tắc đạo đức được xây dựng khi sử dụng AI trong các sản phẩm của Microsoft.

Khi được hỏi về việc sa thải nhân viên trong một tập phát thanh trên podcast Freakonomics Radio vào tháng Sáu, CEO Microsoft Satya Nadella cho biết an ninh của AI là một phần quan trọng của việc tạo ra sản phẩm.

"Nhóm an ninh của AI đang trở nên phổ biến," Nadella nói. "Thực tế là chúng ta đã tăng cường công việc này. ... Đối với tôi, an toàn của AI giống như nói về 'hiệu suất' hoặc 'chất lượng' trong bất kỳ dự án phần mềm nào."

Các công ty đã tạo ra công nghệ này cho biết họ đang làm việc để giảm rủi ro của AI. Google, Microsoft, OpenAI và Anthropic - một công ty nghiên cứu và đảm bảo an toàn AI đã thành lập Diễn đàn Mô hình Vùng biên vào ngày 26 tháng 7. Mục tiêu của nhóm này là nghiên cứu an toàn AI, xác định các nguyên tắc tốt nhất và hợp tác với các chính khách, học giả và các công ty khác.

Tuy nhiên, các quan chức chính phủ cũng đang nỗ lực giải quyết vấn đề an toàn về AI. Phó Tổng thống Mỹ Kamala Harris đã gặp gỡ các nhà lãnh đạo của Google, Microsoft và OpenAI vào tháng Năm để thảo luận về nguy hiểm tiềm tàng của AI. Hai tháng sau đó, những nhà lãnh đạo đó đã cam kết "tự nguyện" với chính quyền Biden để giảm thiểu các rủi ro của AI.

Liên minh châu Âu cho biết vào tháng 6 rằng họ muốn các công ty công nghệ bắt đầu gắn nhãn cho nội dung được tạo ra bằng trí tuệ nhân tạo trước khi ban hành luật pháp.

Những gì bạn có thể làm để tránh thông tin sai lầm được tạo ra bằng AI

Có các công cụ AI có sẵn để phát hiện nội dung thông tin sai lầm được tạo ra bằng AI, nhưng chúng vẫn chưa đạt đến mức đủ. De Choudhury cho biết trong nghiên cứu của mình rằng các công cụ phát hiện thông tin sai lầm này cần có học tập liên tục hơn để xử lý thông tin sai lầm được tạo ra bởi AI.

Vào tháng 7, công cụ của Open AI để phát hiện văn bản được viết bởi AI đã bị hãng này tạm dừng vì tỷ lệ chính xác thấp.

Khaled khẳng định rằng điều giúp xác định một mảng nội dung được tạo bởi AI là một chút hoài nghi và sự chú ý đến chi tiết.

"Văn bản được tạo bởi AI, mặc dù tiên tiến, thường có những đặc điểm kỳ quặc hoặc không nhất quán," ông nói. "Những dấu hiệu này không phải lúc nào cũng có mặt hoặc dễ nhận thấy, nhưng đôi khi chúng có thể tiết lộ ra rằng đó là nội dung được tạo bởi AI."

Bốn điều cần xem xét khi cố gắng xác định xem một cái gì đó có phải được tạo bởi AI hay không:

Tìm những đặc điểm độc đáo của AI: Cách diễn đạt kỳ lạ, đề cập đến những ngữ cảnh không liên quan hoặc những câu không phù hợp với cốt truyện chung là những dấu hiệu của văn bản được viết bởi AI. Đối với hình ảnh và video, những thay đổi về ánh sáng, sự di chuyển kỳ lạ của khuôn mặt hoặc sự trộn lẫn kỳ lạ của phông nền có thể là những chỉ số cho thấy nó được tạo ra bằng AI.

Xem xét nguồn gốc: Đây có phải là một nguồn đáng tin cậy như Associated Press, BBC hay New York Times, hay đây là từ một trang web mà bạn chưa từng nghe qua?

Tự tìm hiểu: Nếu một bài viết bạn thấy trên mạng có vẻ quá kỳ quặc để có thể đúng, hãy kiểm tra trước. Hãy tìm trên Google những gì bạn thấy trong bài viết và xem liệu nó có thật hay chỉ là nội dung AI lan truyền dựng lên.

Kiểm tra thực tế: Hãy dành thời gian nghỉ ngơi và trò chuyện với những người mà bạn tin tưởng về những điều bạn thấy. Việc giữ bản thân trong một không gian trực tuyến nơi khó phân biệt điều gì là thực và điều gì là giả đang trở nên nguy hại.

Những gì vẫn luôn làm việc tốt nhất khi đối phó với bất kỳ thông tin sai lầm nào, dù nó được tạo ra bởi con người hay AI, là không chia sẻ nó.

"Điều số 1 chúng ta có thể làm là suy nghĩ nhiều hơn, chia sẻ ít hơn," West nói.

Những gì các ông trùm trực tuyến đang làm để ngăn chặn thông tin sai lầm của AI

Để đối phó với thông tin sai lầm được tạo ra bởi AI trước cuộc bầu cử tổng thống Mỹ năm 2024, Google sẽ từ giữa tháng 11 yêu cầu rằng quảng cáo chính trị sử dụng AI phải có thông báo về điều đó.

"Tất cả các nhà quảng cáo có xác minh trong vùng đất yêu cầu xác minh phải rõ ràng cho biết khi quảng cáo của họ chứa nội dung tổng hợp mà giả mạo hình ảnh người hoặc sự kiện thật hoặc có vẻ thật," Google cho biết trong chính sách cập nhật của họ, áp dụng cho nội dung trên YouTube. "Thông báo này phải rõ ràng và dễ thấy, và phải được đưa vào một vị trí mà người dùng dễ nhìn thấy. Chính sách này sẽ áp dụng cho nội dung hình ảnh, video và âm thanh."

Meta đang áp dụng yêu cầu tương tự đối với quảng cáo chính trị trên Instagram và Facebook, bắt đầu từ tháng 1.

1.

"Theo chính sách mới của Meta, nhà quảng cáo sẽ phải tiết lộ mỗi khi một quảng cáo liên quan đến vấn đề xã hội, bầu cử hoặc chính trị chứa một hình ảnh hoặc video hình ảnh thực tế, hoặc âm thanh có âm thanh thực tế, đã được tạo hoặc chỉnh sửa bằng công nghệ số."

Chú thích của biên tập viên: CNET đang sử dụng một công cụ trí tuệ nhân tạo để hỗ trợ việc tạo ra một số câu chuyện. Để biết thêm thông tin, xem bài viết này.