ChatGPT và các công cụ AI tương tự đang chứng tỏ rằng chúng rất hữu ích trong nhiều ngữ cảnh khác nhau - và Europol lo ngại rằng chúng cũng có thể hữu ích đến mức tương tự đối với tội phạm. ChatGPT, ứng dụng phát triển nhanh nhất mọi thời đại, đã mang lại cho người dùng khả năng của một trí thông minh nhân tạo ngôn ngữ lớn thông minh (AI) - được đào tạo trên một cơ sở dữ liệu lớn từ Internet - ngay tại đầu ngón tay của họ.
Sức mạnh mới này đã dẫn đến sự thay đổi trong cách nhiều người thực hiện công việc của họ hoặc tìm kiếm thông tin trên Internet, với công nghệ của OpenAI truyền cảm hứng cho cả sự hào hứng về tương lai mà AI có thể đem lại, cũng như nỗi sợ hoài nghi về những thay đổi mà nó đang đưa đến.
Một trong những nỗi sợ về công nghệ AI như ChatGPT là những gì tội phạm và những kẻ xấu khác sẽ làm gì với sức mạnh đó.
Đó là điều mà Europol, cơ quan chức năng truyền thông của Liên minh châu Âu, đã nghiên cứu trong báo cáo mới nhất của mình về ChatGPT mang tiêu đề ‘The impact of Large Language Models on Law Enforcement’.
ChatGPT, được xây dựng trên công nghệ mô hình ngôn ngữ lớn GPT3.5 của OpenAI, có thể làm cho việc "mọi người có chủ ý” hiểu và tiếp tục thực hiện nhiều loại tội phạm khác nhau dễ dàng hơn, báo cáo nói.
Điều này bởi vì, trong khi thông tin mà ChatGPT được đào tạo trên đã có sẵn trên Internet, công nghệ này có thể cung cấp các chỉ dẫn từng bước trên tất cả các chủ đề, nếu được người dùng đưa ra câu hỏi bối cảnh phù hợp.
Dưới đây là những loại tội phạm Europol cảnh báo rằng chatbot hoặc LLM có thể hỗ trợ tội phạm:
- Gian lận, mạo danh và kỹ thuật xã hội
ChatGPT và các chatbot khác như Bard của Google đã khiến người dùng ngạc nhiên với khả năng cung cấp văn bản giống như con người trên bất kỳ chủ đề nào, dựa trên các yêu cầu của người dùng. Chúng có thể giả mạo phong cách viết của người nổi tiếng và học phong cách viết từ văn bản được nhập vào trước khi tạo ra những bài viết trong phong cách đã học. Điều này mở ra khả năng sử dụng công nghệ này của các tội phạm muốn giả mạo phong cách viết của một cá nhân hoặc tổ chức, điều đó có thể được sử dụng trong các cuộc lừa đảo phishing.
Europol cũng cảnh báo rằng ChatGPT có thể được sử dụng để làm cho nhiều loại lừa đảo trực tuyến hợp pháp hơn, chẳng hạn như tạo ra các nội dung trên mạng xã hội giả mạo để quảng bá các ưu đãi đầu tư giả mạo.
Một trong những dấu hiệu chắc chắn về các lừa đảo tiềm ẩn trong email hoặc truyền thông xã hội là thông qua các lỗi văn phạm hay chính tả rõ ràng của tội phạm viết nội dung. Với sức mạnh của LLMs ngay trên đầu ngón tay, ngay cả những tội phạm không có kiến thức về tiếng Anh cũng có thể tạo ra nội dung không còn có những dấu hiệu đỏ này.
Công nghệ này cũng rất phù hợp để được sử dụng bởi những người muốn tạo và phổ biến tin tức giả và thông tin sai lệch, vì nó tài ba trong việc xây dựng các lập luận và câu chuyện với tốc độ nhanh chóng.
Tội phạm mạng cho người mới bắt đầu
ChatGPT không chỉ tốt trong việc viết từ, mà nó cũng thành thạo trong nhiều ngôn ngữ lập trình. Theo Europol, điều này có nghĩa là nó có thể có tác động đến tội phạm mạng.
“Với phiên bản hiện tại của ChatGPT, đã có thể tạo ra các công cụ cơ bản cho nhiều mục đích độc hại khác nhau,” báo cáo cảnh báo.
Điều này sẽ là các công cụ cơ bản để sản xuất các trang phishing chẳng hạn, nhưng nó cho phép các tội phạm không có hoặc có rất ít kiến thức về mã hóa tạo ra những điều họ không thể tạo ra trước đó.
Những cải tiến không thể tránh khỏi tại LLMs có nghĩa là việc khai thác từ các tội phạm sẽ mang lại một triển vọng đáng lo ngại trong những năm tới.
Việc phiên bản mới nhất của OpenAI của trình biến đổi của nó, GPT-4, hiểu được ngữ cảnh của mã lệnh và sửa chữa lỗi tốt hơn có nghĩa là “đây là một kho tài nguyên vô giá” đối với những kẻ tội phạm không có kiến thức kỹ thuật.
Europol cảnh báo rằng với công nghệ AI sẽ được cải tiến, nó có thể trở nên tinh vi hơn “và gây nguy hiểm”.
Deepfakes đã có hậu quả thực tế
Các trường hợp sử dụng ChatGPT mà Europol cảnh báo chỉ là một trong nhiều lỗi thời của AI có thể bị khai thác bởi các tội phạm.
Đã có các trường hợp sử dụng AI deepfake để lừa đảo và gây tổn thương cho mọi người. Trong một trường hợp, một người phụ nữ nói rằng cô mới 18 tuổi khi phát hiện ra các bức ảnh khiêu dâm của mình đang được lưu hành trên mạng - mặc dù cô không bao giờ chụp hoặc chia sẻ những hình ảnh đó.
Khuôn mặt của cô được thêm vào số hình ảnh với thân hình của người khác bằng cách sử dụng kỹ thuật số. Cô nói với Euronews Next rằng đó là “một án tử hình cả đời”. Một báo cáo Deeptrace Labs năm 2019 cho thấy 96% nội dung deepfake trực tuyến là phim khiêu dâm không chấp nhận.
Một trường hợp khác là AI được sử dụng để bắt chước giọng nói của một người để lừa đảo cho gia đình họ, sử dụng kỹ thuật âm thanh deepfake.
Europol kết luận báo cáo của mình bằng việc tuyên bố rằng việc cho các lực lượng chức năng ở “vị trí đầu tiên của các phát triển này,” và dự báo và ngăn chặn việc sử dụng AI bởi tội phạm là rất quan trọng.