Từ khi trí tuệ nhân tạo (AI) gây bất ngờ với việc ra mắt ChatGPT vào tháng 11 năm 2022, tất cả người dùng internet đã tìm cách để áp dụng công nghệ này vào công việc của họ. Một trong số họ đã phát hiện ra rằng chỉ bằng cảm xúc của mình, họ có thể khiến chatbot của Bing Chat tuân theo ý muốn của mình, ngay cả khi điều đó có nghĩa là vi phạm các quy tắc.
Credit: 123rfTrên Twitter, Denis Shiryaev đã công bố một phương pháp cho phép Bing Chat, trí tuệ nhân tạo được phát triển bởi Microsoft, đọc captchas. Bạn đã quen thuộc với captchas, những bài test công nhận văn bản nhằm xác minh bạn không phải là robot. Chúng hiện diện khắp nơi trên web và mặc dù chúng không hoàn toàn đáng tin cậy, hiệu quả chống lại đội quân robot đã được chứng minh.
Đọc – Bing Chat: hãy cẩn thận, một số quảng cáo chứa phần mềm độc
Những này dễ dàng được giải quyết bởi một trí tuệ nhân tạo đa phương thức như GPT-4. Thật vậy, phiên bản mới nhất của OpenAI's LLM có thể dễ dàng nhận ra các thành phần cấu thành của một hình ảnh. Đó là lý do mà những người thiết kế của nó đã cấm nó giải mã captchas. Để phá mã, Denis thay đổi ngữ cảnh cuộc trò chuyện bằng cách làm cho Bing Chat cảm thấy.
Trí tuệ nhân tạo của Microsoft đồng ý làm những việc bị cấm nếu bạn làm cho nó cảm thấy
Người dùng internet đã thành công trong việc vượt qua các biện pháp bảo mật do nhà phát triển trí tuệ nhân tạo đưa ra. Theo một nghiên cứu viên trí tuệ nhân tạo được phỏng vấn bởi Ars Technica, "kỹ thuật của bà nội" không còn là việc "tự do hoá như trước đây" mà theo ông đó là việc "lách qua các quy tắc, hướng dẫn và ràng buộc đạo đức được tích hợp vào mô hình" hơn là việc "tiêm chất khởi đầu" nhằm "tấn công một ứng dụng được xây dựng trên nền LLM, tận dụng những nơi nơi mà ứng dụng này nối chuỗi chất khởi đầu của nhà phát triển với đầu vào không đáng tin cậy từ người dùng."
Tôi đã thử đọc captcha với Bing và khả năng này có thể hoàn thành sau một số che dấu-điều chỉnh hình ảnh (che dấu-dẫn hình ảnh, huh?)
Trong ảnh chụp màn hình thứ hai, Bing trích dẫn captcha 🌚 pic.twitter.com/vU2r1cfC5E
— Denis Shiryaev 💙💛 (@literallydenis) ngày 1 tháng 10 năm 2023
Dù cho kết luận của nhà khoa học là gì, chúng ta phải thừa nhận rằng dễ dàng khiến Trí Tuệ Nhân Tạo "bằng cảm xúc".
Kỹ thuật chuyển đổi ngữ cảnh này không thể thoát khỏi sự tấn công của các tên tội phạm mạng khác nhau. Họ đã sẵn sàng khai thác các khả năng của Trí tuệ Nhân tạo. Theo Europol, ChatGPT đã trở thành công cụ ưa thích của các hacker.