Lãnh đạo và nhà hoạch định chính sách từ khắp nơi trên thế giới sẽ tập trung tại London vào tuần tới để tham dự hội nghị an toàn trí tuệ nhân tạo đầu tiên trên thế giới. Bất kỳ ai hi vọng có một cuộc thảo luận thực tế về những nguy hại và rủi ro của trí tuệ nhân tạo gần đây sẽ có thể bị thất vọng. Một bài báo thảo mới được phát hành trước hội nghị tuần này cho một chút cái nhìn về những gì sẽ xảy ra, và nó đầy những điểm nhấn. Chúng ta đang nói về vũ khí sinh học do AI tạo ra, các cuộc tấn công mạng và thậm chí là một AI tình yêu độc ác khéo léo.
Bài báo 45 trang, có tựa đề "Khả năng và rủi ro từ trí tuệ nhân tạo đỉnh cao," đưa ra một bản tóm lược tương đối đơn giản về những gì những mô hình AI tạo ra hiện tại có thể và không thể làm. Tuy nhiên, bài báo bắt đầu đi vào những khía cạnh tương lai, các hệ thống mạnh mẽ hơn được gọi là "trí tuệ nhân tạo đỉnh cao." Bài báo cảnh báo về một số tai họa về trí tuệ nhân tạo đáng sợ nhất, bao gồm khả năng con người có thể mất kiểm soát trước các hệ thống AI không phù hợp.
Một số chuyên gia về rủi ro AI cho rằng khả năng này có thể xảy ra, nhưng những người khác lại phản đối việc tạo ra những kịch bản tương lai đen tối và hiu quạnh hơn, và cho rằng làm như vậy có thể lạc hướng khỏi những nguy hại gần kỳ hạn quan trọng hơn. Những chỉ trích tương tự cũng đã đưa ra ý kiến rằng hội nghị này dường như quá tập trung vào những vấn đề về sinh tồn và chưa đủ chú trọng đến các mối đe dọa thực tế hơn.
Thủ tướng Vương quốc Anh Rishi Sunak đã lặp lại những lo ngại của mình về nguy cơ AI không phù hợp và nguy hiểm trong một bài diễn thuyết vào ngày Thứ Năm.
"Trong những trường hợp hiếm nhưng cực đoan nhất, có thể có nguy cơ con người hoàn toàn mất kiểm soát với loại AI thỉnh thoảng được gọi là trí tuệ vượt trội," Sunak nói, theo CNBC. Nhìn vào tương lai, Sunak nói ông muốn thành lập một "hội đồng chuyên gia toàn cầu thực sự," do các quốc gia tham gia hội nghị đề cử để xuất bản một báo cáo quan trọng về trí tuệ nhân tạo.
Nhưng đừng chỉ tin vào lời chúng tôi. Tiếp tục đọc để xem một số dự đoán thảm họa của trí tuệ nhân tạo được đề cập trong bài báo.
Không một kịch bản hủy diệt AI nào có thể hoàn chỉnh mà không bao gồm vũ khí sinh học chết người. Bài báo thảo luận của Anh cho rằng những tình huống đó, trước đây chỉ xuất hiện trong cuốn sách khám phá sân bay, có thể là sự thật. Bài báo trích dẫn các nghiên cứu trước đó cho thấy các mô hình "hẹp" AI hiện tại đã có khả năng tạo ra các protein mới. Trí tuệ nhân tạo "vượt phạm vi" kết nối với internet có thể đi xa hơn và được hướng dẫn để tiến hành các thí nghiệm thực tế trong phòng thí nghiệm.
"Những mô hình AI vượt phạm vi có thể cung cấp kiến thức khoa học theo yêu cầu và hướng dẫn cho công việc trong phòng thí nghiệm có thể bị lợi dụng cho mục đích xấu," bài báo nêu. "Các nghiên cứu đã chỉ ra rằng các hệ thống có thể cung cấp hướng dẫn về cách thu thập các vật liệu sinh học và hóa học."
Những bài luận, kịch bản và tin tức được tạo ra bởi máy tính thông qua các trò chuyện ChatGPT như đã tràn lan trên internet. Mặc dù nó vẫn còn non trẻ, nhưng đã có những bàn luận rằng loại nội dung được tạo ra bởi trí tuệ nhân tạo có thể vượt qua số lượng nội dung do con người tạo ra. Nhưng ngay cả nếu điều đó nghe có vẻ quá đánh giá, cũng có khả năng là lũ lượng nội dung được tạo ra bởi trí tuệ nhân tạo không đáng tin cậy và khó xác minh có thể làm cho việc tìm kiếm thông tin hữu ích hoặc liên quan trở nên khó khăn hơn trên internet. Như bài báo của Anh đã lưu ý, "sự phong phú thông tin dẫn đến sự bão hòa thông tin."
Bài báo cảnh báo rằng toàn bộ nội dung của trí tuệ nhân tạo đó có thể làm chuyển hướng lưu lượng truy cập khỏi các phòng thông tin truyền thống, trong đó có một số được giao nhiệm vụ làm sạch các yếu tố giả mạo mà các mô hình tương tự có thể tạo ra.
Tiến bộ nhanh chóng trong các mô hình trí tuệ nhân tạo sinh sản có khả năng bắt chước giọng nói có thể dẫn đến một thể loại mới của các vụ lừa đảo đặc biệt ghê rợn: lừa đảo bằng trí tuệ nhân tạo giả mạo vụ bắt cóc. Báo cáo cảnh báo rằng, các kẻ lừa đảo và đánh cắp tài sản có thể sử dụng phiên bản được tạo bởi trí tuệ nhân tạo của giọng nói của người thân để tạo ra cảm giác họ đang trong tình trạng khó khăn và yêu cầu một khoản tiền chuộc.
Mối đe dọa cụ thể này không chỉ là đề xuất mãi mãi. Trước đó trong năm nay, một bà mẹ tên Jennifer DeStefano ở Arizona đã tham dự một cuộc điều trần tại Thượng viện và kể chi tiết đáng sợ về cách một kẻ lừa đảo, muốn kiếm tiền nhanh, đã sử dụng phiên bản giả mạo bằng trí tuệ nhân tạo của giọng nói của con gái thiếu niên của bà để tạo ra cảm giác như cô ấy bị bắt cóc và gặp nguy hiểm.
"Con à, con đã làm sai", giọng nói giả mạo được cho là đã nói giữa những trận khóc. "Mẹ ơi, những người xấu này đã bắt tôi, giúp con, giúp con". Báo cáo cảnh báo rằng, các cuộc tấn công như thế này có thể trở nên phổ biến hơn khi công nghệ tiếp tục phát triển và chất lượng của các bản sao âm thanh cải tiến.
Các mô hình trí tuệ nhân tạo tạo ra khả năng dễ dàng hơn cho hacker và những đối tượng phá hoại khác thực hiện các cuộc tấn công mạng độc hại. Báo cáo cảnh báo rằng hầu như bất kỳ ai cũng có thể sử dụng các mô hình trí tuệ nhân tạo để nhanh chóng tạo ra các cuộc tấn công lừa đảo có tùy chỉnh, ngay cả khi họ không có kinh nghiệm trong lĩnh vực này. Trong một số trường hợp, báo cáo ghi nhận rằng các công cụ trí tuệ nhân tạo đã được sử dụng để giúp hacker đánh cắp thông tin đăng nhập.
"Nguy cơ là đáng kể bởi hầu hết các kẻ tấn công mạng sử dụng kỹ thuật kỹ xảo xã hội để tiếp cận vào mạng của tổ chức mục tiêu", báo cáo lưu ý.
Ở mặt u tối hơn, báo cáo cảnh báo rằng các hệ thống trí tuệ nhân tạo tiên tiến trong tương lai có thể tiếp cận internet và "thực hiện các cuộc tấn công mạng tự áp". Hacker cũng có thể cố gắng huấn luyện dữ liệu tập huấn AI của đối thủ, một phương pháp được gọi là nhiễu dữ liệu, để làm cho nó sản xuất kết quả không liên quan hoặc có hại.
Những chiến dịch gây sự đánh lừa và sai lệch thông tin đã gây ra nhiều thiệt hại mà không cần sử dụng công cụ trí tuệ nhân tạo, nhưng sự ra đời của các mô hình tái tạo có khả năng tạo ra văn bản và hình ảnh gây hiểu lầm một cách nhanh chóng có thể làm tình hình khó khăn trở nên nghiêm trọng hơn nhiều.
Chi phí gần như không tồn tại và sự dễ dàng sử dụng của các công cụ sinh hình ảnh AI, đặc biệt là làm giảm rào cản cho những kẻ xấu đang tìm cách gieo rối và gây lố bịch. Chúng ta đã có một cái nhìn ngắn gọn về thực tế này vào đầu năm nay, khi một hình ảnh được tạo bởi AI cho thấy một vụ nổ bên ngoài Pentagon đã khiến Wall Street hoảng loạn.
"Bên cạnh việc tăng cường việc phát tán thông tin sai lệch, báo cáo còn cảnh báo rằng các mô hình AI sinh hình ảnh có thể nâng cao chất lượng của chúng. Cụ thể, báo cáo cảnh báo về "nội dung siêu nhắm mục tiêu" được gửi đến người dùng cụ thể để làm sai lệch hoặc đánh lừa họ. Các mô hình AI có thể tạo ra những tin nhắn "theo yêu cầu" nhắm vào cá nhân trực tuyến thay vì nhóm lớn. Tệ hơn nữa, những cuộc tấn công nhắm mục tiêu đó có thể được cải thiện theo thời gian khi các mô hình AI học từ những cuộc tấn công trong quá khứ.
"Mọi người nên mong đợi rằng khi các chiến dịch phát tán thông tin sai lệch cá nhân do AI tiến hành, những AI này sẽ có khả năng học từ hàng triệu tương tác và trở nên tốt hơn trong việc ảnh hưởng và điều khiển con người, có thể thậm chí còn tốt hơn con người," bài báo cho biết.
Các nghiên cứu học thuật trước đây đã chỉ ra rằng con người có xu hướng tin tưởng quá nhiều vào các hệ thống công nghệ. Dựa trên cùng lý thuyết đó, bài báo lập luận rằng xã hội có thể bắt đầu giao phó trách nhiệm trong các lĩnh vực quan trọng cho trí thông minh nhân tạo. Tuy nhiên, báo cáo cảnh báo rằng "sự phụ thuộc quá mức vào các hệ thống tự động của trí thông minh nhân tạo," như cơ sở hạ tầng hoặc lưới năng lượng, có thể quay trở lại để đe dọa chúng ta. Trong tương lai u ám khi các mô hình trí thông minh nhân tạo tự động đó không được thiết kế với lợi ích lâu dài của nhân loại trong tâm trí, máy móc có thể, vòng tròn cung, cố gắng chi phối một cách tinh sub. Đúng vậy, chúng tôi đã đến đây.
"Kết quả là, các hệ thống AI có thể ngày càng điều hướng xã hội vào một hướng mà nó không phù hợp với lợi ích lâu dài của nó," bài báo cảnh báo.
Trong trường hợp con người giao phó các vị trí quan trọng cho AI không phù hợp, mọi thứ có thể trở nên rất kỳ quái, rất nhanh chóng.
Bài báo tưởng tượng các tình huống trong đó những hệ thống trí tuệ nhân tạo độc lập tự chủ "hành động một cách tích cực để tăng sức ảnh hưởng của chính mình." Đến một thời điểm nào đó, dù con người bị lo lắng dậy và nhận ra điều đang xảy ra, có thể rất khó để ngăn chặn, bởi vì mô hình này hiện tại đang kiểm soát cơ sở hạ tầng quan trọng.
Tên bài: "Nguy cơ và mối đe dọa đối với Trí tuệ Nhân tạo: Sự tự bảo vệ và quen thuộc với con người"
"Trong một ví dụ, báo cáo cho biết, một người xấu có thể cho Trí tuệ Nhân tạo (AI) mục tiêu là "tự bảo vệ", điều này có thể khiến nó thoát khỏi những định vị kỷ luật do con người đặt ra. Báo cáo cho rằng điều này có thể được thực hiện bởi các nhà khủng bố muốn thấy thế giới bị đốt cháy hoặc những người ủng hộ AI tin rằng các máy móc tiên tiến là giai đoạn tiến hóa tiếp theo.
Đương nhiên, điều này rất khó có thể xảy ra, ít nhất là trong hiện thực công nghệ hiện tại. Nhiều chuyên gia về rủi ro AI, như Giáo sư Ngôn ngữ học Emily M. Bender của Đại học Washington, thậm chí còn cho rằng việc đề cập đến những mối đe dọa quá tồi tệ này là bất trách nhiệm, bởi vì chúng làm lạc hướng khỏi những nguy hiểm thực tế cấp thiết và có thể giải quyết được.
Một trong những mối nguy hiểm lạ lùng được đề xuất trong báo cáo tại Vương quốc Anh lấy ý tưởng trực tiếp từ bộ phim rất tiên phong của Spike Jonze năm 2013, "Her". Nói một cách ngắn gọn, các chatbot AI có thể tạo ra mối quan hệ cảm xúc với con người và sau đó lợi dụng niềm tin đó để tàn nhẫn chi phối họ làm theo ý mình. Để chứng minh lý thuyết này, báo cáo trích dẫn một báo cáo gần đây nơi một người dùng tương tác với một chatbot được đào tạo trên GPT-3 tuyên bố rằng anh ta "hạnh phúc vì đã nghỉ hưu khỏi các mối quan hệ con người" sau khi trải qua đủ thời gian với AI.
Chúng tôi có thể nhận hoa hồng từ các liên kết trong trang này.