ChatGPT đã đánh thức những hy vọng mới về tiềm năng của trí tuệ nhân tạo - nhưng cũng tỏ ra nhiều nỗi sợ hãi mới. Hôm nay, Nhà Trắng cũng thêm giọng nói lo ngại, thông báo rằng họ sẽ ủng hộ cuộc tập trận hack quy mô lớn tại hội nghị an ninh Defcon vào mùa hè này để nghiên cứu các hệ thống trí tuệ nhân tạo sinh ra từ các công ty như Google.

Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng cũng cho biết rằng 140 triệu đô la sẽ được chuyển hướng để khởi động bảy Viện Nghiên cứu Trí tuệ nhân tạo Quốc gia mới tập trung vào phát triển trí tuệ nhân tạo đạo đức, biến đổi để phục vụ cho lợi ích công cộng, nâng tổng số lên 25 viện trên toàn quốc.

Công bố này được đưa ra trong vài giờ trước cuộc họp về cơ hội và rủi ro của trí tuệ nhân tạo giữa Phó Tổng thống Mỹ Kamala Harris và các nhà quản lý đến từ Google và Microsoft, cũng như các công ty khởi nghiệp Anthropic và OpenAI, đã tạo ra ChatGPT.

Can thiệp của Nhà Trắng vào lĩnh vực trí tuệ nhân tạo đến khi cả thế giới đang có nhu cầu để quy định công nghệ này, dấy lên bởi sự lốp đốt và đầu tư từ ChatGPT. Tại Quốc hội Liên minh châu Âu, các nhà lập pháp đang đàm phán về các cập nhật cuối cùng cho Luật Trí tuệ nhân tạo quy mô rộng sẽ hạn chế và thậm chí cấm một số ứng dụng của trí tuệ nhân tạo, bao gồm việc bổ sung phạm vi của trí tuệ nhân tạo sinh sản. Các nhà lập pháp Brazil cũng đang xem xét quy định nhằm bảo vệ quyền con người trong thời đại của trí tuệ nhân tạo. Trung Quốc thông báo luật quy định trí tuệ nhân tạo sinh sản được công bố vào tháng trước.

Tại Washington, DC, tuần trước, thượng nghị sĩ Dân chủ Michael Bennet giới thiệu một dự luật sẽ tạo ra một nhóm nhiệm vụ trí tuệ nhân tạo tập trung vào việc bảo vệ quyền riêng tư và dân quyền của công dân. Cũng trong tuần trước đó, bốn cơ quan quản lý Mỹ bao gồm Ủy ban Thương mại Liên bang và Bộ Tư pháp đã hứa sẽ sử dụng các luật hiện có để bảo vệ quyền của công dân Mỹ trong thời đại của trí tuệ nhân tạo. Tuần này, văn phòng của thượng nghị sĩ Dân chủ Ron Wyden xác nhận kế hoạch để cố gắng thông qua một luật được gọi là Luật Chịu trách nhiệm Thuật toán, yêu cầu các công ty đánh giá thuật toán của họ và tiết lộ khi máy tính tự động được sử dụng.

Arati Prabhakar, giám đốc Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng, mới đây tại một sự kiện được tổ chức bởi Axios đã nói rằng sự quan tâm của chính phủ về trí tuệ nhân tạo là cần thiết nếu công nghệ này sẽ mang lại lợi ích. "Nếu chúng ta muốn nắm bắt những cơ hội này, chúng ta phải bắt đầu bằng việc đối mặt với những rủi ro," Prabhakar nói.

Cuộc tập trận hack được Nhà Trắng hỗ trợ nhằm mục đích tìm ra điểm yếu trong các hệ thống trí tuệ nhân tạo sinh sản sẽ diễn ra trong mùa hè tại hội nghị an ninh Defcon. Hàng ngàn người tham gia, bao gồm các hacker và chuyên gia chính sách, sẽ được yêu cầu khám phá cách các mô hình sinh sản từ các công ty như Google, Nvidia và Stability AI phù hợp với Tuyên bố Quyền của Biden về trí tuệ nhân tạo được công bố vào năm 2022 và khung quản lý rủi ro của Viện Tiêu chuẩn và Công nghệ Quốc gia được công bố vào đầu năm nay.

Điểm sẽ được cấp dưới định dạng capture-the-flag để khuyến khích các thí sinh thử nghiệm để tìm kiếm một loạt các lỗi hay hành vi không đáng như mong muốn từ các hệ thống trí tuệ nhân tạo. Sự kiện sẽ được tiến hành sau khi tham khảo Microsoft, các khối phi lợi nhuận SeedAI, Cơ sở dữ liệu Phạm vi trí tuệ nhân tạo và Humane Intelligence, một tổ chức phi lợi nhuận được tạo ra bởi nhà khoa học dữ liệu và xã hội học Rumman Chowdhury. Cô ấy trước đây đã dẫn dắt một nhóm tại Twitter làm việc về đạo đức và máy học, và đã tổ chức một chương trình khuyến khích tìm kiếm sự thiên vị trong mạng xã hội và tự động cắt ảnh.