Liên minh châu Âu (EU) đã tiến một bước gần hơn đến việc áp đặt quy định nghiêm ngặt cho trí tuệ nhân tạo (AI), thông qua việc soạn thảo các biện pháp bảo vệ mới mà sẽ ngăn ngừa một loạt các trường hợp sử dụng nguy hiểm. Điều này bao gồm lệnh cấm các chương trình nhận dạng khuôn mặt quy mô lớn ở nơi công cộng và các thuật toán dự đoán định danh tại tương lai sử dụng dữ liệu cá nhân. Quy định cũng yêu cầu tạo ra một cơ sở dữ liệu công khai về những hệ thống AI "rủi ro cao" triển khai bởi các cơ quan công và chính quyền để các công dân EU được thông tin về khi nào và cách họ bị ảnh hưởng bởi công nghệ này.

Luật AI đang được soạn thảo là bản dự thảo mới của Luật AI của EU, được các ủy ban thị trường nội địa và tự do công dân châu Âu thông qua vào ngày hôm nay bởi các thành viên của Quốc hội châu Âu (MEP) đã được đưa ra để giám sát việc lập pháp. Họ đã thông qua bản dự thảo hoàn thành với 84 phiếu thuận, 7 phiếu chống và 12 phiếu tránh.

Các thay đổi chính của luật AI bao gồm một loạt lệnh cấm các trường hợp sử dụng những hệ thống AI "xâm phạm và phân biệt đối xử". Theo Quốc hội, việc cấm hành động - được mở rộng từ danh sách ban đầu của bốn - ảnh hưởng đến các trường hợp sử dụng sau:

  • Hệ thống nhận dạng sinh trắc từ xa "trực tiếp" trong không gian công cộng;
  • Hệ thống nhận dạng sinh trắc "sau" từ xa, chỉ có ngoại lệ cho các cơ quan chức năng về luật pháp để truy tố tội phạm nghiêm trọng và chỉ sau khi có sự cho phép của tòa án;
  • Hệ thống phân loại sinh trắc sử dụng đặc điểm nhạy cảm (ví dụ như giới tính, chủng tộc, sắc tộc, quốc tịch, tôn giáo và quan điểm chính trị);
  • Hệ thống dự đoán cảnh sát (dựa trên sự phân tích, địa điểm hoặc hành vi phạm pháp trước đó);
  • Hệ thống nhận dạng cảm xúc trong lĩnh vực thực thi pháp luật, quản lý biên giới, nơi làm việc và các cơ sở giáo dục; và
  • Thu thập không phân biệt dữ liệu sinh trắc từ các phương tiện truyền thông xã hội hoặc hình ảnh từ camera an ninh để tạo cơ sở dữ liệu nhận dạng khuôn mặt (xâm phạm quyền con người và quyền riêng tư).

Ngoài các lệnh cấm, bản dự thảo cập nhật giới thiệu các biện pháp mới nhằm kiểm soát các hệ thống AI "tổng quát" hay "nền tảng" - các mô hình AI quy mô lớn có thể được sử dụng cho nhiều mục đích. Theo quy định, những người tạo ra các hệ thống này sẽ có các nghĩa vụ mới để đánh giá và giảm thiểu các rủi ro khác nhau trước khi các công cụ này được cung cấp. Điều này bao gồm đánh giá thiệt hại môi trường của việc đào tạo các hệ thống này, đồng thời bắt buộc các công ty phải tiết lộ "việc sử dụng dữ liệu đào tạo được bảo vệ theo luật bản quyền".

Một quy định chính khác trong Bản dự thảo Luật AI là việc tạo ra một cơ sở dữ liệu các hệ thống AI rủi ro cao và tổng quát để giải thích nơi triển khai, thời điểm và cách chúng được triển khai ở EU.

Quy định này đã được các nhà tranh đấu cho quyền số cho rằng là yêu cầu từ lâu, bởi vì công chúng thường bị thử nghiệm một cách không hay biết trong các hệ thống giám sát quy mô lớn và dữ liệu của họ bị thu thập mà không có sự đồng ý để đào tạo các công cụ AI.

Tuy nhiên, Luật AI đang chờ được thông qua trước mùa xuân năm 2024.