Innovation trong trí tuệ nhân tạo (AI) vượt xa vòng lặp tin tức và thu hút sự chú ý của công chúng, một khung pháp lý trách nhiệm và đạo đức cho sự phát triển và sử dụng AI đã trở nên ngày càng quan trọng để đảm bảo rằng cơn sóng công nghệ chưa từng có này đạt đến đầy đủ tiềm năng của nó để đóng góp cho sự tiến bộ kinh tế và xã hội.

Liên minh châu Âu đã đang làm việc để ban hành luật cho trách nhiệm của AI; Tôi đã chia sẻ suy nghĩ của tôi về các sáng kiến đó hơn hai năm trước. Sau đó, Đạo luật AI, như nó được biết đến, là "một cách tiếp cận khách quan và đo lường về sự đổi mới và những yếu tố xã hội". Ngày nay, các nhà lãnh đạo kinh doanh công nghệ và chính phủ Hoa Kỳ đang cùng nhau đề ra một tầm nhìn thống nhất về AI trách nhiệm.

Sức mạnh của AI sinh tử đã thu hút sự tưởng tượng của các nhà đổi mới công nghệ, các nhà lãnh đạo kinh doanh và công chúng trong năm ngoái, và sự quan tâm và hiểu biết của người tiêu dùng về khả năng của AI sinh tử đã dấy lên mạnh mẽ. Tuy nhiên, với trí tuệ nhân tạo trở nên phổ biến, bao gồm là vấn đề chính trị, và xu hướng của con người để thử nghiệm và kiểm tra hệ thống, khả năng gây ra thông tin sai lệch, ảnh hưởng đến quyền riêng tư và rủi ro về an ninh mạng và hành vi gian lận có nguy cơ trở thành một sau khi nghĩ đến.

Trong một nỗ lực sớm để giải quyết các thách thức tiềm năng này và đảm bảo sự đổi mới trách nhiệm của AI bảo vệ quyền và an toàn của người Mỹ, Nhà Trắng đã thông báo về các hành động mới để thúc đẩy trí tuệ nhân tạo trách nhiệm.

Trong một tài liệu được công bố bởi Nhà Trắng vào tuần trước, chính quyền Biden-Harris đã công bố ba hành động để "thúc đẩy đổi mới trí tuệ nhân tạo trách nhiệm ở Mỹ và bảo vệ quyền và an toàn của nhân dân". Các hành động này bao gồm:

  • Đầu tư mới để nâng cao nghiên cứu và phát triển trí tuệ nhân tạo trách nhiệm ở Mỹ.
  • Đánh giá công khai các hệ thống trí tuệ nhân tạo sinh sản hiện có.
  • Chính sách để đảm bảo Chính phủ Hoa Kỳ dẫn đầu trong việc giảm thiểu rủi ro của trí tuệ nhân tạo và tận dụng cơ hội của trí tuệ nhân tạo.
  • Đối với các khoản đầu tư mới, 140 triệu đô la của Quỹ Khoa học Quốc gia để khởi động bảy Viện Nghiên cứu Trí tuệ Nhân tạo Quốc gia mới nhạt nhòa so với những gì đã được các công ty tư nhân gây quỹ.

Tuy nhiên, việc đầu tư của chính phủ Mỹ đối với trí tuệ nhân tạo giống như 1 hạt phấn so với những khoản đầu tư của các quốc gia khác như Trung Quốc, người bắt đầu đầu tư vào năm 2017. Cơ hội ngay lập tức tồn tại để tăng cường tác động của đầu tư thông qua các đối tác hợp tác giữa các tổ chức học thuật và doanh nghiệp để phát triển và nghiên cứu. Chính phủ nên tài trợ các trung tâm trí tuệ nhân tạo song song với các tổ chức học thuật và doanh nghiệp đã ở hàng đầu trong nghiên cứu và phát triển trí tuệ nhân tạo, thúc đẩy sự đổi mới và tạo ra cơ hội mới cho các doanh nghiệp với sức mạnh của trí tuệ nhân tạo.

Sự hợp tác giữa các trung tâm trí tuệ nhân tạo và các viện đại học hàng đầu, chẳng hạn như College Schwarzman của MIT và Viện Trải nghiệm Trí tuệ Nhân tạo của Northeastern, giúp cầu chìa khóa giữa lý thuyết và ứng dụng thực tiễn bằng cách tập hợp các chuyên gia từ các lĩnh vực học thuật, công nghiệp và chính phủ để hợp tác trong các dự án nghiên cứu và phát triển đầu tiên có ứng dụng thực tế. Bằng cách hợp tác với các doanh nghiệp lớn, những trung tâm này có thể giúp các doanh nghiệp tích hợp trí tuệ nhân tạo vào hoạt động của họ, cải thiện hiệu quả, tiết kiệm chi phí và tạo ra các kết quả tốt hơn cho người tiêu dùng.

Ngoài ra, những trung tâm này giúp giáo dục thế hệ tiếp theo của chuyên gia trí tuệ nhân tạo bằng cách cung cấp cho học sinh truy cập vào công nghệ hiện đại, kinh nghiệm thực tế với các dự án thực tế và sự hướng dẫn của các nhà lãnh đạo ngành công nghiệp. Bằng cách đưa ra một cách tiếp cận tích cực và hợp tác trong AI, chính phủ Mỹ có thể giúp định hình một tương lai trong đó trí tuệ nhân tạo tăng cường, thay vì thay thế, công việc của con người. Như kết quả, tất cả các thành viên của xã hội có thể hưởng lợi từ cơ hội được tạo ra bởi công nghệ mạnh mẽ này.

Đánh giá mô hình là điều cần thiết để đảm bảo các mô hình AI chính xác, đáng tin cậy và không thiên vị, điều cần thiết cho việc triển khai thành công trong các ứng dụng thực tế. Ví dụ, hãy tưởng tượng một trường hợp sử dụng quy hoạch đô thị trong đó AI sinh sản được đào tạo trên các thành phố có kế hoạch đỏ với các dân số nghèo thành phần đã bị bỏ quên trong lịch sử. Thật không may, nó chỉ gây ra thêm nhiều hơn như vậy. Điều tương tự cũng xảy ra đối với sự thiên vị trong việc cho vay, khi hơn nhiều tổ chức tài chính đang sử dụng các thuật toán AI để đưa ra quyết định về cho vay.

Nếu các thuật toán này được đào tạo trên dữ liệu thiên vị đối với các nhóm dân tộc nhất định, chúng có thể từ chối cho vay một cách không công bằng cho những nhóm đó, dẫn đến sự chênh lệch kinh tế và xã hội. Mặc dù đó chỉ là một vài ví dụ về sự thiên vị trong AI, điều này phải luôn được nhớ như một trong những tâm niệm quan trọng bất kể những công nghệ và kỹ thuật AI mới được phát triển và triển khai nhanh chóng.

Để đối phó với sự thiên vị trong AI, chính phủ đã thông báo một cơ hội mới để đánh giá mô hình tại DEFCON 31 AI Village, một diễn đàn cho các nhà nghiên cứu, chuyên gia và người đam mê đến gặp gỡ và khám phá những tiến bộ mới nhất trong trí tuệ nhân tạo và học máy. Đánh giá mô hình là một sáng kiến chung với một số nhà cung cấp quan trọng trong lĩnh vực này, bao gồm Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI và Stability AI, tận dụng một nền tảng được cung cấp bởi Scale AI.

Bên cạnh đó, nó sẽ đo đạc mức độ mô hình phù hợp với nguyên tắc và thực tiễn được nêu ra trong Bản tóm tắt Quyền lợi AI và Khung quản lý Rủi ro AI của Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) của chính quyền Biden - Harris. Đây là một sự phát triển tích cực khi chính phủ đang trực tiếp tương tác với các doanh nghiệp và tận dụng tài năng của các nhà lãnh đạo kỹ thuật trong lĩnh vực này, những người đã trở thành các phòng thí nghiệm AI tại các doanh nghiệp.

Chính sách chính phủ

Đối với hành động thứ ba về chính sách để đảm bảo chính phủ Hoa Kỳ đang là một điển hình của việc giảm thiểu rủi ro AI và khai thác cơ hội AI, Văn phòng Ngân sách và Quản lý dự trù được giao việc soạn thảo hướng dẫn chính sách về việc sử dụng hệ thống AI của Chính phủ Hoa Kỳ để cho công chúng bình luận. Một lần nữa, không có thời hạn hoặc chi tiết cho những chính sách này, nhưng nó được dự kiến sẽ đứng đầu với một sắc lệnh điều hành về công bằng chủng tộc được ban hành vào đầu năm nay.

Sắc lệnh điều hành này bao gồm một quy định yêu cầu các cơ quan chính phủ sử dụng các hệ thống AI và tự động hóa một cách thúc đẩy sự công bằng. Đối với những chính sách này có ý nghĩa quan trọng, chúng phải bao gồm các động lực và hậu quả; chúng không thể chỉ là hướng dẫn tùy ý. Ví dụ, các tiêu chuẩn NIST về bảo mật là các yêu cầu hiệu quả để triển khai đối với hầu hết các cơ quan chính phủ. Không tuân thủ chúng tối thiểu là vô cùng xấu hổ cho những người liên quan và là cơ sở cho các hành động nhân sự trong một số phần của chính phủ. Các chính sách AI chính phủ, như là một phần của NIST hoặc khác, phải được so sánh để hiệu quả.

Ngoài ra, chi phí tuân thủ các quy định như vậy không được làm trở ngại cho sự đổi mới do khởi nghiệp thúc đẩy. Ví dụ, có thể đạt được gì trong một khung cho phép chi phí tuân thủ quy định tăng theo quy mô của doanh nghiệp? Cuối cùng, khi chính phủ trở thành một người mua lớn các nền tảng và công cụ AI, điều quan trọng là chính sách của nó trở thành nguyên tắc chỉ đạo để xây dựng các công cụ như vậy. Làm cho tuân thủ hướng dẫn này trở thành một yêu cầu đúng nghĩa hoặc thậm chí là hiệu quả cho mã hoá mua hàng (ví dụ, tiêu chuẩn bảo mật FedRamp), và những chính sách này có thể gây tiến triển.

Khi các hệ thống AI sinh sáng ngày càng mạnh mẽ và phổ biến hơn, đó là điều quan trọng đối với tất cả các bên liên quan - từ nhà sáng lập, quản trị viên, nhà đầu tư, kỹ thuật gia, người tiêu dùng đến người quản lý hãng - để suy nghĩ và dự tính chặt chẽ khi tiếp cận và cộng tác với những công nghệ này. Trong khi các hệ thống AI sinh sáng và AI rộng hơn có khả năng cách mạng ngành và tạo ra cơ hội mới, nhưng đồng thời tạo ra những thách thức đáng kể đặc biệt về vấn đề thiên vị, quyền riêng tư và xét đến đạo đức.

Vì vậy, tất cả các bên liên quan phải ưu tiên sự minh bạch, trách nhiệm và sự cộng tác để đảm bảo rằng AI được phát triển và sử dụng một cách có trách nhiệm và có lợi. Điều này có nghĩa là đầu tư vào nghiên cứu và phát triển AI đạo đức, tương tác với những quan điểm và cộng đồng đa dạng và thiết lập chỉ thị và quy định rõ ràng cho việc phát triển và triển khai các công nghệ này.