Sự đột phá lớn về Trí tuệ Nhân tạo của Tổng thống Biden đầy ấn tượng và rối ren như chính công nghệ đó.
Tác giả: Karen Hao và Matteo Wong. Minh họa bởi The Atlantic. Nguồn: pabradyphoto / Getty. Ngày 30 tháng 10 năm 2023, 4:45 PM ET. Sáng hôm nay, Tổng thống Joe Biden đã ký một bộ nguyên tắc quy định rộng nhất về trí tuệ nhân tạo tại Hoa Kỳ từ trước đến nay: một sắc lệnh điều hành dài nhằm chỉ đạo tất cả các cơ quan chính phủ đảm bảo Hoa Kỳ đang dẫn đầu trong việc phát triển công nghệ này đồng thời giải quyết những nguy hiểm mà nó mang lại. Sắc lệnh rõ ràng đẩy mạnh các cơ quan thiết lập quy tắc và hướng dẫn, viết báo cáo và tạo ra các chương trình tài trợ và nghiên cứu về trí tuệ nhân tạo - "công nghệ quan trọng nhất của thời đại chúng ta", theo từ ngữ của Tổng thống.
Quy mô của sắc lệnh rất ấn tượng, đặc biệt là khi cuộc bùng nổ Trí tuệ Nhân tạo sáng tạo bắt đầu cách đây chừng một năm. Nhưng tài liệu này có nhiều phần - và có nhiều khi đối nghịch - cho thấy sự mơ hồ rộng hơn về thái độ chủ yếu của Hoa Kỳ đối với Trí tuệ Nhân tạo: Liệu đó có phải là mối đe dọa về an ninh quốc gia, hay chỉ là một xã hội công bằng? Liệu đó có phải là một vũ khí địa chính trị? Liệu đó có phải là một cách để giúp đỡ con người?
Chính quyền Biden đã trả lời "tất cả các trường hợp trên", thể hiện niềm tin rằng công nghệ này sẽ sớm xuất hiện khắp nơi. "Điều này là quan trọng", Alondra Nelson, một giáo sư tại Viện Nghiên cứu Cao cấp đã từng làm giám đốc văn phòng Khoa học và Công nghệ của Nhà Trắng cho biết. Trí tuệ Nhân tạo sẽ "lan rộng như hệ điều hành trong điện thoại di động của chúng ta", Nelson nói, điều đó có nghĩa rằng việc quy định nó sẽ liên quan đến "nguyên cả khía cạnh chính sách." Quy mô đó gần như đòi hỏi sự mâu thuẫn, và như là chính chính quyền Biden đã xem xét các quan điểm mâu thuẫn mà không quyết định một cách thống nhất.
Một phần của sắc lệnh này áp dụng hoàn toàn những điểm nói chung của một số công ty trí tuệ nhân tạo có ảnh hưởng như OpenAI và Google, trong khi những phần khác tập trung vào những lo ngại của công nhân, cộng đồng dễ tổn thương và không được phục vụ đầy đủ, và các nhóm quyền dân sự chỉ trích nặng nề công nghệ lớn. Sắc lệnh cũng rõ ràng cho thấy chính phủ quan ngại rằng Trí tuệ Nhân tạo sẽ làm gia tăng thông tin sai lệch, vi phạm quyền riêng tư và vi phạm bản quyền. Ngay cả khi nó chú ý đến các khuyến nghị của Trí tuệ Nhân tạo lớn, sắc lệnh cũng phác họa các phương pháp hỗ trợ cho các nhà phát triển và nhà nghiên cứu Trí tuệ Nhân tạo nhỏ hơn.
Và cũng có rất nhiều sự nhắc đến đến những lợi ích tiềm năng của công nghệ này: Trí tuệ nhân tạo (AI), như ghi chú trong sắc lệnh của người điều hành, có "tiềm năng để giải quyết một số thách thức khó khăn nhất của xã hội". Nó có thể làm việc tốt cho các doanh nghiệp nhỏ và những người khởi nghiệp, tạo ra những ngành nghề mới, phát triển thuốc mới, cải thiện chăm sóc sức khỏe, và nhiều hơn nữa.
Nếu tài liệu đọc như việc ghép lại những bài viết được viết bởi các nhóm hoàn toàn khác nhau, thì có thể là vậy. Tổng thống và phó tổng thống đã có cuộc họp với các nhà điều hành công ty AI, lãnh đạo về quyền công dân và bảo vệ người tiêu dùng để thảo luận về việc quy định công nghệ này, và chính quyền Biden đã công bố một Bản thiết kế cho Nghị quyết Nhân quyền AI trước khi ChatGPT được ra mắt vào tháng Mười Một năm ngoái. Tài liệu đó đề xuất thúc đẩy quyền công dân, công bằng chủng tộc và bảo vệ quyền riêng tư, cùng với các vấn đề khác. Sắc lệnh điều hành hôm nay trích dẫn và mở rộng đề xuất trước đó - nó trực tiếp đề cập đến khả năng AI góp phần vào phân biệt đối xử trong các ngữ cảnh như chăm sóc sức khỏe và tuyển dụng, các rủi ro của việc sử dụng AI trong việc tuyên án và duy trì trật tự công cộng, và nhiều vấn đề khác. Những vấn đề này đã tồn tại trước sự ra đời của AI tổng hợp, một phân loại con của trí tuệ nhân tạo tạo ra nội dung mới hoặc ít nhất là nội dung được kết hợp một cách thuyết phục dựa trên dữ liệu đào tạo, nhưng các chương trình AI cũ hơn ít khi kích thích trí tưởng tượng chung như ChatGPT, với ngôn ngữ coi như giống con người đáng ngại của nó.
Đọc: Tương lai của AI là GOMA
Sắc lệnh điều hành, sau đó, tự nhiên tập trung một phần lớn vào loại phần mềm cực mạnh và tính toán mà chủ yếu là nền tảng của công nghệ mới này. Vấn đề cụ thể là các mô hình cơ bản kép, còn được gọi là mô hình AI biên giới - một thuật ngữ cho các thế hệ tương lai của công nghệ có khả năng gây tàn phá. Cụm từ này được các công ty dự định xây dựng các mô hình này phổ biến, và một phần của sắc lệnh điều hành phù hợp với cách các công ty này đề xuất việc quy định.
Một bài báo chính sách có tác động lớn trong mùa hè này, được đồng tác giả bởi nhân viên tại OpenAI và Google DeepMind, đã đề xuất xác định các mô hình trí tuệ nhân tạo tiến hóa như: những mô hình này có khả năng tạo ra các loại vũ khí sinh học hoặc hóa học, những mô hình có khả năng tránh sự kiểm soát của con người bằng "cách đánh lừa và che giấu", và những mô hình được huấn luyện vượt quá ngưỡng công suất tính toán. Quyết định của lãnh đạo sử dụng gần như chính xác cùng ngôn ngữ và ngưỡng công suất.
Một quan chức cấp cao của chính quyền nói chuyện với các phóng viên đã mô tả bản chất rộng lớn của tài liệu như một đặc điểm, chứ không phải một lỗi. "Chính sách trí tuệ nhân tạo (AI) giống như cuộc thi decathlon," quan chức cho biết. "Chúng ta không có sự bao dung mà chỉ chọn, nói rằng, 'Chúng ta chỉ sẽ làm an toàn,' hoặc 'Chúng ta chỉ sẽ làm công bằng,' hoặc 'Chúng ta chỉ sẽ làm quyền riêng tư.' Chúng ta phải làm cả những điều này." Sau cùng, quyết định này có "tính năng tín hiệu cực lớn," Suresh Venkatasubramanian, giáo sư khoa học máy tính tại Đại học Brown và cũng là một trong những người đồng sáng lập Hợp đồng AI Nhân quyền trước đó, nói. "Tôi có thể nói cho bạn biết rằng Quốc hội sẽ xem xét điều này, các tiểu bang sẽ xem xét nó và các thống đốc cũng sẽ xem xét điều này."
Bất kỳ ai nhìn vào quyết định để tìm hướng dẫn đều sẽ có cảm nhận lẫn lộn về công nghệ - như có khoảng cách rất lớn giữa các ứng dụng có thể của nó và số lượng chủ đề có thể có trong sách; và có thể cũng là sự nhầm lẫn về những gì chủ tịch quyết định tập trung hoặc bỏ qua. Quyết định này dành nhiều từ để mô tả cách các cơ quan khác nhau nên chuẩn bị giải quyết tác động lý thuyết của AI đối với nguy cơ hóa học, sinh học, phóng xạ và hạt nhân, một phương pháp được trích dẫn trực tiếp từ bài báo chính sách được hỗ trợ bởi OpenAI và Google. Ngược lại, chính quyền chỉ dành rất ít từ để nói về việc sử dụng AI trong giáo dục, một ứng dụng lớn của công nghệ mà đã xảy ra. Tài liệu công nhận vai trò mà AI có thể đóng trong việc tăng cường khả năng chống chịu thay đổi khí hậu - chẳng hạn như tăng cường độ tin cậy của mạng lưới và thúc đẩy triển khai năng lượng sạch, một điểm tranh cãi phổ biến trong ngành - nhưng không một lần nhắc đến lượng tài nguyên năng lượng và nước rất lớn cần thiết để phát triển và triển khai mô hình AI lớn, cũng như lượng khí thải carbon mà chúng tạo ra. Và nó thảo luận về khả năng sử dụng nguồn lực liên bang để hỗ trợ những người lao động có thể bị ảnh hưởng bởi AI, nhưng không đề cập đến những người lao động có thể bị bóc lột bởi nền kinh tế AI: ví dụ, những người chỉ nhận rất ít tiền để phản hồi thủ công cho bot trò chuyện.
Đầu mục [Đừng nhìn vào đây: ...] Đọc: Hoa Kỳ đã có một tầng lớp dưới của AI
Những mối quan tâm quốc tế cũng là một mặt hàng quan trọng trong quyết định. Trong số những biện pháp quyết định khá quả cảm có việc chỉ đạo Bộ trưởng Thương mại đề xuất các quy định mới yêu cầu các nhà cung cấp dịch vụ đám mây của Mỹ, chẳng hạn như Microsoft và Google, thông báo cho chính phủ nếu cá nhân hoặc thực thể nước ngoài sử dụng dịch vụ của họ để đào tạo các mô hình AI lớn có thể được sử dụng cho mục đích xấu. Quyết định cũng chỉ đạo Bộ trưởng Ngoại giao và Bộ trưởng An ninh Nội địa rút ngắn thủ tục duyệt visa cho nhân tài AI, và thúc đẩy một số cơ quan khác, bao gồm Bộ Quốc phòng, chuẩn bị các đề xuất để rút ngắn quá trình duyệt cho người không phải là công dân có chuyên môn AI muốn làm việc tại các phòng thí nghiệm quốc gia và tiếp cận thông tin phân loại.
Trong khi giám sát các thực thể nước ngoài là một việc được đề cập ngầm đến, để thể hiện sự cạnh tranh khốc liệt và các lo ngại về Trung Quốc trong phát triển AI, Trung Quốc cũng là nguồn cung nguồn nhân tài AI nước ngoài hàng đầu số 1 tại Mỹ. Năm 2019, 27% nhà nghiên cứu AI hàng đầu đóng góp cho Mỹ đã nhận bằng cử nhân của họ tại Trung Quốc, so với 31% được học tại Mỹ, theo một nghiên cứu của Macro Polo, một viện nghiên cứu dựa tại Chicago nghiên cứu về kinh tế Trung Quốc. Tài liệu, nói cách khác, đề xuất các biện pháp chống lại các tác nhân nước ngoài phát triển AI trong khi nhấn mạnh sự quan trọng của công nhân quốc tế trong việc phát triển AI tại Mỹ.
Đọc: Sự hoảng loạn mới của trí tuệ nhân tạo
Mục tiêu quốc tế của sắc lệnh không phải là ngẫu nhiên; nó được đưa ra ngay trước Hội nghị An toàn Trí tuệ Nhân tạo của Vương quốc Anh vào tuần này, trong đó Phó Tổng thống Kamala Harris sẽ đưa ra bài diễn thuyết về tầm nhìn của chính quyền về Trí tuệ Nhân tạo. Khác với cách tiếp cận rộng của Hoa Kỳ hoặc đối với Đạo luật Trí tuệ Nhân tạo của Liên minh châu Âu, Vương quốc Anh tập trung gần như hoàn toàn vào những mô hình biên giới đó - "một làn đường khá hẹp," Nelson nói với chúng tôi. Ngược lại, sắc lệnh của Hoa Kỳ xem xét một loạt các công nghệ Trí tuệ Nhân tạo và quyết định tự do, và cố gắng cân bằng an ninh quốc gia, công bằng và sự đổi mới. Hoa Kỳ đang cố gắng mô phỏng một cách tiếp cận khác với thế giới, bà nói.
Chính quyền Biden cũng có thể sử dụng sắc lệnh này nhằm đưa ra một đợt cuối cùng về vị trí chính sách AI trước khi cuộc bầu cử năm 2024 tiêu thụ Washington và có thể một chính quyền mới đến, Paul Triolo, đối tác liên kết về Trung Quốc và chuyên gia về chính sách công nghệ tại công ty tư vấn Albright Stonebridge, nói với chúng tôi. Tài liệu kỳ vọng hầu hết các cơ quan hoàn thành nhiệm vụ của mình trước khi kết thúc kỳ này. Các báo cáo và vị trí quy định kết quả có thể hình thành bất kỳ đạo luật AI nào đang được soạn thảo tại Quốc hội, điều đó có thể mất nhiều thời gian hơn để thông qua, và có thể chặn đứng một chính quyền Trump tiềm năng, nếu như quá khứ là một gợi ý, có thể tập trung chính sách AI của mình hầu như hoàn toàn vào sự cạnh tranh toàn cầu của Mỹ.
Tuy nhiên, với chỉ 11 tháng kể từ khi ChatGPT được phát hành và nâng cấp lên GPT-4 chỉ trong chưa đến năm tháng sau đó, nhiều nhiệm vụ và khung thời gian đó dường như hơi mờ nhạt và xa xăm. Sắc lệnh cho 180 ngày cho các bộ trưởng Quốc phòng và An ninh nội địa hoàn thành dự án thử nghiệm an ninh mạng, 270 ngày cho bộ trưởng Thương mại khởi xướng một sáng kiến để tạo ra hướng dẫn trong lĩnh vực khác, 365 ngày cho Viện trưởng Tòa án Tối cao nộp báo cáo về một vấn đề khác. Người đứng đầu cấp cao của chính quyền cho biết với các phóng viên rằng Hội đồng Trí tuệ Nhân tạo mới thành lập giữa các trưởng cơ quan, do Bruce Reed, Phó Tổng thư ký Nhà Trắng, làm Chủ tịch, sẽ đảm bảo từng cơ quan tiến triển một cách liên tục. Sau khi hết hạn cuối cùng, có thể vị trí của chính phủ liên bang về Trí tuệ Nhân tạo đã trở nên rõ ràng.
Nhưng có thể tư thế và chính sách của nó không thể, hoặc thậm chí không nên, định cấu trúc. Giống như chính mạng Internet, trí tuệ nhân tạo là một công nghệ phong phú có thể được phát triển và triển khai theo cách kết hợp hoa lệ; Viện hàn lâm vẫn đang cố gắng tìm hiểu làm thế nào các luật về bản quyền và quyền riêng tư, cũng như Hiến pháp Đại hội đồng Viên, áp dụng cho mạng Internet cổ điển đã tồn tại nhiều thập kỷ, và mỗi vài năm, các điều khoản của cuộc trò chuyện quy định đó dường như bị thay đổi lại.
Một năm trước, ít người có thể tưởng tượng được làm thế nào chatbot và trình tạo hình ảnh sẽ thay đổi cách chúng ta nghĩ về tác động của Internet đối với cuộc bầu cử, giáo dục, lao động hoặc công việc; chỉ vài tháng trước, việc triển khai Trí tuệ Nhân tạo trong các công cụ tìm kiếm dường như như một giấc mộng nghỉ mát. Tất cả những điều đó, và nhiều hơn nữa trong cuộc cách mạng Trí tuệ Nhân tạo mới nổi, đã bắt đầu một cách nghiêm túc. Xung đột nội bộ của sắc lệnh quyết định và sự mở cửa đối với các giá trị và phương pháp khác nhau đối với Trí tuệ Nhân tạo có thể đã là không thể tránh được, rồi đây là kết quả của một nỗ lực để vẽ ra một con đường cho một công nghệ khi không ai có một bản đồ đáng tin cậy về nơi nó đang đi đến.