Vào một ngày thường trong tuần tháng Mười, Bletchley Park đón tiếp một số người già và đoàn trẻ vô trách nhiệm từ các trường học, đến thăm để tìm hiểu về những người giải mã mã cộng hòa - bao gồm nhà tiên phong về máy tính Alan Turing - người đã đặt trụ sở ở đây trong Thế chiến II và giúp Đồng minh đánh bại quân Đức.

Nhưng tuần này không phải là tuần bình thường và những người thăm không phải là du khách bình thường.

Vào thứ Tư và thứ Năm, đại diện của 27 chính phủ trên toàn thế giới cùng với các tổng giám đốc của các công ty trí tuệ nhân tạo hàng đầu đã tụ hội tại đây để tổ chức Hội nghị An toàn Trí tuệ Nhân tạo đầu tiên trên thế giới tại căn nhà sang trọng trước đây gần London, hiện nay là một bảo tàng. Trong số các người tham dự, có đại diện của chính phủ Hoa Kỳ và Trung Quốc, Elon Musk và giám đốc điều hành OpenAI Sam Altman.

Sự kiện được tạo nên sự chú ý lớn, do chính phủ Anh dẫn đầu bởi Rishi Sunak, kết thúc một năm của cuộc tranh luận căng thẳng về an toàn trí tuệ nhân tạo trên toàn cầu, sau khi ChatGPT được phát hành gần một năm trước. Bot trò chuyện này hiển thị cho nhiều người dùng lần đầu tiên khả năng tổng quát mạnh mẽ của thế hệ mới nhất của hệ thống trí tuệ nhân tạo. Sự lan truyền viral của nó đã mang lại sự sống mới cho một trường phái suy nghĩ trước đây thuộc lĩnh vực hẹp cho rằng trí tuệ nhân tạo có thể, sớm hay muộn, gây nguy hiểm đối với nhân loại và đã thúc đẩy các nhà quyền lực trên khắp thế giới xem xét liệu và cách để quy định công nghệ này. Những cuộc tranh luận đó đã diễn ra đồng thời với các cảnh báo không chỉ rằng các công cụ trí tuệ nhân tạo hiện nay đã gây ra nhiều nguy hiểm đa dạng - đặc biệt là đối với các cộng đồng bị cách biệt - mà còn rằng thế hệ tiếp theo của hệ thống này có thể mạnh gấp 10 hoặc 100 lần, chưa kể tới càng nguy hiểm hơn.

Bletchley Park được chọn làm địa điểm tổ chức hội nghị này bởi chính phủ Anh với ý nghĩa tượng trưng của nó: nó là một trong những nơi sinh ra của máy tính hiện đại; những máy được thiết kế ở đây để giải mã mã Enigma của người Đức đã tạo nên cơ sở cho máy tính có thể lập trình sớm nhất. Michelle Donelan, bộ trưởng Khoa học và Công nghệ của Anh, đã khai mạc hội nghị vào thứ Tư và bày tỏ hy vọng rằng các đại biểu tham dự sẽ đóng góp vào một thành tựu tương tự, "đẩy mạnh ranh giới của những gì thực sự có thể".

Các quan chức từ khắp nơi trên thế giới không cố gắng đạt được sự thống nhất ở đây về một bộ quy tắc cụ thể để kiểm soát công nghệ này. Nhưng Sunak đã thông báo vào thứ Năm rằng các công ty trí tuệ nhân tạo đã đồng ý cho chính phủ tiếp cận sớm với các mô hình của họ để tiến hành đánh giá an toàn. Ông cũng thông báo rằng Yoshua Bengio, một nhà khoa học máy tính đã đoạt giải Turing, đã đồng ý làm chủ tọa đàm xét lập một báo cáo về sự nhất trí khoa học về nguy cơ và khả năng của các hệ thống trí tuệ nhân tạo tiên tiến.

"Bảo đảm an toàn trí tuệ nhân tạo đã trở thành một sinh hoạt cần thiết concerted toàn cầu, và tôi rất vui được hỗ trợ bằng cách làm việc với đồng nghiệp từ khắp nơi trên thế giới để trình bày các bằng chứng mới nhất về vấn đề quan trọng này", Bengio nói trong một tuyên bố.

Đọc thêm: TIME100 Những Người ảnh hưởng nhất trong Trí tuệ nhân tạo

Thắng lợi nổi bật của Sunak từ Hội nghị là các phòng thí nghiệm trí tuệ nhân tạo sẽ cung cấp sớm cho chính phủ truy cập vào hệ thống của họ - thông tin này còn thiếu chi tiết. Sunak đã thông báo vào tháng Sáu rằng ba công ty trí tuệ nhân tạo hàng đầu (OpenAI, Google DeepMind và Anthropic) đã đồng ý cung cấp cho Anh

Chính phủ "tiếp cận sớm hoặc đúng hạn" các hệ thống của họ cho mục đích an toàn. Sunak không nói rõ thỏa thuận đạt được vào ngày Thứ Năm khác biệt như thế nào so với cam kết hiện tại, nếu có. Ông cũng không bình luận về việc chính phủ có nhận được mã nguồn hay các mô hình "trọng lượng" (weights) được gọi là mô hình biên giới hay chỉ đơn giản là khả năng tương tác với chúng bằng cách sử dụng giao diện được gọi là API. (Văn phòng Sunak không trả lời ngay lập tức yêu cầu để bình luận.)

Sunak cũng tuyên bố rằng Frontier AI Taskforce của Vương quốc Anh sẽ chuyển thành một tổ chức cố định đảm nhận nhiệm vụ đánh giá an toàn: Viện An toàn Trí tuệ Nhân tạo Vương quốc Anh.

Mặc dù tiến trình có hạn, các đại biểu tại sự kiện đánh giá cao các cuộc thảo luận cấp cao như một bước đầu tiên quan trọng trong việc hợp tác quốc tế về quy định công nghệ này - thừa nhận rằng mặc dù có nhiều điểm nhất quán, vẫn còn tồn tại một số khác biệt chủ yếu.

Khởi động sự kiện vào thứ Tư, chính phủ Vương quốc Anh tuyên bố "Tuyên bố Bletchley" về Trí tuệ Nhân tạo, được ký bởi 28 nước, bao gồm Hoa Kỳ, Vương quốc Anh, Trung Quốc và Ấn Độ, cũng như Liên minh châu Âu. Tuyên bố này cho biết Trí tuệ Nhân tạo gây ra những rủi ro ngắn hạn và dài hạn, xác nhận trách nhiệm của những người tạo ra hệ thống Trí tuệ Nhân tạo mạnh mẽ để đảm bảo an toàn và cam kết hợp tác quốc tế trong việc xác định và giảm thiểu những rủi ro.

Chính phủ Vương quốc Anh, với tư cách là người tổ chức Hội nghị, đã giữ được sự cân nhắc giữa việc truyền đạt thông điệp rằng nó đang nghiêm túc với những rủi ro của Trí tuệ Nhân tạo một mặt, trong khi truyền đạt cho các công ty công nghệ rằng nó đang mở cửa cho kinh doanh mặt khác. "Đối với tôi, rủi ro lớn nhất mà chúng ta đang đối diện, sẽ là rủi ro bỏ lỡ những cơ hội tuyệt vời này mà Trí tuệ Nhân tạo thật sự mang lại," Donelan nói với các nhân vật công nghệ hàng đầu tại tiệc chiêu đãi tại trụ sở Google DeepMind vào đêm trước Hội nghị. "Nếu chúng ta khủng bố con người quá nhiều, hoặc nếu chúng ta tránh né vì chúng ta không nắm bắt được những rủi ro này, chúng ta sẽ không thấy việc áp dụng trong NHS [Dịch vụ Y tế Quốc gia] của chúng ta, chúng ta sẽ không thấy việc áp dụng trong mạng lưới giao thông của chúng ta, chúng ta sẽ không thể sử dụng Trí tuệ Nhân tạo để giải quyết biến đổi khí hậu hoặc hỗ trợ các quốc gia đang phát triển giải quyết vấn đề như bất bình đẳng về thực phẩm. Và đó sẽ là bi kịch lớn nhất mà chúng ta có thể tưởng tượng."

Tuy nhiên, Mỹ đã đưa ra hàng loạt thông báo trong tuần này đe dọa ngụy tạo đòi hỏi khả năng lãnh đạo toàn cầu của Vương quốc Anh về an toàn Trí tuệ Nhân tạo. Trong bài phát biểu tại Luân Đôn vào thứ Tư, Phó Tổng thống Kamala Harris thông báo một loạt biện pháp Mỹ, bao gồm việc thành lập Viện An toàn Trí tuệ Nhân tạo Mỹ. Harris cho biết tổ chức này sẽ tạo ra hướng dẫn cho đánh giá rủi ro của hệ thống Trí tuệ Nhân tạo và phát triển hướng dẫn cho các cơ quan quản lý về các vấn đề như đóng dấu nước tài liệu do Trí tuệ Nhân tạo tạo ra và chống lại phân biệt đối xử thuật toán. Thông báo của Harris là kết quả của một sắc lệnh hành pháp do Tổng thống Joe Biden ký kết vào thứ Hai, yêu cầu các công ty Trí tuệ Nhân tạo thông báo cho chính phủ liên bang khi đang đào tạo những mô hình nguy hiểm, và chia sẻ kết quả các kiểm tra an toàn trước khi công khai chúng.

Đọc Thêm: Tại sao Sắc lệnh Trí tuệ Nhân tạo của Biden chỉ đi một phần

Bộ trưởng Ngoại giao Anh, James Cleverley, đã giảm nhẹ những ý kiến cho rằng Mỹ đã làm ả shadow đến Vương quốc Anh với những thông báo của họ. "Điều này không liên quan đến việc gian lận, đây là về việc chia sẻ," ông nói với TIME. "Đây là điều chúng tôi muốn mọi người tham gia vào. Điều này không phải là độc quyền, nó là bao gồm.

uk-ai-safety-summit-harris

Phó Tổng thống Kamala Harris phát biểu trong buổi họp báo tại Hội nghị An toàn Trí tuệ Nhân tạo (AI) của Vương quốc Anh tại Bletchley Park, ở Trung Anh, vào ngày 2 tháng 11 năm 2023. DANIEL LEAL—AFP/Getty ImagesTại Bletchley Park, cảnh sát đã được triển khai mạnh mẽ để tuần tra một khu vực an ninh tạm thời được xây dựng xung quanh khu trung tâm giải mã mã hiệu trong thời chiến. Bên ngoài cổng trước, một nhóm nhỏ người biểu tình từ nhóm áp lực Pause AI đã xuất hiện vào ngày thứ Tư, mang theo biểu ngữ và mấu giấy. Nhóm này ủng hộ việc tạm dừng việc đào tạo các hệ thống trí tuệ nhân tạo mạnh hơn GPT-4 của OpenAI, người kế vị của ChatGPT và là mô hình ngôn ngữ lớn mạnh nhất công khai trên thế giới. "Khảo sát ngày càng cho thấy việc chậm phát triển AI được cộng đồng quan tâm, như cả những thông điệp ủng hộ chúng tôi đã nhận được từ công chúng, trẻ và lớn tuổi, trong buổi biểu tình hôm nay," Gideon Futerman, một trong số những người biểu tình, nói với TIME. "Việc tạm dừng không chỉ là cần thiết mà còn là điều có thể đạt được.

Bên trong, các cuộc thảo luận chính được diễn ra trong cánh cửa kín, nhưng một số cá nhân trong ngành đã xuất hiện để nói chuyện với báo chí. Mustafa Suleyman, người đồng sáng lập Google DeepMind và hiện là CEO của startup Inflection AI, đã nói tại cuộc họp báo rằng ông không đồng ý với những người kêu gọi tạm dừng việc đào tạo thế hệ trí tuệ nhân tạo tiếp theo, nhưng ông cho biết ngành công nghiệp có thể cần xem xét nó là một phương án trong tương lai gần. "Tôi không loại trừ điều này, và tôi nghĩ rằng ở một thời điểm nào đó trong vòng 5 năm tới, chúng ta sẽ phải xem xét câu hỏi đó một cách nghiêm túc", ông nói. "Tôi không nghĩ rằng hiện nay có bất kỳ bằng chứng nào cho thấy các mô hình đầu tuyến có kích thước như GPT-4... gây ra những thiệt hại nguy hiểm, chưa kể đến sự tồn tại. Điều này rõ ràng khẳng định rằng có một giá trị đáng kể đối với con người trên thế giới. Nhưng đây là một câu hỏi rất hợp lý khi chúng ta tạo ra các mô hình lớn gấp 10 lần, 100 lần, 1.000 lần, điều này sẽ diễn ra trong ba hoặc bốn năm tới."

Một bức thư mở vào tháng Ba yêu cầu tạm dừng 6 tháng đào tạo các hệ thống trí tuệ nhân tạo lớn đã bị nhiều người trong ngành đánh giá là không thể thi hành, nhưng một số đại biểu đã chỉ ra rằng Hội nghị đang tiến tới xây dựng một khung quốc tế để áp dụng quyết định như vậy. Connor Leahy, CEO của công ty an toàn trí tuệ nhân tạo Conjecture, người đã phát biểu mạnh mẽ về những mối đe dọa về sự tồn tại mà trí tuệ nhân tạo mang lại, cho biết trên TIME ngày thứ Tư rằng ông đã ấn tượng với chất lượng cuộc thảo luận và sự đồng thuận gần như tuyệt đối rằng cần thiết có sự hợp tác để giảm thiểu rủi ro. "Nói chung, tôi nghĩ rằng Vương quốc Anh đã làm một việc đặc biệt ở đây", ông nói, ca ngợi số lượng đại biểu cấp cao từ cả chính phủ và ngành công nghiệp. "Đây không phải là nơi lập chính sách trong thực tế, đây là nơi đặt nền móng."

Một số thành viên xã hội được mời tham dự các phiên họp trong phạm vi cánh cửa kín với các nhà hoạch định chính sách và kỹ sư công nghệ, mặc dù một số người trong số họ cho rằng việc mình không được đại diện đầy đủ. "Nếu cuộc trò chuyện này thực sự là một cuộc trò chuyện toàn cầu, tại sao chủ yếu là xã hội dân sự của Mỹ và Vương quốc Anh [tham dự]?" - Vidushi Marda, đại biểu tham dự sự kiện từ tổ chức phi lợi nhuận REAL ML, và đóng base tại Bangalore, Ấn Độ đã nói. "Đa phần các quyết định quan trọng đã trở nên khá mờ mịt đối với chúng tôi, mặc dù chúng tôi đang có mặt trong phòng."

Những người khác đã cáo buộc Hội nghị phản ánh quan điểm của ngành công nghiệp. "Cuộc trò chuyện này đã bị toàn bộ ngành công nghiệp chiếm đoạt, và nhiều mặt trái của cuộc họp này có vẻ phản ánh điều đó", Amba Kak, giám đốc điều hành của Viện AI Now, một nhóm nghiên cứu, nói. "Bối cảnh đằng sau tất cả điều này là chúng ta đang chứng kiến sự tập trung quyền lực nhiều hơn trong ngành công nghệ, và trong đó có một số tác nhân. Và nếu chúng ta để ngành công nghiệp định đạo về chính sách trí tuệ nhân tạo, chỉ nói muốn có sự quy định không đủ—vì chúng ta sẽ chứng kiến sự quy định sẽ càng củng cố thêm lợi ích của ngành công nghiệp."

Kak cho biết phạm vi của hội nghị có vẻ đã thay đổi vào phút chót để bàn luận về các rủi ro gần đây, điều này đã được chào đón. "Những tín hiệu sớm cho thấy Hội nghị gần như hoàn toàn tập trung vào những hại lợi nhìn về tương lai", cô nói. “Nếu có một điều mà chúng ta có thể rút ra từ Bletchley Declaration, đó là có một nhu cầu để giải quyết các rủi ro gần đây và điều đó không liên quan đến xa hơn."

Đọc tiếp: A đến Z về Trí tuệ Nhân tạo

Trong khi Hội nghị có thể đã đạt được một số thành công trong việc khắc phục khoảng cách giữa các nhà nghiên cứu cảnh báo về các rủi ro ngắn và dài hạn, một sự khác biệt riêng biệt về quan điểm - giữa các phương pháp làm việc mã nguồn mở và mã nguồn đóng trong nghiên cứu Trí tuệ Nhân tạo - đã rõ ràng trong số nhiều người tham dự từ ngành công nghiệp. Những người ủng hộ việc hạn chế nghiên cứu Trí tuệ Nhân tạo hơn cho rằng các nguy hiểm của Trí tuệ Nhân tạo tiên tiến quá lớn để mã nguồn của các mô hình mạnh mẽ được phân phối miễn phí. Cộng đồng mã nguồn mở không đồng ý, cho rằng việc các công ty kiếm lợi nhuận độc quyền trong việc nghiên cứu Trí tuệ Nhân tạo có thể dẫn đến các kết quả xấu, và cho rằng việc mã nguồn mở các mô hình có thể gia tăng việc nghiên cứu về an toàn.

"Những cuộc tranh luận về mã nguồn mở vẫn còn khá thách thức, và tôi không nghĩ rằng Hội nghị, do đề cập đến một loạt các chủ đề, thực sự đã đủ không gian để thảo luận chi tiết hơn để đạt được sư đồng thuận lớn hơn," Jess Whittlestone, một đại biểu và là người đứng đầu chính sách Trí tuệ Nhân tạo tại Trung tâm Sự phục hồi Trung và Dài hạn, một tài liệu thông tin cho biết. "Trong những cuộc thảo luận mà tôi tham gia, có khá nhiều sự đồng ý rằng chúng ta cần đi xa hơn một cuộc tranh luận nhị phân về mã nguồn mở/đóng khi nhìn vào các giải pháp có tính tinh vi hơn, nhưng vẫn có các quan điểm khác nhau về việc cần thiết như thế nào và những gì cần được ưu tiên."

Đọc thêm: Cuộc tranh luận khốc liệt về ai nên kiểm soát truy cập vào Trí tuệ Nhân tạo

Biểu tượng của cuộc tụ họp tại Bletchley Park, nơi mà những tâm huyết vĩ đại đã đến với nhau để bảo vệ cuộc sống và tự do trước một mối đe dọa tồn tại, không phải là điều mà nhiều người tham dự bỏ qua. Nhưng nếu Hội nghị không mang lại các kết quả mong muốn, một dị so sánh lịch sử hợp lý khác có thể là thước đo so sánh tốt hơn. Sau chiến tranh, cơ quan phá mã nổi tiếng đặt tại Bletchley đã phát triển thành GCHQ - cơ quan thông tin của Anh mà, liên kết với Cơ quan An Ninh Quốc gia Hoa Kỳ, đã tiến hành các chương trình giám sát đại trà toàn cầu vô phân biệt - sử dụng công nghệ không phải để bảo vệ công dân, mà để vi phạm quyền của họ một cách có hệ thống.

"Truyền thuyết về Bletchley đã được các chính phủ liên tục sử dụng để bào chữa giám sát và kiểm soát công nghệ ngày càng gia tăng, ngụ ý rằng những nỗ lực này xuất phát từ nguồn cùng với những công cuộc công nghệ chống phát xít của Vương quốc Anh trong thế giới thứ hai," Meredith Whittaker, chủ tịch của Signal, nói với TIME. "Vì vậy, không có gì ngạc nhiên khi chính phủ hiện tại cố gắng tiếp cận công nghiệp Trí tuệ Nhân tạo mạnh mẽ dựa trên và kéo dài truyền thuyết này, hy vọng rằng sự sáng rực của quá khứ có thể che giấu hiện thực hiện tại.