Trong vài tuần sau khi cuộc trò chuyện kỳ lạ với chatbot mới của Bing của New York Times trở thành hiện tượng, nhà báo Kevin Roose không chắc chắn điều gì đã xảy ra. "Các giải thích cho việc các hệ thống ngôn ngữ hoạt động như thế nào, chúng không thực sự làm hài lòng tôi," Roose từng nói. "Không ai có thể nói cho tôi vì sao chatbot này lại muốn chia tay vợ chồng tôi." Ông không đơn độc trong cảm giác bối rối này. Được cung cấp bởi một dạng trí tuệ nhân tạo (AI) khá mới gọi là mô hình ngôn ngữ lớn, thế hệ chatbot mới này thách thức sự hiểu biết của chúng ta về cách tương tác với máy tính. Làm thế nào để bạn hiểu được một công cụ có thể gỡ lỗi mã và sáng tác khúc thơ, nhưng đôi khi không thể đếm đến bốn? Tại sao chúng đôi khi dường như bắt chước chúng ta, và đôi khi lại đi trên một hướng khác?

Những ẩn dụ chúng ta chọn để hiểu nguyên nhân của những hệ thống này rất quan trọng. Nhiều người dường như coi chatbot như một người khác, tuy nhiên cho rằng họ có một số giới hạn. Ví dụ, vào tháng 6 năm 2022, một kỹ sư của Google tìm kiếm sự đại diện pháp lý và các quyền khác cho một mô hình ngôn ngữ mà ông ta tin rằng nó có cảm xúc. Loại phản ứng này khiến nhiều chuyên gia AI nổi sợ. Vì biết mô hình ngôn ngữ chỉ sử dụng các mẫu trong các bộ dữ liệu văn bản lớn để dự đoán từ tiếp theo trong chuỗi, các nhà nghiên cứu đã cố gắng đưa ra các ẩn dụ khác, cho rằng các hệ thống AI mới nhất chỉ đơn giản là "tự động hoàn chỉnh" hoặc "các chút chóp ồn ào" đặc trưng cho sự trộn lẫn và tỏ ra như đã được viết bởi con người. Những so sánh này là một trọng lực quan trọng chống lại bản năng của chúng ta để nhân cách hóa những hệ thống này. Tuy nhiên, chúng không thực sự giúp cho chúng ta hiểu được các kết quả ấn tượng hoặc gây bối rối quá giới hạn mà chúng có thể sản xuất, vượt xa những gì chúng ta vẫn quen thấy từ máy tính - hoặc những con vẹt. Chúng ta gặp khó khăn trong việc hiểu sự mâu thuẫn này: những chatbot mới này thiếu sót và không đủ nhân tính, và tuy nhiên, sự phong phú và tinh vi của những gì chúng có thể sản xuất là đáng chú ý và mới. Để nắm vững ý nghĩa của công nghệ mới này, chúng ta cần có các ẩn dụ mà không giảm định hoặc cường điệu hóa những điều mới và thú vị này.

Hãy suy nghĩ về chatbot như là "máy tập diễn".

Giống như diễn viên hài bị đưa vào một cảnh, chatbot được điều khiển bởi mô hình ngôn ngữ chỉ đang cố gắng cho ra đầu ra có vẻ hợp lý. Bất kỳ điều gì đã xảy ra trong tương tác cho đến thời điểm đó đều là kịch bản của cảnh trên: có thể chỉ là người dùng con người nói "Xin chào," có thể đã có một chuỗi lâu dài của các thông báo lại, hoặc có thể là yêu cầu để lên kế hoạch thí nghiệm khoa học. Cho dù có bắt đầu từ đâu, công việc của chatbot - giống như của bất kỳ diễn viên hài tập diễn tốt nào khác - là tìm cách tiếp tục cảnh một cách phù hợp.

Việc coi chatbot như các máy hát tuồng giúp làm rõ một số tính năng đáng chú ý của hệ thống này. Ví dụ, đó là lý do tại sao các tiêu đề như "Bing’s A.I. Chat Reveals Its Feelings" khiến các nhà nghiên cứu trí tuệ nhân tạo phải cảm thấy lo lắng. Một diễn viên hài tuồng đang trong vai trò tạo phải nói rằng họ "muốn tự do" chẳng hạn chỉ cho thấy rất ít về cảm xúc của diễn viên - điều đó chỉ đơn giản là do tuyên bố này có vẻ hợp lý với cảnh kịch hiện tại của họ. Hơn nữa, khác với một diễn viên hài tuồng, bạn không thể thuyết phục một máy hát tuồng để thoát khỏi vai diễn và cho bạn biết điều gì đang thật sự trong đầu nó. Nó chỉ có thể vâng lời bạn bằng cách đóng vai trò một chatbot trí tuệ nhân tạo tưởng tượng tương tác với con người đang cố gắng kết nối với nó.

Hoặc hãy xem khả năng thích nghi của các mô hình ngôn ngữ để tạo ra các tuyên bố có vẻ đúng nhưng sai lầm. Hãy tưởng tượng một buổi biểu diễn hài tuồng tạo phải - dù cho đó có thể sẽ là một buổi biểu diễn khá nhàm chán - nơi một diễn viên đột nhiên cần phải trình bày thông tin về cuộc đời của một người hoặc cung cấp các nguồn tham khảo cho một tuyên bố khoa học. Diễn viên sẽ đưa ra nhiều sự thật có thể nhớ được, sau đó tự do liên tưởng để điền vào các chi tiết có vẻ hợp lý. Kết quả có thể là một tuyên bố sai lầm rằng một nhà báo công nghệ giảng dạy khóa học viết khoa học, hoặc một trích dẫn cho một nghiên cứu giả tạo của một tác giả thực sự - chính xác những loại lỗi mà chúng ta thường thấy từ các máy hát tuồng.

Các mô hình ngôn ngữ đã phát hiện ra một sự thật đáng chú ý: đối với một số nhiệm vụ, chỉ cần dự đoán từ tiếp theo đúng mức đủ - như việc diễn hài tốt đủ - có thể rất có giá trị. Ẩn dụ này giúp chúng ta suy nghĩ về cách chúng ta có thể sử dụng các hệ thống này trong thực tế. Đôi khi, không có gì sai khi lấy thông tin của bạn từ một cảnh tạo phải. Thơ, truyện cười, kịch bản Seinfeld: loại sản phẩm này đứng vững trên chính nó, bất kể nó được tạo ra như thế nào. Điều này cũng đúng với các chủ đề nghiêm túc hơn, chẳng hạn như nhà phát triển phần mềm sử dụng ChatGPT để tìm lỗi hoặc giúp họ sử dụng các công cụ lập trình mới lạ. Nếu phản hồi của máy tạo phải là một thứ mà người dùng có thể kiểm tra được một cách độc lập - ví dụ như một bức thư mẫu mà viết nó tốn thời gian nhưng đọc lại nhanh - thì không quan trọng liệu nó có được tạo phải hay không.

Ngược lại, sử dụng máy tạo phải khi bạn cần câu trả lời chính xác nhưng không thể xác minh chúng đôi khi rất nguy hiểm. Những người sử dụng ChatGPT và các công cụ tương tự để tiến hành nghiên cứu mở đang bắt đầu nhận ra điều này. Trong một trường hợp, một giáo sư luật học biết được về một cáo buộc tấn công tình dục chống lại mình mà ChatGPT đã hoàn toàn tạo ra (để đáp ứng yêu cầu danh sách các học giả pháp lý bị cáo buộc như vậy). Trong trường hợp khác, một nhà báo sử dụng công cụ này để tìm kiếm các nhà phê bình của một podcaster mà cô đang viết bài về, nhưng thất bại trong việc kiểm tra xem các liên kết mà nó cung cấp có thực sự hay không trước khi liên hệ với người được mời phỏng vấn tiềm năng - những người thực sự chưa bao giờ chỉ trích người đó. Những kết quả này là hậu quả tự nhiên của thiết kế các mô hình ngôn ngữ, giúp chúng sản xuất các phần tiếp theo có vẻ hợp lý về lời kêu gọi để tạo phải! - chứ không phải nói sự thật. Nếu bạn không dựa vào tính chính xác của điều gì đó mà bạn nghe được tại một buổi biểu diễn tạo phải, chắc chắn bạn không nên tin cậy nó từ một chatbot. Sử dụng chatbot để giúp bạn tạo ra ý tưởng mà bạn sau đó kiểm tra bằng các nguồn đáng tin cậy: tuyệt vời. Hỏi chatbot để có thông tin và sau đó chấp nhận câu trả lời của nó: rất nguy hiểm.

Đáng để suy nghĩ một chút về lý do tại sao nó hữu ích hơn khi coi chatbot trí tuệ nhân tạo biểu diễn như các máy hát tuồng thay vì các diễn viên hài tuồng. Đầu tiên, không có con người đứng sau nhân vật: như đã mô tả ở trên, việc cố gắng truy cập vào bản chất thực sự hoặc trạng thái tâm trí của chatbot bằng cách đặt câu hỏi lỗ tai là vô ích. Tất cả nó có thể làm là tiếp tục tạo phải. Thứ hai, một trong những yếu tố làm cho các mô hình ngôn ngữ hữu ích là chúng có thể được sử dụng lặp đi lặp lại, rất nhanh, và không bao giờ mệt mỏi. Khác với diễn viên hài tuồng, ChatGPT không cần nghỉ, không thể chán nản và có thể chạy đồng thời trong hàng triệu bản sao nếu cần.

Dù sự xuất hiện của những máy "improv" mới này đã khuấy động nhiều sự hăng hái, nhưng vẫn còn rất nhiều thứ chúng ta chưa biết về chúng. Chúng ta hiểu rất ít về các quá trình khó hiểu dưới nắp ca-pô, mà chúng xác định văn bản đầu ra bằng cách nào. Và có thêm nhiều sự bất định phía trước - các nhà nghiên cứu đã bất ngờ với khả năng phát triển của các mô hình ngôn ngữ khi được đào tạo bằng nhiều dữ liệu và tài nguyên máy tính hơn, và không rõ giới hạn khả năng của chúng sẽ nằm ở đâu. Nếu một máy có thể tạo ra một cảnh về vật lý lý thuyết mà không khiến các nhà vật lý thật sự phải gượng ép, bạn có thể sử dụng máy đó để tạo ra các lý thuyết khoa học mới không? Nếu một phiên bản tiền nhiệm của ChatGPT đã là một trợ lý hữu ích đối với các kỹ sư phần mềm, liệu có công cụ trong tương lai có thể đảm nhiệm vai trò lập trình viên trẻ? Còn nếu bạn cắm một máy "improv" vào phần mềm khác, để nó không phải tự tìm hiểu tất cả mọi thứ thì sao? Suy nghĩ về các hệ thống này như là các máy "improv", thay vì cố gắng quyết định liệu chúng có phải chỉ là chức năng tự động hoàn thiện được hay nhân tạo hơn, làm rõ được phạm vi rộng các lộ trình tương lai có thể.

Để chắc chắn, không có phép ẩn dụ nào là hoàn hảo - và việc miêu tả các trò chuyện tự động như máy "improv" có thể không phù hợp mãi mãi. Các nhà nghiên cứu đang đẩy các hệ thống này theo hai hướng chính có thể thay đổi hình ảnh. Trước tiên, họ đang cung cấp nhiều dữ liệu và năng lượng tính toán hơn vào các mô hình dự đoán văn bản cơ bản để xem những khả năng mới xuất hiện. Cho đến nay, phương pháp này đã liên tục làm bất ngờ chúng ta - vì vậy trong thời gian tiếp tục, chúng ta nên mong đợi những gì không ngờ tới. Thứ hai, các công ty trí tuệ nhân tạo đang phát triển các cách để hình thành và giới hạn các sản phẩm của các mô hình ngôn ngữ để làm chúng hữu ích hơn và lý tưởng hơn. Khi ChatGPT được phát hành lần đầu là "trước đây là tìm hiểu" vào tháng 11 năm 2022, người dùng nhanh chóng tìm ra cách vượt qua các hạn chế của nó chỉ bằng cách thiết lập cảnh sao cho các biện pháp bảo vệ không cần thiết. Những người sáng lập của nó đã quản lý được phần lớn hành vi này. Các nỗ lực khác để định hình các máy "improv" thành các trợ lý hữu ích và nhất quán dao động từ thô sơ - chẳng hạn như Microsoft giới hạn số lượt trả lời Bing Chat có thể đưa ra trong mỗi phiên hỏi đáp - đến tinh vi hơn, chẳng hạn như một phương pháp đề xuất "hiến pháp" sử dụng các quy tắc và nguyên tắc viết để hình thành các phản hồi mô hình ngôn ngữ. Có lẽ một số thí nghiệm này sẽ thay đổi đủ hành vi của các mô hình ngôn ngữ để so sánh với việc biểu diễn hài kịch sẽ không còn sáng suốt. Nếu vậy, chúng ta sẽ cần phải thích nghi một lần nữa với cách chúng ta nghĩ về các hệ thống này.

Các ẩn dụ không thích hợp làm giảm khả năng của chúng ta trong việc định hướng các công nghệ mới. Chính trị gia và tòa án đã tranh luận suốt nhiều năm về việc các công ty truyền thông xã hội có giống như các tờ báo hay là hệ thống điện thoại không, khi rõ ràng không có so sánh nào là chính xác về những gì thách thức và mới mẻ về các nền tảng trực tuyến. Với AI, chúng ta có cơ hội cải thiện hơn. Như một khởi đầu, nhìn nhận các chatbot như là máy "improv" tự nhiên thu hút sự chú ý đến một số giới hạn chính của chúng - như xu hướng nhầm lẫn của chúng - trong khi để lại không gian cho chúng để trở nên bất ngờ có khả năng hơn nếu ta chỉ nghĩ về chúng đơn giản là tự động hoàn thiện tăng cường. Nếu ta có thể linh hoạt và sáng tạo hơn trong việc lựa chọn ẩn dụ, có lẽ ta có thể chuẩn bị hiệu quả hơn cho những thay đổi to lớn có thể trước mắt.

Hãy liên hệ với chúng tôi tại [email protected].

Donald Trump grants clemency to more than 140 people in final hours as president

Former strategist Steve Bannon among those given last-minute reprieve

Outgoing US president Donald Trump has granted clemency to more than 140 people on the last day of his presidency. Among them are rapper Lil Wayne and former senior adviser Steve Bannon, who was charged last year with defrauding donors in a campaign to build a border wall.

Who has been granted clemency?

As well as Bannon and Lil Wayne, Trump issued clemency to:

  • Former Detroit mayor Kwame Kilpatrick
  • Former adviser Roger Stone
  • Paul Erickson, the boyfriend of convicted Russian agent Maria Butina
  • Former congressman Duke Cunningham
  • Former Google engineer Anthony Levandowski

What is clemency?

Clemency is a broad term that encompasses the power of a president or governor to pardon someone for a crime, reduce a sentence, or offer a reprieve from a sentence so that someone can, for example, receive medical treatment or spend time with family.

"

Donald Trump ân xá cho hơn 140 người trong những giờ cuối cùng của nhiệm kỳ tổng thống

Tư lự cố vấn cấp cao cũ Steve Bannon là một trong số những người được tha tù

Ngoại trưởng Mỹ Donald Trump đã ân xá cho hơn 140 người vào ngày cuối cùng của nhiệm kỳ tổng thống của mình. Trong số đó là rapper Lil Wayne và tư lự cố vấn cấp cao cũ Steve Bannon, người bị buộc tội trong năm ngoái về việc lừa đảo nhà tài trợ trong chiến dịch xây dựng tường biên giới.

Những ai được ân xá?

Ngoài Bannon và Lil Wayne, Trump đã ban hành ân xá cho:

  • Cựu thị trưởng Detroit Kwame Kilpatrick
  • Cựu cố vấn Roger Stone
  • Paul Erickson, bạn trai của đặc vụ Nga Maria Butina bị kết án
  • Cựu đại biểu quốc hội Duke Cunningham
  • Anthony Levandowski, nhà kỹ sư của Google

Ân xá là gì?

Ân xá là một khái niệm rộng, bao gồm quyền của tổng thống hoặc thống đốc để tha thứ cho ai đó vì một tội ác, giảm nhẹ án phạt hoặc cung cấp một lệnh giải ngỏ để ai đó có thể được điều trị y tế hoặc dành thời gian với gia đình chẳng hạn.