Hầu hết mọi người có thể hát "Chúc mừng sinh nhật" ngẫu hứng. Nhưng bạn có biết bạn đã học nó như thế nào không? Ai đã chia sẻ nó với bạn lần đầu? Ai đã viết nó? Bạn có lời bài hát và giai điệu, và có thể dạy người khác, nhưng có lẽ bạn không biết nó đến từ đâu.

Điều đó mô tả một cách hiệu quả "bài toán" với generative AI, và đó là một vấn đề cho cá nhân và tổ chức sử dụng nó. Giống như những ngày đầu của open sourcephần mềm cấp phép nói chung, generative AI là một lĩnh vực chưa được khai thác, nó thú vị và có nhiều điều để học.

Ngay cả khi quyết định viết bài này và ngồi xuống viết nó, hàng chục câu chuyện tin tức đã làm lạc hướng tôi - và làm mờ các vấn đề AI độc thân mà tôi đang suy nghĩ - không kể đến câu chuyện về CEO OpenAI Sam Altman nói với Thượng viện rằng có lẽ có một cơ quan quản lý trong trường hợp công nghệ này đi "mất kiểm soát".

Nói cách khác, generative AI là một mớ hỗn độn.

Harvard Business Review chú ý rằng generative AI có vấn đề về sở hữu trí tuệ mà bao gồm một tập hợp phức tạp các câu hỏi:

  • Luật hiện hành nên áp dụng như thế nào?
  • Chúng ta nên làm gì với việc vi phạm bản quyền?
  • Người dùng AI có quyền gì?
  • Người tạo nội dung có quyền gì?
  • Ai sở hữu các tác phẩm do AI tạo ra?
  • Có nên sử dụng nội dung không có bản quyền để huấn luyện?
  • Người dùng có thể yêu cầu AI trích dẫn các tác phẩm được cấp phép và không được cấp phép mà nó được huấn luyện?

Làm sao chúng ta đến được điểm này một cách nhanh chóng như vậy? Một phần sự nhầm lẫn nằm ở tính mờ của mô hình generative AI.

Mô hình GPT trong ChatGPT

Tất cả đều bắt đầu từ "GPT" trong ChatGPT. GPT là viết tắt của generative pre-trained transformer. Một transformer không phải quá lớn - khoảng 2.000 dòng code. Nó về cơ bản tương đương với một khay trứng - mục đích chính là giữ "trứng", hoặc những thứ thực sự có giá trị đối với người tiêu dùng. Trong trường hợp của generative AI, "trứng" là biến số hoặc trọng số.

Đôi khi con người quên đi nơi mình học được cái gì đó, nhưng thường thì họ có thể nhớ và trích dẫn nguồn gốc. Khác với con người, ChatGPT và các nền tảng AI tạo ra không thể ghi nhớ bất kỳ thông tin nào mà chúng đã tiếp thu, cũng không thể trích dẫn nguồn. Có thể tồn tại một bản ghi ở nơi nào đó, nhưng không phải trong chính mô hình. Người dùng không thể viết một thông báo để trích dẫn dữ liệu đào tạo. Mô hình chỉ có một số và các biến số. Nó giống như một tập hợp các tế bào thần kinh, và những tế bào thần kinh giả ấy. Những mô hình này chỉ đơn giản là dự đoán thống kê từng từ tiếp theo dựa trên một số nội dung.

Vậy, làm sao chúng ta sẽ giải quyết vấn đề này?

Hiện nay, có nhiều cơ chế đang được khám phá để kiểm soát việc sử dụng các mô hình AI, nội dung tạo ra và hệ số trọng số:

  1. Quy định. Chính phủ có thể ban hành luật để kiểm soát cách sử dụng AI và đặt ra hình phạt cho việc vi phạm những luật đó.
  2. Giấy phép. Đây là một thỏa thuận pháp lý có thể mở rộng giữa người tạo ra và người tiêu dùng phần mềm, văn bản, hình ảnh, video, v.v. Phong trào mã nguồn mở đã được xây dựng trên những nguyên tắc "quyền" và "sự tự do" được thúc đẩy bởi giấy phép, nhưng trí tuệ nhân tạo đang tạo ra một sự thay đổi lớn ( Llama và ChatGPT không phải là mã nguồn mở) với việc chúng ta phải xem xét kỹ xem liệu tự do tuyệt đối có phải là giải pháp tốt nhất hay không.
  3. Hợp đồng. Người tạo ra nội dung và những người trả tiền cho sự sáng tạo của họ thường ký hợp đồng khi kinh doanh. Ví dụ, Hiệp hội nhà văn Hoa Kỳ quyền phương Tây đã đề xuất một "viên thuốc độc" trong hợp đồng để ngăn chặn việc bất kỳ nội dung nào do trí tuệ nhân tạo tạo ra được bảo vệ bản quyền. Mô hình kinh doanh của các hãng phim phụ thuộc vào tư liệu được bảo vệ bản quyền nên điều này sẽ làm khó khăn để sử dụng nội dung do trí tuệ nhân tạo tạo ra thay vì nhà văn con người.
  4. Khả năng kiểm soát kỹ thuật: Tương tự như trong lĩnh vực bảo mật, có một sự khác biệt giữa "chính sách" và "khả năng kiểm soát kỹ thuật". Ví dụ, có sự khác biệt lớn giữa việc yêu cầu mọi người phải thay đổi mật khẩu hàng ngày và buộc họ thay đổi mật khẩu khi cố gắng đăng nhập. Tương tự, nhiều công ty và nhà nghiên cứu AI đang cố gắng kiểm soát những gì một mô hình hoặc dịch vụ trí tuệ nhân tạo sẽ và không sẽ làm, nhưng người dùng lại tìm ra nhiều cách sáng tạo để thuyết phục trí tuệ nhân tạo làm những điều không được phép bằng cách sử dụng các cuộc tấn công tiêm prompt.

Tôi đặt nghi ngờ vào bất kỳ một trong số bốn phương pháp trên có thực sự kiểm soát được những gì mà con người có thể làm hoặc không thể làm với trí tuệ nhân tạo. Tuy nhiên, giống như mã nguồn mở, tôi nghĩ rằng việc có một giấy phép rõ ràng và được hiểu rõ sẽ là chìa khóa để được nhiều doanh nghiệp tiếp nhận rộng rãi.

Bài viết trên HBR mà tôi đã tham khảo trước đó cũng đồng ý, nhấn mạnh rằng việc cấp phép sẽ là chìa khóa để bảo vệ cả người tạo ra trí tuệ nhân tạo và người tiêu dùng. Nhưng làm thế nào để thực hiện điều đó?

Vùng hoang dã của trí tuệ nhân tạo

Sự hào hứng và hỗn loạn xung quanh trí tuệ nhân tạo tạo ra không khác gì những ngày đầu của mã nguồn mở. Và, những ngày đầu của mã nguồn mở giống như vùng hoang dã. Giấy phép được tạo ra và sử dụng mà không có sự giám sát, gây ra sự không chắc chắn và nhầm lẫn, đi ngược lại với mục đích của giấy phép. Vào cuối thập kỷ 90, Sáng kiến ​​Mã nguồn mở (OSI) đã tiếp quản và có thể nói, "Chúng tôi là những người phủ trách mọi thứ liên quan đến mã nguồn mở." Ngày nay, cả OSI và Quỹ Phần mềm Tự do đều xuất bản các định nghĩa về mã nguồn mở, được sử dụng để xác định sự phù hợp của các giấy phép mã nguồn mở.

Và trong khoảng 25 năm chúng tôi đã nghĩ rằng chúng tôi đã "hoàn tất" việc cấp phép mã nguồn mở. Nhưng vì Trí tuệ nhân tạo (và những thứ khác như nhà cung cấp dịch vụ đám mây), chúng tôi sẽ cần phải tái suy nghĩ về các chế độ cấp phép hoặc có thể tạo ra những chế độ cấp phép hoàn toàn mới. Có thể sẽ cần phải có các bản quyền cho trọng lượng (weights), các mô hình và dữ liệu đào tạo, vì nếu không có cách hiểu rõ các đầu vào và kết quả, điều này sẽ làm khó khăn cho các doanh nghiệp áp dụng.

Trí tuệ nhân tạo làm mờ những đường ranh giới này. Khi con người tạo ra kiến thức, dễ hiểu nguồn gốc và luật lệ về sở hữu kiến thức. Nhưng khi bạn bắt đầu bước vào các mô hình Trí tuệ nhân tạo, đó như là, OK, ai sở hữu những thứ đó nhỉ? Vì, cứ thật thà mà nói, có lý để nghĩ rằng không phải tất cả các mô hình đều được huấn luyện theo nội dung đã được chấp thuận để sử dụng như vậy. Thực tế, tôi nghĩ rằng có thể nói rằng nhiều mô hình này vi phạm bản quyền và các thỏa thuận cấp phép. Nhưng, làm thế nào để chứng minh điều đó? Nó chỉ là một loạt các con số trong một mô hình. Làm sao bạn có thể kiện ai đó trong tòa án về điều đó?

Giống như OSI đã làm với mã nguồn mở, OSI đã can thiệp để cố gắng đặt ra một số ngưỡng cửa an toàn trong việc này. Dự án "Deep Dive" của OSI đề xuất rằng "quan điểm truyền thống về việc mã nguồn mở thực hiện giải thuật Trí tuệ nhân tạo có thể không đảm bảo được khả năng kiểm tra và nhân bản các hệ thống Trí tuệ nhân tạo." OSI đã phát ra một loạt các podcast về chủ đề này và đang tổ chức bốn buổi hội thảo ảo nhằm "định ra một cuộc trò chuyện để khám phá những gì được chấp nhận đối với các hệ thống AI được 'Mã nguồn mở'." OSI thậm chí có một blog về kết quả từ cuộc thảo luận cộng đồng trực tiếp đầu tiên: "Những điều quan trọng từ hội thảo cộng đồng 'Xác định AI Mở'."

Nếu tất cả những điều này nghe thật rối rắm, điều đó là vì nó thực sự như vậy. Và cảnh quan đang thay đổi từng ngày. Đối với tổ chức, việc cập nhật tất cả tin tức và cố gắng tránh những lời quảng cáo và truyền động cơ sợ hãi, tập trung vào những gì có thể làm ngay lúc này để cân nhắc giữa lợi ích của Trí tuệ nhân tạo và quản trị và ngưỡng cửa.

Tôi đề nghị bạn chú ý đến công việc của OSI và thúc đẩy các nhà cung cấp mà bạn làm việc cùng nhau để giải thích những gì họ đang làm (và sẽ làm) để đảm bảo việc sử dụng Trí tuệ nhân tạo hiệu quả và đạo đức trong ngữ cảnh mã nguồn mở. Mục tiêu là cung cấp các ứng dụng được trang bị Trí tuệ nhân tạo với nguồn gốc đáng tin cậy.

(Và, cho biết, "Chúc mừng sinh nhật," mà đã tồn tại từ cuối thế kỷ 19, được xuất phát từ bài hát được viết bởi giáo viên Patty Hill và chị gái của cô, Mildred." Suốt mấy năm, nó đã là trung tâm của nhiều cuộc chiến bản quyền và hàng triệu đô la phí cấp phép. Hiện nó đang ở trong phạm vi công cộng.)

Tại Red Hat, Scott McCarty là quản lý sản phẩm cấp cao chuyên viên cho RHEL Server, có thể xem là doanh nghiệp phần mềm nguồn mở lớn nhất thế giới. Scott là một người có kinh nghiệm trong lĩnh vực startup mạng xã hội, người có kinh nghiệm lâu năm trong lĩnh vực thương mại điện tử, và là một nhà nghiên cứu công nghệ chịu đựng những khó khăn từng trải, có kinh nghiệm làm việc tại nhiều công ty và tổ chức khác nhau, từ các startup 7 người cho tới các công ty công nghệ có 12.000 nhân viên. Điều này đã tạo nên một góc nhìn độc đáo về phát triển, cung cấp và bảo trì phần mềm nguồn mở.

New Tech Forum cung cấp một nền tảng để khám phá và thảo luận về công nghệ doanh nghiệp mới nổi với độ sâu và độ phủ chưa từng có. Sự lựa chọn là một khía cạnh chủ quan, dựa trên việc chúng tôi chọn những công nghệ mà chúng tôi tin là quan trọng và thu hút sự quan tâm lớn nhất từ độc giả của InfoWorld. InfoWorld không chấp nhận tài liệu tiếp thị để xuất bản và có quyền chỉnh sửa nội dung đóng góp. Xin vui lòng gửi hàng điện tử tới [email protected].

Bản quyền © 2023 IDG Communications, Inc.