Phóng to / Hình ảnh OpenAI tạo ra bằng cách sử dụng DALL-E 3. Trong năm qua, các nghệ sĩ đã chiến đấu với các công ty đã huấn luyện trình tạo hình ảnh AI, bao gồm các công cụ phổ biến như Midjourney với khả năng tạo ra hình ảnh thực sống và đôi tay 5 ngón tay đầy ấn tượng hoặc phiên bản tiên tiến hơn của DALL-E 3 mà không có sự đồng ý hoặc bồi thường với các tác phẩm gốc của họ. Nay, Hoa Kỳ đã hứa sẽ nghiêm túc giải quyết những lo ngại bản quyền mà AI đã đưa ra, Tổng thống Joe Biden nói trong sắc lệnh của ông về AI được mong chờ, được ký trong tuần này.

An image OpenAI created using DALL-E 3.

Cơ quan Bản quyền Hoa Kỳ đã đã từng tìm kiếm ý kiến ​​công chúng về vấn đề liên quan đến AI trong vài tháng qua thông qua một kỳ bình luận kết thúc vào ngày 15 tháng 11. Sắc lệnh của Biden đã làm rõ rằng sau kỳ bình luận này, Cơ quan Bản quyền sẽ công bố kết quả nghiên cứu của mình. Sau đó, trong vòng 180 ngày kể từ ngày công bố đó - hoặc trong vòng 270 ngày kể từ sắc lệnh của Biden, "tùy theo điều gì diễn ra sau", Giám đốc Cơ quan Bản quyền sẽ hội ý với Biden để "đưa ra các khuyến nghị đối với Tổng thống về các hành động điều hành tiềm năng liên quan đến bản quyền và AI".

Những khuyến nghị sẽ đề cập đến bất kỳ vấn đề bản quyền và vấn đề liên quan nào được thảo luận trong nghiên cứu của Văn phòng Bản quyền Hoa Kỳ, bao gồm phạm vi bảo vệ cho các tác phẩm được sản xuất bằng trí tuệ nhân tạo và xử lý các tác phẩm có bản quyền trong quá trình đào tạo trí tuệ nhân tạo," như lệnh của Biden nêu rõ.

Điều đó có nghĩa là trong khoảng từ sáu đến chín tháng tiếp theo (hoặc lâu hơn), các nghệ sĩ có thể tìm được câu trả lời cho một số câu hỏi pháp lý lớn nhất của họ, bao gồm sự hiểu rõ hơn về cách bảo vệ tác phẩm của họ khỏi việc sử dụng để đào tạo mô hình trí tuệ nhân tạo.

Hiện tại, các nghệ sĩ không có nhiều lựa chọn để ngăn chặn các công cụ tạo hình ảnh AI, mà tạo hình ảnh dựa trên hướng dẫn văn bản của người dùng, tham khảo tác phẩm của họ. Ngay cả các công ty như OpenAI, gần đây đã cho phép nghệ sĩ chọn không bao gồm các tác phẩm của họ vào dữ liệu đào tạo trí tuệ nhân tạo, chỉ cho phép nghệ sĩ chọn không bao gồm dữ liệu đào tạo trong tương lai. Các nghệ sĩ không thể lựa chọn không bao gồm dữ liệu đào tạo cung cấp năng lượng cho các công cụ hiện có bởi vì, như OpenAI nói:

Sau khi mô hình trí tuệ nhân tạo đã học từ dữ liệu đào tạo, nó sẽ không còn truy cập vào dữ liệu đó. Các mô hình chỉ giữ các khái niệm mà chúng học được. Khi có yêu cầu từ mô hình, mô hình tạo ra kết quả dựa trên sự hiểu biết của nó về các khái niệm được đưa ra trong yêu cầu. Nó không tìm kiếm hoặc sao chép nội dung từ cơ sở dữ liệu tồn tại.

Theo The Atlantic, quy trình không tích cực này - yêu cầu nghệ sĩ gửi yêu cầu cho mỗi tác phẩm nghệ thuật và có thể quá phức tạp cho nhiều nghệ sĩ hoàn thành - để lại cho các nghệ sĩ chỉ có cách bảo vệ các tác phẩm mới mà "họ tạo ra từ lúc này trở đi." The Atlantic cảnh báo rằng, dường như quá muộn để bảo vệ bất kỳ tác phẩm nào "đã được những thiết bị tự động tuyên bố" vào năm 2023. Và vấn đề này rõ ràng ảnh hưởng đến nhiều người. Một người phát ngôn của Stability AI cho biết họ đã nhận được "hơn 160 triệu yêu cầu không bao gồm trong quá trình đào tạo sắp tới."

Cho đến khi các nhà quản lý liên bang xác định quyền của nghệ sĩ cần phải duy trì khi công nghệ trí tuệ nhân tạo phát triển nhanh chóng, ít nhất có một nghệ sĩ - họa sĩ châm biếm và minh họa Sarah Andersen - đang tiến hành lệnh vi phạm bản quyền trực tiếp đối với Stability AI, nhà sản xuất Stable Diffusion, một công cụ tổ hợp hình ảnh trí tuệ nhân tạo đáng chú ý.

Andersen, người làm đơn trong trường hợp tập hợp được đề xuất của mình có thể ảnh hưởng đến tất cả các nghệ sĩ, có khoảng một tháng để sửa bản cáo trạng của mình để "có khả năng khá hợp lý" trong cáo trạng của mình "về cách và có bao nhiêu nội dung được bảo vệ của Andersen vẫn còn trong Stable Diffusion hoặc được sử dụng bởi các sản phẩm cuối cùng của trí tuệ nhân tạo," một vị thẩm phán đã đề xuất.

Nói cách khác, theo quy định bản quyền hiện hành, Andersen có thể gặp khó khăn trong cuộc chiến pháp lý của mình nếu bà không chứng minh trước toà rằng hình ảnh với bản quyền đã được sử dụng để đào tạo các mô hình trí tuệ nhân tạo và chứng minh rằng những mô hình đó đã sử dụng những hình ảnh cụ thể đó để tạo ra các tác phẩm nghệ thuật giống như của bà.

The translation into Vietnamese:

"Việc trích dẫn những ví dụ cụ thể sẽ có ý nghĩa, một chuyên gia pháp lý cho biết với TechCrunch, vì tranh luận rằng công cụ AI mô phỏng phong cách có lẽ không thành công - bởi vì "phong cách đã chứng minh gần như không thể che chắn bằng bản quyền.

Vào cảnh sát của Andersen nói với Ars rằng vụ án của cô ấy là "phức tạp", nhưng họ vẫn tự tin rằng cô ấy có thể thắng, có thể là do, như các chuyên gia khác nói với The Atlantic, cô ấy có thể chứng minh rằng "chương trình sinh ra trí tuệ nhân tạo có thể giữ lại một lượng thông tin đáng kinh ngạc về một hình ảnh trong dữ liệu huấn luyện của chúng - đôi khi đủ để nhân bản nó gần như hoàn hảo". Nhưng cô ấy có thể thất bại nếu toà án quyết định việc sử dụng dữ liệu để huấn luyện mô hình trí tuệ nhân tạo là việc sử dụng hợp pháp của công trình nghệ thuật, một câu hỏi pháp lý vẫn chưa rõ ràng.

Trang 2

Luật bản quyền mạnh hơn có thể có lợi cho các công ty công nghệ lớn

Điều cuối cùng mà các công ty trí tuệ nhân tạo muốn làm tại thời điểm này, khi công cụ tạo hình ảnh đang trở nên phổ biến, là huấn luyện lại các mô hình trí tuệ nhân tạo, nhưng có khả năng chính phủ có thể yêu cầu điều đó một ngày nào đó.

Ngoài việc Biden đẩy mạnh việc cung cấp hướng dẫn bản quyền cần thiết vào năm tới, Ủy ban Thương mại Liên bang có thể có quyền can thiệp. Andrew Burt, một người sáng lập một công ty luật tập trung vào Trí tuệ Nhân tạo được gọi là BNH.ai, đã nói với TechCrunch rằng FTC đang "đang tiếp tục" những gì FTC gọi là "trả lại thông tin giống thuật toán" - nghĩa là FTC "buộc các công ty công nghệ phải loại bỏ các giải thuật gặp vấn đề cùng với bất kỳ dữ liệu trái phép nào mà họ đã sử dụng để huấn luyện chúng." Rồi có thể khá khả thi, nếu các nghệ sĩ kiện các nhà sản xuất Trí tuệ Nhân tạo hoặc Văn phòng Bản quyền cung cấp khuyến nghị như vậy, các cơ quan thực thi có thể một ngày nào đó ra lệnh cho các nhà sản xuất hình ảnh Trí tuệ Nhân tạo huấn luyện lại các mô hình chỉ bằng cách sử dụng dữ liệu được phép, có giấy phép.

Trong khi bảo vệ bản quyền mạnh mẽ như vậy có vẻ như là lợi cho các nghệ sĩ, điều đó có thể không tốt nhất cho lĩnh vực Trí tuệ Nhân tạo. The Atlantic cho biết các công ty áp dụng nhiều "phương án thân thiện với nghệ sĩ" thay vì không tham gia - như chia sẻ doanh thu hoặc yêu cầu nghệ sĩ tham gia để các tác phẩm của họ được tham khảo huấn luyện mô hình Trí tuệ Nhân tạo - có thể dẫn đến tình trạng áp đặt quyền lực hơn của các công ty công nghệ lớn chứ không có lợi cho các công ty nhỏ hơn. Điều đó có thể dẫn đến việc tập trung sức mạnh Trí tuệ Nhân tạo hơn vào tay chỉ có các công ty công nghệ lớn nhất, có thể hạn chế sự đổi mới trong khi làm sâu thêm túi tiền của các công ty Trí tuệ Nhân tạo đang chiến đấu trong các vụ kiện.

Trong khi máy móc quản lý chậm rãi xem xét cách tốt nhất để đối phó với những lo ngại bản quyền của Trí tuệ Nhân tạo, các nghệ sĩ kỳ vọng rằng có thể mất nhiều năm trước khi các luật thay đổi, như Bloomberg đã báo cáo. Và trong thời gian chờ đợi đó, một số nghệ sĩ sợ bị loại bỏ bởi các robot đang làm điều mà họ làm tốt nhất: Họ đang sáng tạo.

Thay vì dựa vào việc không tham gia vào các tập dữ liệu huấn luyện Trí tuệ Nhân tạo trong tương lai - hoặc như OpenAI đề nghị, chặn các trình thu thập web của người làm Trí tuệ Nhân tạo từ việc truy cập và thu thập dữ liệu trên trang web của họ trong tương lai - các nghệ sĩ đang tìm cách điều chỉnh hình ảnh của họ để ngăn mô hình Trí tuệ Nhân tạo hiểu sai nội dung của họ.

Quảng cáo Dịch vụ phát hành vào tháng Tám, có tên là Glaze, sửa đổi một chút các pixel trong từng tác phẩm hội họa của nghệ sĩ để đánh lừa mô hình Trí tuệ Nhân tạo nhìn thấy một phong cách nghệ thuật khác. Và người tạo công cụ đó, một giáo sư tại Đại học Chicago tên là Ben Zhao, đang phát hành một công cụ khác để giúp nghệ sĩ làm rối loạn hơn cách mà mô hình Trí tuệ Nhân tạo hiểu tác phẩm của họ.

Nightshade, theo Bloomberg cho biết sẽ được phát hành trong những tuần tới, sửa đổi hình ảnh của nghệ sĩ với ý định làm hỏng và phá hủy các mô hình huấn luyện Trí tuệ Nhân tạo, như Ars đã báo cáo tuần trước.

Nó hoạt động bằng cách lừa các mô hình Trí tuệ nhân tạo nhận diện sai đối tượng trong hình ảnh, và khi số lượng hình ảnh bị nhiễm độc được thêm vào dữ liệu huấn luyện tăng lên, mô hình Trí tuệ nhân tạo sẽ trở nên càng mơ hồ hơn theo lý thuyết.

Mục đích của công cụ này là để cân bằng thị trường giữa người huấn luyện mô hình và người tạo nội dung," Zhao cho biết trong một tuyên bố của mình cho Ars. "Hiện tại, người huấn luyện mô hình có toàn quyền sở hữu. Những công cụ duy nhất có thể làm chậm bước tiến của bộ thu thập dữ liệu là danh sách từ chối và chỉ thị không thu thập, nhưng tất cả đều là tùy chọn và dựa vào lương tâm của các công ty trí tuệ nhân tạo và tất nhiên không có gì có thể xác minh hoặc thi hành được và các công ty có thể nói một điều và làm một điều khác mà không phải chịu trách nhiệm. Công cụ này sẽ là công cụ đầu tiên cho phép chủ sở hữu nội dung phản đối một cách ý nghĩa đối với việc huấn luyện mô hình trái phép."

Đối với những người làm trí tuệ nhân tạo, việc sử dụng rộng rãi công cụ này có thể trở thành vấn đề gây khó khăn đến mức có thể buộc họ phải đào tạo lại mô hình của mình mà không có áp lực từ quy định.

Và cuối cùng, có thể có một cuộc tranh luận rằng các nhà làm trí tuệ nhân tạo cần những nghệ sĩ để ủng hộ quyết tâm của họ trong việc đổi mới. Nghệ sĩ cho rằng đáng lưu ý rằng các công cụ trí tuệ nhân tạo chỉ mạnh mẽ như các tác phẩm nghệ thuật gốc được sử dụng để huấn luyện chúng. Vì vậy, trong tương lai dài, các công ty trí tuệ nhân tạo có thể đặt mình vào rủi ro làm giảm giá trị của sản phẩm bằng cách làm cho những người nghệ sĩ bị lạc hậu, những người tác phẩm của họ vẫn là yếu tố quan trọng trong thành công của mô hình.

Các công ty trí tuệ nhân tạo sẽ phải làm rất nhiều việc nếu muốn làm điều chỉnh với những nghệ sĩ đang vật lộn để nhìn thấy làm sao mô hình trí tuệ nhân tạo không tranh cướp tác phẩm của họ. Những nghệ sĩ quyết tâm bảo vệ tác phẩm của mình đã mô tả cảm giác nhìn thấy máy móc tạo ra những "bản sao" ngụ ý mà không phải gánh chịu hậu quả như không chỉ "vi phạm cực đoan" mà còn "gây tức giận".