Kể từ khi thành lập vào năm 1914, Ủy ban Thương mại Liên bang Hoa Kỳ đã đứng vững như một bức tường chống lại gian lận, lừa đảo và các hoạt động phi pháp mà người tiêu dùng Mỹ đối mặt hàng ngày - phạt các thương hiệu "cuỗm quyền đánh giá" các sản phẩm trên Amazon, giúp việc hủy đăng ký tạp chí dễ dàng hơn và chặn quảng cáo khai thác. Ngày Thứ Hai, Luật sư Michael Atleson, Phân ban Thực hành Quảng cáo của FTC, trình bày về cả lý do và những gì ủy ban sẽ làm đối với các công ty vi phạm những hệ thống trí tuệ nhân tạo sinh sản mới như ChatGPT và Dall-E 2 có thể được sử dụng để vi phạm tinh thần của Luật FTC về bất công.

"Theo luật FTC, một hành vi là bất công nếu nó gây thiệt hại nhiều hơn là ích cho người tiêu dùng", Atleson nói. "Nó là bất công nếu nó gây ra hoặc có khả năng gây ra thiệt hại đáng kể cho người tiêu dùng mà không thể tránh được bởi người tiêu dùng và không bù lại được bởi lợi ích đối với người tiêu dùng hoặc đối với sự cạnh tranh."

Anh ta nhấn mạnh rằng thế hệ mới của các trợ lý trò chuyện như Bing, Bard và ChatGPT có thể được sử dụng để ảnh hưởng đến "niềm tin, cảm xúc và hành vi" của người dùng. Chúng ta đã thấy chúng được sử dụng làm các nhà đàm phán trong mạng lưới cung cấp của Walmart và làm các nhà tư vấn tâm lý, cả hai nghề nghiệp này đặc biệt được thiết kế để ảnh hưởng đến những người xung quanh bạn. Khi kết hợp với tác động phổ biến của sự lệ thuộc vào tự động hóa, người dùng dễ dàng chấp nhận lời khuyên của một hệ thống trí tuệ nhân tạo giả định vô tư, và tượng nhân. "Mọi người có thể dễ dàng bị dắt mũi để nghĩ rằng họ đang trò chuyện với một thứ gì đó hiểu họ và ủng hộ họ", Atleson luận.

Anh ấy thừa nhận rằng các vấn đề liên quan đến công nghệ trí tuệ nhân tạo sinh sản xa có thể vượt ngoài tầm nhìn ngay của FTC, nhưng nhấn mạnh rằng nó sẽ không dung thứ với các công ty vô đạo đức sử dụng nó để lợi dụng người tiêu dùng. "Các công ty đang nghĩ về các ứng dụng mới của trí tuệ nhân tạo sinh sản, chẳng hạn như tùy chỉnh quảng cáo cho các cá nhân hoặc nhóm người cụ thể," luật sư FTC cảnh báo, "nên biết rằng các yếu tố thiết kế đánh lừa người dùng để lựa chọn các hành động có hại là một yếu tố phổ biến trong các vụ kiện FTC, chẳng hạn như các hành động gần đây liên quan đến các ưu đãi tài chính, các giao dịch trong trò chơi và các nỗ lực để hủy bỏ dịch vụ."

Các rào cản của FTC cũng áp dụng cho việc đặt các quảng cáo trong một ứng dụng trí tuệ nhân tạo sinh sản, tương tự như Google chèn quảng cáo vào kết quả tìm kiếm của mình. "Mọi người nên biết nếu phản hồi của một sản phẩm trí tuệ nhân tạo là đưa họ đến một trang web, nhà cung cấp dịch vụ hoặc sản phẩm cụ thể do quan hệ thương mại", Atleson viết. "Và, chắc chắn, mọi người nên biết liệu họ đang trò chuyện với một người thật sự hay một cái máy."

Cuối cùng, Atleson đưa ra một cảnh báo không mờ ám đối với ngành công nghệ. "Với những lo ngại này về việc sử dụng các công cụ trí tuệ nhân tạo mới, có lẽ đây không phải là thời điểm tốt nhất đối với các công ty xây dựng hoặc triển khai chúng để loại bỏ hoặc sa thải nhân viên chuyên dụng về đạo đức và trách nhiệm cho trí tuệ nhân tạo và kỹ thuật," ông viết. "Nếu FTC đến gọi và bạn muốn thuyết phục chúng tôi rằng bạn đã đánh giá đầy đủ các rủi ro và giảm thiểu các thiệt hại, những điều chỉnh này có thể không phải là một cái nhìn tốt." Đó là một bài học mà Twitter đã học theo cách khó khăn.