Nhà phát triển Trí tuệ Nhân tạo (AI) phải phát triển và triển khai các hệ thống giải quyết ám ảnh thuật toán ngay lập tức, theo Kathy Baxter - Kiến trúc sư Chính của Thực hành Trí tuệ Nhân tạo Đạo đức tại Salesforce. Trong một cuộc phỏng vấn với ZDNET, Baxter nhấn mạnh nhu cầu đại diện đa dạng trong bộ dữ liệu và nghiên cứu người dùng để đảm bảo các hệ thống AI lành mạnh và không thiên vị. Bà cũng nhấn mạnh sự quan trọng của việc làm cho các hệ thống AI minh bạch, dễ hiểu và có trách nhiệm trong khi bảo vệ sự riêng tư cá nhân. Baxter nhấn mạnh sự cần thiết cho sự hợp tác giữa các ngành khác nhau, giống như mô hình được Sở Tiêu chuẩn và Công nghệ Quốc gia (NIST) sử dụng, để chúng ta có thể phát triển các hệ thống AI vững chắc và an toàn mang lại lợi ích cho tất cả mọi người.

Một trong những câu hỏi cơ bản trong đạo đức AI là đảm bảo các hệ thống AI được phát triển và triển khai mà không tăng cường những định kiến xã hội hiện có hoặc tạo ra những định kiến mới. Để đạt được điều này, Baxter nhấn mạnh tầm quan trọng của việc hỏi ai được lợi và ai trả tiền cho công nghệ AI. Việc xem xét các bộ dữ liệu được sử dụng và đảm bảo chúng đại diện cho các tiếng nói của tất cả mọi người là rất quan trọng. Điều quan trọng khác là tính toàn vẹn trong quá trình phát triển và xác định các hại lớn thông qua nghiên cứu người dùng.

Thậm chí, tiền đề thông qua các bộ dữ liệu được sử dụng để huấn luyện các hệ thống AI có thể được lồng vào trong các hệ thống AI. Các bộ dữ liệu không đại diện chứa đựng các thiên vị, chẳng hạn như bộ dữ liệu hình ảnh với nhiều chủng tộc khác nhau hoặc thiếu sự khác biệt văn hóa, có thể d导致 các hệ thống AI bất công. Hơn nữa, áp dụng các hệ thống AI không đồng đều trong xã hội có thể làm tiếp tục hoặc tạo ra các khuôn mẫu xã hội hiện có.

Để làm cho các hệ thống AI minh bạch và dễ hiểu đối với nhân viên trung bình, đặt sự ưu tiên cho khả năng giải thích trong quá trình phát triển là chìa khóa. Các kỹ thuật như "prompt chuỗi suy nghĩ" có thể giúp các hệ thống AI hiển thị công việc của họ và làm cho quá trình ra quyết định của họ dễ hiểu hơn. Nghiên cứu người dùng cũng rất quan trọng để đảm bảo các giải thích rõ ràng và người dùng có thể xác định các bất định trong nội dung được tạo ra bởi AI.

Việc bảo vệ sự riêng tư cá nhân của cá nhân và đảm bảo việc sử dụng AI có trách nhiệm yêu cầu tính minh bạch và đồng ý. Salesforce tuân theo các hướng dẫn cho Trí tuệ Nhân tạo sinh sản có trách nhiệm, bao gồm tôn trọng nguồn dữ liệu và chỉ sử dụng dữ liệu khách hàng sau khi được họ đồng ý. Cho phép người dùng chọn tham gia, không tham gia hoặc kiểm soát việc sử dụng dữ liệu của họ rất quan trọng cho sự riêng tư.

Với sự cạnh tranh về đổi mới trong Trí tuệ Nhân tạo sinh sản ngày càng tăng, việc giữ chế độ kiểm soát và tự chủ của con người đối với các hệ thống AI ngày càng tự động hơn là càng quan trọng hơn bao giờ hết. Việc trang bị cho người dùng có thể đưa ra quyết định có hiểu biết về việc sử dụng nội dung được tạo bởi AI và giữ một người làm giữa vòng lặp có thể giúp giữ chế độ kiểm soát.

Đảm bảo hệ thống AI an toàn, đáng tin cậy và dễ sử dụng là rất quan trọng; việc hợp tác trên toàn ngành là cần thiết để đạt được điều này. Baxter ngợi khen khung quản lý rủi ro AI do NIST tạo ra, bao gồm hơn 240 chuyên gia từ nhiều lĩnh vực khác nhau. Tiếp cận hợp tác này cung cấp một ngôn ngữ và khung cho việc xác định rủi ro và chia sẻ giải pháp.

Không giải quyết các vấn đề AI đạo đức này có thể có hậu quả nghiêm trọng, như những trường hợp sai sót nhận dạng khuôn mặt dẫn đến bị bắt sai hoặc tạo ra các hình ảnh gây hại. Đầu tư vào các biện pháp bảo vệ và tập trung vào hiện tại, chứ không chỉ tập trung vào các nguy cơ tiềm năng trong tương lai, có thể giúp giảm thiểu các vấn đề này và đảm bảo sự phát triển và sử dụng AI trách nhiệm.

Ngoài ra: Làm thế nào để ChatGPT hoạt động

Trong khi tương lai của AI và khả năng của trí tuệ nhân tạo tổng quát là những chủ đề hấp dẫn, Baxter nhấn mạnh tầm quan trọng của việc tập trung vào hiện tại. Đảm bảo việc sử dụng AI có trách nhiệm và giải quyết các định kiến xã hội ngay bây giờ sẽ giúp xã hội chuẩn bị tốt hơn cho các tiến bộ AI trong tương lai. Bằng cách đầu tư vào các thực hành AI đạo đức và hợp tác trên các ngành công nghiệp khác nhau, chúng ta có thể giúp tạo ra một tương lai an toàn, bao gồm công nghệ AI.

"Tôi nghĩ rằng thời gian quan trọng rất nhiều", Baxter nói. "Chúng ta thực sự phải đầu tư vào hiện tại và tạo ra trí nhớ cơ bắp này, tạo ra những tài nguyên này, tạo ra các quy định cho phép chúng ta tiếp tục tiến bộ nhưng lại làm điều đó một cách an toàn."