Microsoft đã phải nhận nhiều chỉ trích khi đóng đội ngũ và đội ngũ đạo đức và xã hội trong trí tuệ nhân tạo (AI) của họ vào tháng Ba năm 2023. Điều đó không phải là tốt vì các scandal bao trùm AI xảy ra gần trùng với thời điểm đó, nhưng công ty đã giải thích cách họ dự định giữ cho các nỗ lực trong tương lai của họ là có trách nhiệm và được kiểm soát.
Trong một bài đăng trên trang web On the Issues của Microsoft vào tháng 5 năm 2023, Natasha Crampton - Giám đốc trách nhiệm AI của công ty - giải thích rằng đội ngũ đạo đức đã được giải tán vì "Một đội hoặc một kỷ luật duy nhất được giao trách nhiệm với trí tuệ nhân tạo đạo đức và có trách nhiệm không đáp ứng các mục tiêu của chúng tôi."
Thay vào đó, Microsoft đã áp dụng cách tiếp cận mà họ đã áp dụng với các đội về quyền riêng tư, an ninh và truy cập và "cài đặt AI có trách nhiệm trên toàn công ty". Trong thực tế, điều này có nghĩa là Microsoft có nhân viên cấp cao "được giao trách nhiệm đầu tiên về AI có trách nhiệm trong từng nhóm kinh doanh chính", cũng như "một mạng lưới lớn các nhà vô địch trách nhiệm AI với nhiều kỹ năng và vai trò để tham gia trực tiếp thường xuyên hơn."
Ngoài ra, Crampton cho biết Microsoft có "gần 350 người làm việc về AI có trách nhiệm, với hơn một phần ba trong số đó (129 chính xác) được cấp phép làm việc toàn thời gian; số dư có trách nhiệm AI có trách nhiệm là một phần chính của công việc của họ. "
Sau khi Microsoft đóng đội ngũ đạo đức và xã hội của mình, Crampton lưu ý rằng một vài thành viên của nhóm sau đó được cài đặt vào các nhóm trên toàn công ty. Tuy nhiên, bảy thành viên của nhóm đã bị sa thải là một phần của việc cắt giảm việc làm rộng lớn của Microsoft, với hàng nghìn người thất nghiệp vào đầu năm 2023.
Đọc thêm: https://www.digitaltrends.com/computing/microsofts-responsible-ai-approach-after-ethics-team-controversy/
AI đã không hoàn toàn miễn phí các scandal trong những tháng gần đây, và những lo ngại đó đã gây ra phản ứng quyết liệt sau khi Microsoft giải tán đội ngũ đạo đức AI của mình. Nếu Microsoft thiếu một đội ngũ chuyên môn để giúp định hướng các sản phẩm AI của mình vào hướng có trách nhiệm, tư tưởng nó đi là, nó sẽ gặp khó khăn trong việc kiềm chế các hình thức lạm dụng và hành vi đáng tò mò mà chatbot Bing của nó đã trở nên nổi tiếng.
Bài đăng mới nhất của công ty này chắc chắn nhắm đến việc giảm bớt những lo ngại đó trong cộng đồng. Thay vì từ bỏ toàn bộ nỗ lực của AI, có vẻ như Microsoft đang cố gắng đảm bảo các nhóm trên toàn công ty có liên hệ thường xuyên với các chuyên gia trong lĩnh vực AI có trách nhiệm.
Tuy nhiên, không thể phủ nhận rằng việc đóng đội ngũ đạo đức và xã hội AI của Microsoft không diễn ra tốt, và có khả năng Microsoft vẫn cần phải đi một quãng đường dài để làm dịu tâm trí của khách hàng về chủ đề này. Thực sự, ngay cả Microsoft cũng nghĩ rằng ChatGPT - nhà phát triển của nó, OpenAI, được sở hữu bởi Microsoft - nên được quy định.
Chỉ trong hôm qua, Geoffrey Hinton - "ông trùm của AI - đã bỏ Google và nói với New York Times rằng anh ta có những nghi ngờ nghiêm trọng về tốc độ và hướng dẫn của sự mở rộng AI, trong khi một nhóm các chuyên gia công nghệ hàng đầu đã ký tên vào một bức thư mở gọi để tạm dừng phát triển AI để các rủi ro của nó có thể được hiểu rõ hơn.
Microsoft có thể không nghĩ về các lo ngại về sự phát triển AI có trách nhiệm, nhưng liệu cách tiếp cận mới của họ có đúng không vẫn cần phải chờ xem. Sau khởi đầu gây tranh cãi của Bing Chat, Natasha Crampton và các đồng nghiệp của cô ấy sẽ hy vọng mọi thứ sẽ thay đổi để tốt hơn.