Chỉ mất ít hơn năm phút trong một cuộc phỏng vấn với Tom Siebel trước khi tỷ phú công nghệ bắt đầu đẩy mạnh cảnh báo về những rủi ro của trí tuệ nhân tạo.

"Cách chiến tranh đang được tái tạo, tất cả những công nghệ mới này đều phụ thuộc rất nhiều vào trí tuệ nhân tạo," Siebel, CEO và người sáng lập của công ty phần mềm trí tuệ nhân tạo doanh nghiệp C3.ai, trả lời câu hỏi thứ hai từ tạp chí Fortune.

Công ty cung cấp ứng dụng trí tuệ nhân tạo cho các công ty dầu khí từ Shell đến Baker Hughes, cũng như cộng đồng Quốc phòng và Tình báo của Mỹ. Nhưng C3.ai sẽ không làm ăn với các quốc gia không phải đồng minh của các quốc gia dân chủ, bao gồm Trung Quốc và Nga, vì Siebel cho biết "họ sẽ lạm dụng các công nghệ này theo những cách mà chúng ta không thể tưởng tượng được."

MIT Sloan Management Review và Boston Consulting Group gần đây đã tổ chức một ban panel gồm các học giả và nhà thực hành trí tuệ nhân tạo, và câu hỏi cuối cùng mà họ đặt ra là: "Khi cộng đồng kinh doanh nhận thức được nguy cơ từ trí tuệ nhân tạo, các công ty có đầu tư đủ vào trí tuệ nhân tạo có trách nhiệm không?" Mười một người trong số 13 người không muốn đồng ý.

Trí tuệ nhân tạo đang thay đổi cách con người làm việc, giao tiếp, sáng tạo và trải nghiệm thế giới. Nhưng có rất nhiều thứ có thể xảy ra sai. Thiên vị trong trí tuệ nhân tạo xảy ra khi các quyết định được đưa ra một cách không công bằng đối với các nhóm người khác nhau. Những người chỉ trích lo ngại thiên vị có thể gây hại đặc biệt đối với các nhóm bị đẩy vào rìa xã hội. Trí tưởng tưởng nhận biết những mẫu hình mà con người không thể nhận thức được và tạo ra kết quả không chính xác. Sự biến dạng xảy ra khi các mô hình ngôn ngữ lớn thay đổi cách hoạt động một cách không thể đoán trước và yêu cầu điều chỉnh lại.

Người Mỹ lo lắng. Một cuộc khảo sát của Trung tâm Nghiên cứu Pew vào mùa hè năm nay cho thấy 52% lo ngại hơn là phấn khích về việc sử dụng trí tuệ nhân tạo ngày càng tăng. Tại nơi làm việc, người Mỹ phản đối việc sử dụng trí tuệ nhân tạo để đưa ra quyết định tuyển dụng cuối cùng với tỷ lệ 71% so với 7%. Phụ nữ có xu hướng nhìn nhận trí tuệ nhân tạo tiêu cực hơn nam giới.

Tuy nhiên, không phải tất cả đều đen tối và u ám. Một nửa trong số các tổ chức cho biết yếu tố rủi ro là một yếu tố quan trọng khi đánh giá các ứng dụng mới của trí tuệ nhân tạo. Một phần lớn người Mỹ không tin rằng việc sử dụng trí tuệ nhân tạo trong nơi làm việc sẽ ảnh hưởng lớn đến bản thân họ.

"Bạn không bao giờ nên đặt mục tiêu tự động hóa việc sa thải một nhóm công nhân," Steve Mills, quản lý đạo đức trí tuệ nhân tạo chính của BCG, phát biểu.

Điều này liên quan đến việc làm sao để bạn ghép người và trí tuệ nhân tạo cùng nhau để cải thiện công việc của họ, cho phép họ làm nhiều hơn và tận dụng sự sáng tạo và khéo léo của con người.

Trí tuệ nhân tạo hoạt động tốt nhất khi có sự giám sát từ con người. Nhiều công ty cho biết nhân viên của họ kiểm tra một cách nghiêm ngặt các mô hình trí tuệ nhân tạo mà họ tạo ra hoặc sử dụng và rằng quá trình được tiến hành để đảm bảo quyền riêng tư và an ninh dữ liệu. Các ông lớn công nghệ công khai chia sẻ triết lý trí tuệ nhân tạo có trách nhiệm của họ để giảm lo ngại về công nghệ đang phát triển nhanh chóng.

"Tôi lạc quan rằng trí tuệ nhân tạo sẽ là một công cụ hợp tác mà công nhân sẽ sử dụng," Todd Mobley, người đại diện cho nhà tuyên án cho DLA Piper, nói. "Nhưng nó phải là một quá trình liên tục, thích nghi với sự thảo luận, đào tạo và kiểm tra các công cụ để đảm bảo chúng được sử dụng cho những lý do thích hợp. Và công cụ không tạo ra những hậu quả không mong muốn."

"Chúng tôi cho rằng trí tuệ nhân tạo có thể rất mạnh mẽ để tự động hóa nhiều nhiệm vụ, ngay cả việc tự động hóa quyết định, nhưng ở một thời điểm nào đó bạn muốn có một con người dự phần xác nhận cách quyết định được thực hiện," Rob Thomas, phó chủ tịch phần mềm và ủy viên thương mại hàng đầu tại IBM, nói.

Thomas nhấn mạnh rằng phải có sự minh bạch về cách trí tuệ nhân tạo được xây dựng và dữ liệu đến từ đâu. Quy định nên giám sát các trường hợp sử dụng trí tuệ nhân tạo, nhưng không phải phát triển công nghệ. Sự quản trị cơ bản là cần thiết để hiểu cách mô hình hoạt động.

Với mục tiêu đó, trước cuối năm nay, IBM sẽ đưa watsonx.governance [sic] vào sử dụng để giúp doanh nghiệp theo dõi và quản lý hoạt động trí tuệ nhân tạo của họ, và sử dụng tự động hoá phần mềm để giảm thiểu rủi ro, đáp ứng yêu cầu quy định, và giải quyết những mối quan ngại về đạo đức. "Ý định của chúng tôi là cung cấp phần mềm và khả năng cho phép bất kỳ công ty nào đưa ra niềm tin vào trí tuệ nhân tạo," Thomas nói.

Vào tháng 9, công ty phần mềm Đức SAP đã trình làng một trợ lý trí tuệ nhân tạo generative mới mang tên Joule, được nhúng vào các ứng dụng từ chuỗi cung ứng, tài chính đến mua hàng. Người dùng của một số sản phẩm SAP có thể đặt câu hỏi hoặc đưa ra vấn đề và nhận câu trả lời trí tuệ nhân tạo dựa trên dữ liệu kinh doanh trong toàn bộ danh mục SAP và nguồn bên thứ ba.

Thomas Saueressig, người điều hành nhóm kỹ thuật sản phẩm SAP và nỗ lực phát triển trí tuệ nhân tạo có đạo đức, cho biết việc nhận thức rằng thiên hướng có tồn tại trong các mô hình ngôn ngữ lớn và SAP dành nguồn lực cho các biện pháp hạn chế để đảm bảo những đề xuất của Joule tránh thiên hướng. Saueressig nói rằng việc phát triển trí tuệ nhân tạo phải tập trung vào con người. "Chúng tôi tin rằng đây là sự hòa duet, không phải tổ duệ."

Tất cả nhân viên SAP đã ký kết chính sách về đạo đức trí tuệ nhân tạo của công ty từ đầu năm 2022. "Chúng tôi có một tầm nhìn rất rõ ràng về giá trị bảo vệ dữ liệu và quyền riêng tư," Saueressig nói.

Tony Habash cho rằng trí tuệ nhân tạo sẽ thay đổi một cách đáng kể cách thức thực hành tâm lý học của những nhà tâm lý trị liệu. Là người đứng đầu điều hành thông tin chủ tịch Hiệp hội Tâm lý học Mỹ, Habash nhìn thấy những ứng dụng có lợi từ việc sử dụng trí tuệ nhân tạo, từ việc ghi chú được cung cấp sức mạnh bởi AI, đến việc cung cấp chỉ số điều trị để nhà tâm lý trị liệu sử dụng để cải thiện chất lượng chăm sóc. Cũng có tiềm năng để trí tuệ nhân tạo mang đến sự tiến bộ trong nghiên cứu y học và làm cho dịch vụ chăm sóc sức khỏe trở nên dễ tiếp cận hơn bằng cách giảm chi phí.

"Chúng tôi cho rằng thay đổi lớn nhất trước mắt của chúng ta là mối quan hệ giữa con người và máy móc," Habash nói. Lịch sử, con người đã phải học các ngôn ngữ lập trình như Java để nói với máy móc về việc phải làm gì. "Và sau đó, chúng ta thức dậy và máy móc nói chung ngôn ngữ của chúng ta với trí tuệ nhân tạo sinh tạo." Habash nói rằng điều này đặt ra những câu hỏi đạo đức về việc con người có thể tạo ra sự tự tin, các phương pháp làm tốt nhất và hướng dẫn cho tương tác giữa con người và máy móc.

"Nhà trị liệu làm việc với hệ thống trí tuệ nhân tạo sẽ cần hiểu rõ cách nó hoạt động, nó được xây dựng cho mục đích gì và cách sử dụng trí tuệ nhân tạo để cải thiện chất lượng dịch vụ chăm sóc sức khỏe và bảo đảm sự an lành của bệnh nhân," Sunil Senan, phó chủ tịch cao cấp và trưởng phòng dữ liệu, phân tích và trí tuệ nhân tạo toàn cầu của Infosys nói.

Có những cách mà trí tuệ nhân tạo (AI) có thể giúp con người hành xử tốt hơn theo cách con người. Hãy lấy ví dụ về tính năng "Bạn Chắc Chưa?" của Match Group. Sử dụng AI, ứng dụng hẹn hò Tinder của Match đã có thể nhận dạng các cụm từ có thể gây vấn đề và cảnh báo người gửi rằng tin nhắn mà họ sắp gửi có thể xúc phạm. Tương tự, "Điều Này Có Làm Bạn Phiền Không?" là một thông điệp gợi ý mà người nhận có thể sử dụng để báo cáo ngôn ngữ gây hại cho Match.

Những tính năng này đã giúp giảm bị quấy rối trên ứng dụng, và Match đã mở rộng tính năng "Bạn Chắc Chưa?" sang 18 ngôn ngữ ngày nay. "Những người nhìn thấy thông báo này và thay đổi tin nhắn của họ thì ít có khả năng bị báo cáo", Rory Kozoll, phó chủ tịch cấp cao của nền tảng trung tâm và công nghệ cho Match Group cho biết. "Những mô hình này thực sự ấn tượng với khả năng hiểu biết sự tinh tế và ngôn ngữ."

Khi quỹ vốn rủi ro M12 của Microsoft tìm kiếm đầu tư, nó tìm kiếm các công ty khởi nghiệp có thể triển khai công nghệ một cách có trách nhiệm. Với mục tiêu đó, M12 đã đầu tư vào Inworld, công ty tạo ra nhân vật ảo được cung cấp bởi trí tuệ nhân tạo trong các trò chơi nhập vai không được kiểm soát bởi con người. Những cuộc trò chuyện ảo này có thể trở nên xấu đi và trở nên độc hại, nhưng Inworld đặt ra các nguyên tắc nghiêm ngặt về những gì có thể được nói, cho phép nó làm việc với các khách hàng thân thiện với gia đình như Disney.

"Tôi luôn cảm thấy tốt hơn khi đi ngủ biết rằng các công ty mà chúng tôi đã đầu tư có một đường dẫn rõ ràng về việc sử dụng dữ liệu, dữ liệu được đưa vào mô hình, dữ liệu mà mô hình được đào tạo trên đó, và sau cùng là việc sử dụng mô hình sẽ tuân theo các hướng dẫn và quy tắc an toàn từ pháp lý và thương mại", Michael Stewart, đối tác tại M12 mô tả.

Ally Financial, ngân hàng all-digital lớn nhất tại Hoa Kỳ, sử dụng trí tuệ nhân tạo trong việc xác minh thông tin khách hàng và các trò chuyện tự động. Khi triển khai trí tuệ nhân tạo, Ally thử nghiệm với các khách hàng nội bộ và luôn có sự tham gia của con người. Sathish Muthukrishnan, giám đốc thông tin, dữ liệu và kỹ thuật số của Ally Financial, cho biết công nghệ AI được sử dụng trong các trò chuyện tự động phải nói chính xác như cách mà một nhân viên liên kết sẽ tương tác với khách hàng.

"Các mô hình AI đang học cách tránh thiên vị, và chúng ta có trách nhiệm dạy chúng điều đó", Muthukrishnan nói.

Một số công ty khởi nghiệp AI đang nổi lên nhằm xây dựng niềm tin hơn vào công nghệ này. Vào tháng 9, Armilla AI ra mắt chính sách bảo hành cho các sản phẩm AI với các công ty bảo hiểm như Swiss Re để cung cấp cho khách hàng xác minh bên thứ ba rằng AI mà họ đang sử dụng là công bằng và an toàn. "Một mô hình hoạt động rất tốt đúng vì nó có thiên vị", Karthik Ramakrishnan, đồng sáng lập và CEO của Armilla AI giải thích. Ông nói rằng thiên vị không phải là một từ tiêu cực vì AI phải được đào tạo dựa trên dữ liệu để suy nghĩ theo cách nhất định.

"Nhưng điều chúng tôi lo lắng là cách mà mô hình xử lý các nhóm dân chủng và tình huống khác nhau", Ramakrishnan cho biết.

Credo AI là một dịch vụ quản trị trí tuệ nhân tạo cung cấp sự giám sát tự động, giảm thiểu rủi ro và tuân thủ quy định về AI. Phần mềm này đảm bảo tính chịu trách nhiệm và giám sát cho toàn bộ ngăn xếp công nghệ của khách hàng, giúp xác định rõ ràng ai là người xem xét hệ thống; liệu có một ủy ban đạo đức và ai là thành viên của nó; và cách hệ thống được kiểm tra và phê duyệt.

"Các nhà lãnh đạo doanh nghiệp thậm chí không biết AI được sử dụng thực sự ở đâu trong tổ chức của chính họ", giám đốc điều hành và người sáng lập Credo AI, Navrina Singh nói.

“Họ có hồ sơ về các mô hình nhưng không có hồ sơ về các ứng dụng.”

Tại C3.ai, Siebel vẫn lo lắng về việc AI rơi vào tay sai. Quyền riêng tư là mối quan tâm lớn nhất của ông. Siebel cho biết xã hội nên đồng lòng rằng AI không nên lạm dụng thông tin cá nhân, lan truyền nguy hiểm về sức khỏe xã hội, can thiệp vào quy trình dân chủ hay được sử dụng cho các ứng dụng quân sự nhạy cảm mà không có sự giám sát dân sự. Còn đối với sự thiên vị, đó là một vấn đề khó khăn hơn để giải quyết.

"Chúng ta có hàng trăm năm lịch sử trong nền văn minh phương Tây," Siebel nói. "Không có gì ngoài sự thiên vị. Có thể là giới tính, có thể là nguồn gốc dân tộc, có thể là chủng tộc. Hãy nói cho tôi chúng ta sẽ làm thế nào để khắc phục nó? Nó không thể khắc phục được.