Tóm tắt: Một nghiên cứu mới đi sâu vào cách các hệ thống AI tiên tiến ảnh hưởng đến sự tin cậy của chúng ta vào những người mà chúng ta tương tác với. Nghiên cứu phát hiện ra rằng một thị hiếu thiết kế mạnh mẽ đang thúc đẩy sự phát triển của AI với các tính năng ngày càng giống con người hơn. Mặc dù hấp dẫn trong một số bối cảnh, điều này có thể gây vấn đề khi không rõ liệu bạn đang được trò chuyện với một máy tính hay con người.
Nghiên cứu nghiên cứu ba loại cuộc trò chuyện và phản ứng và nhận xét của khán giả. Sự không chắc chắn liệu một người đang nói chuyện với một con người hay một máy tính ảnh hưởng đến khía cạnh này của giao tiếp. Điều này có tiềm năng ảnh hưởng đến mối quan hệ giữa con người, đặc biệt là trong các trường hợp điều trị tâm lý, và đặt ra các câu hỏi đạo đức quan trọng về phát triển AI.
Thông tin chính:
Các nhà nghiên cứu tại Đại học Gothenburg đã nghiên cứu cách các hệ thống AI tiên tiến ảnh hưởng đến sự tin cậy của chúng ta vào những người mà chúng ta tương tác với. Nghiên cứu phát hiện ra rằng trong các tương tác giữa hai con người, một số hành vi được diễn giải là dấu hiệu cho thấy một trong số họ đang thực sự là một robot. Các nhà nghiên cứu đề xuất tạo ra AI có giọng nói hoạt động tốt và trôi chảy vẫn rõ ràng là tổng hợp, tăng độ minh bạch.
Khi AI trở nên ngày càng phức tạp, sự tin cậy của chúng ta vào những người mà chúng ta tương tác có thể bị ảnh hưởng. Các nhà nghiên cứu tại Đại học Gothenburg đã nghiên cứu cách các hệ thống AI tiên tiến ảnh hưởng đến sự tin cậy của chúng ta vào những người mà chúng ta tương tác với.
Trong một kịch bản, một kẻ lừa đảo, tin rằng anh ta đang gọi đến một người đàn ông già, thực tế lại được kết nối với một hệ thống máy tính giao tiếp qua các vòng lặp được ghi trước. Kẻ lừa đảo dành nhiều thời gian cố gắng lừa đảo, kiên nhẫn lắng nghe những câu chuyện hơi lộn xộn và lặp đi lặp lại của "người đàn ông".
Oskar Lindwall, giáo sư truyền thông tại Đại học Gothenburg, quan sát rằng thường mất nhiều thời gian cho mọi người để nhận ra họ đang tương tác với một hệ thống kỹ thuật.
Ông đã, phối hợp với Giáo sư tin học Jonas Ivarsson, viết một bài báo mang tên “Suspicious Minds: The Problem of Trust and Conversational Agents”, nghiên cứu cách các cá nhân diễn giải và liên quan đến các tình huống khi một trong các bên có thể là một đại lý AI.
Bài báo nhấn mạnh các hậu quả tiêu cực của việc nuôi dưỡng nghi ngờ đối với người khác, chẳng hạn như sự tổn hại có thể gây ra cho các mối quan hệ.
Ivarsson đưa ra ví dụ về một mối quan hệ lãng mạn mà chuyện độ tin cậy dẫn đến sự ghen tuông và xu hướng tìm kiếm bằng chứng về sự lừa dối. Các tác giả lập luận rằng không thể hoàn toàn tin tưởng vào những ý định và danh tính đối tác trò chuyện sẽ dẫn đến sự nghi ngờ quá mức, ngay cả khi không có lý do cho nó.
Nghiên cứu của họ phát hiện ra rằng trong các tương tác giữa hai con người, một số hành vi được diễn giải là dấu hiệu cho thấy một trong số họ đang thực sự là một robot.
Các nhà nghiên cứu đề xuất rằng một thị hiếu thiết kế bao trùm đang thúc đẩy sự phát triển của AI với các tính năng ngày càng giống con người hơn. Mặc dù điều này có thể hấp dẫn trong một số ngữ cảnh, nhưng nó cũng có thể gây vấn đề, đặc biệt là khi không rõ bạn đang tương tác với ai.
Ivarsson đặt câu hỏi liệu AI có nên có giọng nói giống con người như vậy, vì chúng tạo ra cảm giác gần gũi và dẫn dắt con người hình thành ấn tượng dựa trên giọng nói một mình.
Điều truy cập với người khác không chỉ liên quan đến sự lừa dối, mà còn liên quan đến xây dựng mối quan hệ và tạo nên ý nghĩa chung. Sự không chắc chắn liệu một người đang nói chuyện với một máy tính hay con người ảnh hưởng đến khía cạnh này của giao tiếp.
Mặc dù điều này có thể không quan trọng trong một số tình huống, chẳng hạn như điều trị hành vi kognitiv, các hình thức điều trị khác đòi hỏi sự kết nối con người có thể bị ảnh hưởng tiêu cực.
Thông tin nghiên cứu:
Jonas Ivarsson và Oskar Lindwall phân tích dữ liệu được cung cấp trên YouTube. Họ nghiên cứu ba loại cuộc trò chuyện và phản ứng và nhận xét của khán giả. Trong loại đầu tiên, một robot gọi đến một người để đặt cuộc hẹn cắt tóc, mà người đó không hề biết. Trong loại thứ hai, một người gọi điện cho một người khác với mục đích tương tự. Trong loại thứ ba, các nhân viên bán hàng được chuyển sang một hệ thống máy tính có phát âm ghi trước.
Nhà văn: Thomas Melin
Nguồn: Trường Đại học Gothenburg
Liên hệ: Thomas Melin - Đại học Gothenburg
Hình ảnh: Hình ảnh được ghi nhận trên Neuroscience News
Nghiên cứu gốc: Được truy cập miễn phí. “Suspicious Minds: the Problem of Trust and Conversational Agents” của Jonas Ivarsson et al. Nghiên cứu hỗ trợ máy tính đồng hành (CSCW)
Trừ khi có đặc biệt yêu cầu, nội dung được dịch theo Google Translate.