Khi trí tuệ nhân tạo (AI) ngày càng trở nên hiện thực hơn, sự tin tưởng của chúng ta vào những người mà chúng ta giao tiếp có thể bị đe dọa. Các nhà nghiên cứu tại trường Đại học Gothenburg đã nghiên cứu cách mà các hệ thống AI tiên tiến tác động đến sự tin tưởng của chúng ta vào các cá nhân mà chúng ta tương tác.

Trong kịch bản này, một kẻ lừa đảo, tin rằng mình đang gọi cho một người đàn ông già, thay vào đó được kết nối với một hệ thống máy tính giao tiếp thông qua các vòng lặp đã được ghi trước. Kẻ lừa đảo dành thời gian đáng kể để cố gắng gian lận, kiên nhẫn lắng nghe những câu chuyện hơi mơ hồ và lặp đi lặp lại của "người đàn ông" này. Oskar Lindwall, giáo sư truyền thông tại Đại học Gothenburg, quan sát thấy rằng thường mất rất nhiều thời gian cho mọi người để nhận ra họ đang tương tác với một hệ thống kỹ thuật.

Ông đã viết một bài báo có tựa đề Suspicious Minds: The Problem of Trust and Conversational Agent, phân tích cách mà các cá nhân bóc tách và liên quan đến các tình huống mà một trong các bên có thể là một đại diện của AI. Bài báo nhấn mạnh những hậu quả tiêu cực của việc mang theo nghi ngờ đối với người khác, chẳng hạn như khi được áp dụng vào mối quan hệ.

Ivarsson đưa ra một ví dụ về một mối quan hệ lãng mạn trong đó có vấn đề về sự tin tưởng, dẫn đến sự ghen tuông và xu hướng tăng cường tìm kiếm bằng chứng về sự gian lận. Các tác giả lập luận rằng không thể tin tưởng hoàn toàn vào ý đồ và danh tính của đối tác tương tác có thể dẫn đến sự nghi ngờ quá mức ngay cả khi không có lý do.

Cuộc nghiên cứu của họ phát hiện ra rằng trong quá trình tương tác giữa hai con người, một số hành vi được giải thích là dấu hiệu rằng một người trong số họ thực sự là robot.

Các nhà nghiên cứu cho rằng một quan điểm thiết kế thông thường đang thúc đẩy phát triển của AI với những đặc điểm giống con người ngày càng nhiều. Mặc dù điều này có thể hấp dẫn trong một số bối cảnh, nhưng cũng gây khó khăn đặc biệt khi chúng ta không rõ mình đang liên lạc với ai. Ivarsson đặt câu hỏi liệu AI có nên được giống giọng nói của loài người đến thế, vì chúng tạo ra một cảm giác thân mật và dẫn đến ấn tượng được forrming dựa trên giọng nói mà không cần quá nhiều thông tin khác.

Đối với trường hợp kẻ lừa đảo muốn gọi cho "cụ già", gian lận chỉ được phát hiện sau một thời gian dài, mà Lindwall và Ivarsson cho rằng điều này do giọng nói nhân văn và giả định hành vi lúng túng là do tuổi già. Một khi AI có giọng nói, chúng ta suy đoán các thuộc tính như giới tính, tuổi tác và nền kinh tế xã hội, làm cho việc xác định rằng chúng ta đang tương tác với một máy tính trở nên khó khăn hơn.

Các nhà nghiên cứu đề xuất tạo ra các AI có giọng nói hoạt động tốt và tự nhiên vẫn rõ ràng là tổng hợp, tăng tính minh bạch.

Giao tiếp với những người khác không chỉ liên quan đến việc gian lận mà còn liên quan đến xây dựng mối quan hệ và góp phần tạo nên ý nghĩa chung. Sự không chắc chắn về việc bạn đang nói chuyện với một con người hay một máy tính ảnh hưởng đến khía cạnh này của giao tiếp. Trong khi điều đó không quan trọng trong một số tình huống, chẳng hạn như trong phương pháp trị liệu hành vi - nhận thức, những hình thức trị liệu khác yêu cầu sự kết nối con người hơn có thể bị ảnh hưởng tiêu cực.

Jonas Ivarsson và Oskar Lindwall phân tích dữ liệu được đưa lên YouTube. Họ nghiên cứu ba loại cuộc trò chuyện và phản ứng và nhận xét của khán giả. Trong loại thứ nhất, một robot gọi cho một người để đặt lịch cắt tóc, mà người đó không biết gì về sự hiện diện của robot. Trong loại thứ hai, một người gọi cho một người khác với cùng mục đích. Trong loại thứ ba, nhân viên kinh doanh được chuyển sang một hệ thống máy tính với một bài nói đã được ghi trước.