Gần một nửa những người đã thử nghiệm với trí tuệ nhân tạo tạo ra đều tin rằng câu trả lời của nó luôn đúng, và một số người đang sử dụng nó trong công việc mặc dù biết rằng nhà tuyển dụng của họ không tán thành.

ChatGPT của OpenAI được ra mắt dưới dạng giao diện web vào mùa đông năm ngoái, và số lượt tải vượt qua 100 triệu người dùng hàng tháng vào đầu năm nay, khiến nó trở thành ứng dụng phát triển nhanh nhất trong lịch sử. Đó là cho đến khi Meta ra mắt Twitter đối thủ Threads vào tuần trước, với 100 triệu người dùng trong vài ngày.

Microsoft đã tích hợp ChatGPT vào công cụ tìm kiếm Bing và các sản phẩm khác; Google cũng đã mở chat bot tương đương của mình, Bard, cho nhiều người dùng hơn vào tuần trước. Công nghệ này đang được lan truyền với mức hyped rất cao và nhiều người ở ngoài các mạng lưới công nghệ đã đưa ra những bước nhảy logic về sức mạnh của công nghệ, bao gồm khả năng tiêu diệt nhân loại.

Hãng tư vấn Deloitte đã nói chuyện với 4.150 người trưởng thành tại Vương quốc Anh, từ 16 đến 75 tuổi, về Ảnh hưởng của Người tiêu dùng Kỹ thuật số năm 2023, tạo ra một bức tranh về cách người ta nhìn nhận LLMs tạo ra và mức độ chúng được sử dụng trong lĩnh vực kinh doanh.

Có khoảng 52% người đã nghe nói về công nghệ này và 26% cho biết họ đã sử dụng nó, trong đó 43% trong số đó "sai lầm" khi giả định "rằng nó luôn đem lại câu trả lời chính xác về mặt thông tin".

"Chỉ sau vài tháng sau khi công cụ Trí tuệ Nhân tạo Tạo ra phổ biến nhất được ra mắt, một tư cách người trong bốn dân Anh đã thử nghiệm công nghệ này," ông Paul Lee, đối tác và trưởng nhóm nghiên cứu công nghệ, truyền thông và viễn thông của Deloitte, nói.

"Để so sánh, mất năm năm để các loa thông minh giọng nói đạt được cùng mức độ tiếp nhận. Rất hiếm khi một công nghệ mới nổi đạt được các mức độ tiếp nhận và tần suất sử dụng như thế này một cách nhanh chóng.

Trong số những người đã sử dụng các mô hình ngôn ngữ học máy sinh sản, 30 phần trăm thử nghiệm một hoặc hai lần, 28 phần trăm sử dụng hàng tuần, 9 phần trăm sử dụng mỗi ngày và 8 phần trăm sử dụng cho công việc - rõ ràng họ không làm việc tại Apple, Samsung, Amazon, Accenture hoặc các công ty khác đã cấm mô hình này.

Google đã lưu ý cho nhân viên của mình không tiết lộ thông tin mật của mình cho Bard, điều mà GCHQ đã cảnh báo từ nhiều tháng trước. Vào tháng Sáu, một nhóm tình báo đe dọa đã phát hiện thông tin xác thực ChatGPT trong khoảng 100.000 cuộn nhật ký đánh cắp đang được giao dịch trên web tối. Theo mặc định, ChatGPT lưu trữ lịch sử truy vấn của người dùng và các phản hồi trí tuệ nhân tạo, tạo ra những mục tiêu hấp dẫn cho tội phạm.

"Nhiều doanh nghiệp đang tích hợp ChatGPT vào quy trình hoạt động của họ. Nhân viên nhập vào các thư tín được phân loại hoặc sử dụng bot để tối ưu mã độc quyền," giám đốc tình báo mối đe dọa của Group-IB Dmitry Shestakov nói tại thời điểm đó.

OpenAI cho biết họ đang điều tra những cáo buộc nhưng khẳng định rằng đó là kết quả của "phần mềm độc hại thông thường trên các thiết bị của mọi người và không phải là một vi phạm của OpenAI."

Theo Deloitte's Lee, công nghệ này "vẫn còn khá mới mẻ, với giao diện người dùng, môi trường quy định, tình trạng pháp lý và độ chính xác vẫn còn là một công việc đang được tiến hành. Trong những tháng tới, chúng ta có thể sẽ chứng kiến sự đầu tư và phát triển hơn nữa để giải quyết nhiều thách thức này, từ đó có thể thúc đẩy việc áp dụng công cụ AI Sáng tạo hơn."

Deloitte tìm thấy nhân viên nhận thức được tiềm năng của việc sử dụng mô hình ngôn ngữ học máy sinh sản tại nơi làm việc, nhưng chỉ có 23 phần trăm nói rằng họ đã nhận được sự cho phép. Vì vậy, nhà tuyển dụng và các chuyên gia công nghệ cần thiết lập các quy tắc và nguyên tắc để quản lý việc sử dụng.

"Mọi người cần hiểu rõ ràng về rủi ro và không chính xác liên quan đến nội dung được tạo ra một cách hoàn toàn từ trí tuệ nhân tạo và, nếu có thể, được thông báo khi nội dung, chẳng hạn như văn bản, hình ảnh hoặc âm thanh, được tạo ra từ AI," ông Costi Perricos, đối tác kiêm lãnh đạo toàn cầu về AI và dữ liệu tại Deloitte cho biết. ®

Nhận được các tin tức công nghệ của chúng tôi