Các mô hình ngôn ngữ lớn và những trợ lý trí tuệ nhân tạo có khả năng tạo ra bài văn tự động, như ChatGPT, đã thu hút sự chú ý của công chúng, nhưng sĩ quan trưởng trực thuộc bộ Quốc phòng người đứng đầu phòng kỹ thuật số và trí tuệ nhân tạo đã bày tỏ lo lắng về tác hại sâu sắc mà những công cụ này có thể gây ra trên xã hội.
Craig Martell nói rằng, "Tôi sợ chết, về cách mà mọi người có thể sử dụng ChatGPT và các trợ lý trí tuệ nhân tạo khác."
Những công cụ này có thể trả lời thay thế cho bài luận học thuật và được đưa ra như một cách cải thiện đáng tin cậy hơn để trả lời cho các câu hỏi y tế của bệnh nhân, nhưng không luôn tạo ra nội dung chính xác vì chúng lấy từ các nguồn được tạo ra bởi con người.
Cũng từ đó, người ta lo ngại rằng đối thủ, muốn cho chạy chiến dịch tác động đến người Mỹ, có thể sử dụng những công cụ này để lan truyền thông tin sai lệch. Thật ra, nội dung mà các công cụ này tạo ra được viết một cách chuyên nghiệp đến mức nó có thể dễ dàng khiến người đọc tưởng tượng rằng nó là đáng tin cậy.
Theo Martell, mặc dù sử dụng những công cụ này có thể cảm nhận như một cuộc trao đổi với con người, song nó còn thiếu khả năng hiểu được ngữ cảnh như con người, đó là lý do tại sao phóng viên Aza Raskin có thể giả danh là một cô bé 13 tuổi và được LLM về cách tán tỉnh một người đàn ông 45 tuổi.
Quản lý phòng Kỹ thuật số và Trí tuệ nhân tạo, được Martell chỉ đạo chính yếu tố cốt lõi chịu trách nhiệm cho các nỗ lực của bộ Quốc phòng liên quan đến trí tuệ nhân tạo và tất cả các cơ sở hạ tầng máy tính và tổ chức dữ liệu liên quan đến các nỗ lực này.
Đối với công tác Phòng thủ, theo Martell, việc ưu tiên đầu tiên là đưa ra cơ sở hạ tầng chia sẻ dữ liệu và chính sách để cho quân đội có thể đạt được mục tiêu kiểm soát các lĩnh vực trên toàn mặt trận (JADC2).
Ông cũng nhấn mạnh trong phát triển Thông tin quân sự, giúp các chỉ huy chiến đấu có hiểu biết sâu rộng hơn về dữ liệu mà họ có, dữ liệu họ cần, và dữ liệu mà họ cần chia sẻ.
Theo Martell, sử dụng trí tuệ nhân tạo là cách thực hiện dễ dàng, tuy nhiên, không có khả năng theo dõi và đào tạo làm cho nó trở nên không an toàn. Nói cách khác, Trí tuệ nhân tạo theo ý kiến của Martell là một tài sản được điều khiển bởi con người.
Ông cảnh báo rằng người ta không cần quá phấn khích về tiềm năng của trí tuệ nhân tạo, đặc biệt là các công cụ trích dẫn dữ liệu của trí tuệ nhân tạo, nó không hoạt động tốt. Cái hoạt động tốt nhất là làm cho con người, chuyên gia trong lĩnh vực của họ, bảo cho máy biết đâu là A, đâu là B, và đâu là B.Và sau đó, những thông tin như vậy được đưa vào máy tự động để tạo ra một khuôn mẫu cho bạn.
Tuy nhiên, với Martell, không phải lúc nào cũng phản đối triển khai trí tuệ nhân tạo thậm chí là trong các trường hợp rất quan trọng. Sự lo lắng của ông chủ yếu là sự dễ dàng của việc sử dụng các công cụ này là một đánh dấu cho sự hiểu lầm rằng người dùng không cần phải làm việc chăm chỉ để đào tạo và giám sát chúng. Theo quan điểm của Martell, trí tuệ nhân tạo được coi là một tài sản được điều khiển bởi con người.
"Cuộc gọi của tôi đến các ngành công nghiệp: Đừng chỉ bán cho chúng tôi sản phẩm cải thiện, hãy làm việc về phát hiện," để người dùng và người tiêu dùng nội dung có thể phân biệt dễ dàng hơn giữa nội dung được tạo ra bởi trí tuệ nhân tạo và nội dung được tạo ra bởi con người.