Trí tuệ nhân tạo sinh sản đã thu hút sự chú ý trong suốt năm qua - đặc biệt là ChatGPT - mà Reuters đã đưa tin phá vỡ kỷ lục về phần mềm ứng dụng tiêu dùng tăng trưởng nhanh nhất trong lịch sử vào tháng Hai vừa qua. ChatGPT có thể thực hiện các nhiệm vụ khác nhau, chẳng hạn như tạo văn bản và đáp ứng câu hỏi.
Lần đầu tiên trong mùa thu này, các giáo sư khác nhau đã trình bày các chính sách về việc sử dụng trí tuệ nhân tạo sinh sản trong các lớp học, như giáo sư David McPherson, một giáo sư ngành khoa học máy tính. Ông nói rằng trường đại học yêu cầu các giảng viên đưa thông tin về trí tuệ nhân tạo sinh sản vào giấy giới thiệu môn học.
"Ừ, chúng có trong giấy giới thiệu môn học," McPherson nói. "Tôi nghĩ chúng tôi sử dụng gần như liệu pháp mẫu từ Tech. Họ đã có một số ngôn ngữ về trí tuệ nhân tạo sinh sản, cho phép hoặc không cho phép, hoặc cấm hoàn toàn, vì vậy chúng tôi sử dụng một cách nào đó là 'Đừng sử dụng trừ khi chúng tôi nói được'."
Cụ thể, Học tập nâng cao công nghệ và Chiến lược trực tuyến khuyến nghị "một cách tiếp cận có chừng mực" và đưa ra các gợi ý cho giảng viên để tuân thủ, bao gồm làm quen với trí tuệ nhân tạo để được thông tin tốt hơn, xác định kỳ vọng với sinh viên về việc sử dụng trí tuệ nhân tạo và khám phá những thay đổi trong thiết kế khóa học và đánh giá.
TLOS cũng khuyến nghị giáo sư xem xét Luật đạo đức và cách áp dụng nó vào trí tuệ nhân tạo.
"Trong khi hầu hết sinh viên thường tham gia vào hành vi trung thực trong lớp học, một số có thể chọn sử dụng các công cụ như ChatGPT để tham gia vào hành vi gian lận học thuật," Văn phòng Trung thực Học thuật cấp dưới nói, theo TLOS. "Xin tiếp tục rõ ràng với kỳ vọng của bạn đối với sinh viên liên quan đến Luật đạo đức và việc sử dụng phần mềm trí tuệ nhân tạo giống như bạn sẽ làm với các trang web khác có thể cung cấp cho sinh viên các phương tiện tham gia vào hành vi gian lận học thuật. Việc sử dụng trái phép ChatGPT và các phần mềm trí tuệ nhân tạo khác có thể rơi vào một số định nghĩa về gian lận học thuật trong Luật đạo đức Cử nhân."
McPherson nói ông có thể sử dụng nhận xét cá nhân của mình để xác định xem một sinh viên có sử dụng trí tuệ nhân tạo để tạo mã hay không, vì nó sẽ trông lạ. Tuy nhiên, điều này không đủ để vi phạm Luật đạo đức.
"Cá nhân tôi không thể nói chắc chắn 100% rằng điều này đã được viết bởi ChatGPT hay điều gì khác," McPherson nói. "Tôi có thể nghĩ rằng đây là một code nhìn rất kỳ lạ, và sau đó có thể theo dõi người đó và xem họ làm gì hoặc nói chuyện với họ. Chúng tôi chắc chắn đã làm điều đó khi một sinh viên có vẻ khó khăn trong việc hiểu các khái niệm, rồi đột ngột anh ta đến với chúng tôi với một piece code thật sự tuyệt vời. Và chúng tôi nghĩ rằng 'Làm thế nào bạn đã đi từ việc không biết cơ bản đến việc viết những đoạn code thật tuyệt vời như vậy? Từ đâu và như thế nào? Giải thích cho chúng tôi về code.' Và đôi khi họ có thể. Có lẽ họ đã tập trung và tìm hiểu cách làm điều này.
Hoặc có lẽ họ đã thuê ai đó, nhưng chúng tôi cố gắng nói chuyện với họ trong trường hợp đó trước khi chúng tôi làm bất cứ điều gì.
Alice Jang, một giáo sư trợ giảng về công nghệ thông tin kinh doanh, sử dụng trí tuệ nhân tạo trong khóa học của mình. Jang sử dụng Packback để đăng lên bảng thảo luận, phần mềm này sẽ chấm điểm bài viết bằng cách sử dụng thuật toán trí tuệ nhân tạo. Jang cũng khuyến khích việc sử dụng ChatGPT cho các sinh viên của mình, đặc biệt khi họ cần hiểu các khái niệm khó khăn. Tuy nhiên, sinh viên không được phép sử dụng nó khi hoàn thành nhiệm vụ trong lớp học.
"Nếu bạn viết trước trên ChatGPT rằng 'Tối ưu hóa tuyến tính là gì?' Và thêm vào đó là 'Okay, giải thích bằng (một) ví dụ mà một sinh viên đại học không biết về thống kê hoặc chưa học bất kỳ lớp tối ưu nào cũng có thể hiểu được điều này,' thì ChatGPT sẽ làm rất tốt trong việc giải thích ở mức độ học sinh đó. Vì vậy, tôi rất khuyến khích họ sử dụng nó," Jang nói.
Jang nói rằng khả năng sinh viên lạm dụng ChatGPT trong lớp học của cô là rất thấp do nó chỉ là một mô hình ngôn ngữ, tức là nó xác định xác suất từ bằng cách phân tích dữ liệu văn bản. Trong lớp học của mình, Jang giảng dạy về các mô hình thống kê và tối ưu hóa, mà theo cô, không liên quan đến mô hình ngôn ngữ.
Chủ tịch Hội đồng giảng viên và giáo sư hóa học Joseph Merola chưa có chính sách về ChatGPT hoặc trí tuệ nhân tạo khác cho sinh viên của mình vì ông không thấy sinh viên của mình có thể sử dụng trí tuệ nhân tạo để tận dụng trong lớp học. Tuy nhiên, sinh viên trong một trong các lớp học của ông sẽ được giao một bài tiểu luận vào cuối kỳ học.
"Vì vậy, mặc dù tôi chưa có chính sách trong lúc này, tôi sẽ có thể hướng dẫn họ vào cuối, khi họ viết bài để cho biết điều gì họ nên và không nên làm với ChatGPT," Merola nói. "Và để trung thực với bạn, vì nó vẫn là một điều tôi đang phát triển trong đầu mình, tôi không thực sự biết tôi sẽ nói gì."
Trên giáo trình của giáo sư sáng tạo Matthew Vollmer, ông nói với sinh viên rằng các máy phát sinh trí tuệ nhân tạo được phép để tư duy sáng tạo ý tưởng, nghiên cứu và phản hồi.
"Và nếu họ sử dụng nó, hãy nói với tôi vì tôi tò mò về cách họ có thể sử dụng nó. Theo quan điểm của tôi, họ không sử dụng nó lắm, và dường như nhiều người trong số họ e sợ sử dụng nó," Vollmer nói.
Vollmer nói rằng việc sử dụng trí tuệ nhân tạo để tạo ra ý tưởng không làm suy giảm khả năng viết của một người tác giả vì nhà văn luôn sử dụng các nguồn tài nguyên để lấy cảm hứng.
"Hãy nói bạn có một câu chuyện, và có một bối cảnh trong một câu lạc bộ jazz ở New York City," Vollmer nói. "Vì vậy, bạn xem các hình ảnh Google, jazz rock, và đó là cách mà nó được thiết lập. Mô tả những gì tôi thấy trong hình ảnh đó và bạn sử dụng nó. Có nghĩa là, nhà văn sử dụng các công cụ tìm kiếm và internet để tìm hiểu về nhiều điều, vì vậy tôi không thấy điều đó khác biệt nhiều."
Vollmer cũng nói rằng trí tuệ nhân tạo không luôn tạo ra ý tưởng tốt nhất, điều này có thể dẫn đến việc người viết sử dụng nó như một nguồn cảm hứng để tạo ra những ý tưởng tốt hơn.
Sinh viên trong các lớp học của Vollmer chỉ bị cấm sử dụng trí tuệ nhân tạo để ngụy trang thành chính họ khi viết. Tương tự như quan điểm của McPherson về mã phát sinh trí tuệ nhân tạo, Vollmer nói rằng khi trí tuệ nhân tạo tạo ra văn bản, có thể dễ dàng nhận biết được, nhưng ông không thể chắc chắn hoàn toàn.
Cuối cùng, Vollmer không nghĩ rằng trí tuệ nhân tạo sẽ thay thế nhà văn.
"Nó không hoạt động một mình. Nó cần sự khởi xướng," Vollmer nói.
Sẽ luôn có yếu tố con người (đối với những người viết). Điều này có thay đổi cách chúng ta viết không? Chắc chắn có. Nhưng trong việc nghĩ về cách thúc đẩy nó để làm những việc đòi hỏi một sản phẩm đầu ra tốt bằng bất kỳ cách nào, bạn sẽ cần sự tưởng tượng và trực giác - những điều mang tính con người.
Vollmer cũng chủ trì một nhóm công tác trong khoa Anh ngữ. Theo ông, Kelly Pender, hiệu trưởng khoa, đã quyết định thành lập nhóm công tác này để đánh giá những thách thức và cơ hội khi làm việc với trí tuệ nhân tạo (AI) phát triển nhanh hơn người ta nhận ra. Vì AI là một mô hình ngôn ngữ, các giảng viên liên tục nhận được thông tin cập nhật về khả năng của AI và cách mà sinh viên có thể sử dụng hoặc lạm dụng nó. Nhóm công tác là một cách để thảo luận về cách tiếp cận và suy nghĩ về những vấn đề này.
Ngoài Vollmer, Jennifer Lawrence, giám đốc Trung tâm Viết văn; Julie Mengert, giám đốc Chương trình Viết văn Đại học; Jimmy Ivory, giáo sư tiếng Anh; và Avery Wiscomb, giáo sư tiếng Anh cũng tham gia nhóm công tác. Theo Vollmer, nghiên cứu của Ivory và Wiscomb có liên quan đến công nghệ và tính toán.
Dan Dunlap, giáo sư khoa Khoa học Máy tính tập trung vào đạo đức trong lĩnh vực máy tính và công nghệ, so sánh sự bùng nổ của trí tuệ nhân tạo với sự công nghiệp hóa. Ông cho biết rằng mặc dù có nỗi sợ rằng máy móc sẽ thay thế con người, nhưng Dunlap nghĩ ngược lại đã xảy ra. Tuy nhiên, vẫn còn rất nhiều điều chưa biết về AI.
“Nó đã thay đổi các loại công việc khác nhau, các loại lao động khác nhau, và chắc chắn (AI) sẽ là trường hợp ở đây,” Dunlap nói. “Chúng ta không thể dự đoán được điều đó sẽ như thế nào và sẽ có rất nhiều hậu quả không mong muốn, và cách mà AI và các mô hình ngôn ngữ lớn và tất cả những thứ khác liên quan đến việc thay thế, đã và đang làm. Có một nỗi sợ rằng nó đang làm rất nhiều hơn chúng ta nghĩ. Chúng ta đang đọc những gì chúng ta nghĩ là do con người viết và trong nhiều trường hợp, có sử dụng AI sinh sản ở một số nơi trong những gì chúng ta tiêu thụ, và không chỉ đọc, mà còn là gợi ý và tất cả những thứ khác mà những mô hình này đang tham gia.”
Merola tin rằng để người ta sử dụng AI, phần mềm cần phải thích nghi với con người.
“Bởi vì để sử dụng AI một cách hiệu quả, chúng ta cần đảm bảo rằng các chương trình đã được điều chỉnh với tính nhân văn của chúng ta, và do đó các ngành nghệ thuật phải là một phần quan trọng của điều này. Nếu chúng ta sử dụng nó để tạo ra nghệ thuật, có lẽ điều này là rõ ràng rằng chúng ta cần có các nghệ sĩ và nhà nhân văn, nhưng nếu một cái gì đó cố gắng hiểu được phản ứng của con người đối với một điều gì đó, có lẽ nó phải được lập trình với hiểu biết về phản ứng của con người đó. Và vì vậy, không chỉ dành cho nhà khoa học, mà hầu hết mọi trải nghiệm của con người.”