Các trường học cung cấp tờ giấy cho phép để được sự đồng ý của phụ huynh cho học sinh tham gia các chuyến đi thực tế, học về sức khỏe sinh sản hoặc tham gia môn thể thao.

Tuy nhiên, một số chuyên gia cho biết các nhà lãnh đạo trường học nên xem xét việc thêm một rủi ro công nghệ vào danh sách đó: Sử dụng ChatGPT và các công cụ tương tự được cung cấp bởi trí tuệ nhân tạo.

Các học khu từng cấm ChatGPT—bao gồm New York City, thành phố lớn nhất nước đó—hiện đang trăn trở về cách sử dụng công cụ này để giúp học sinh hiểu rõ hơn về lợi ích và giới hạn của trí tuệ nhân tạo.

Tuy nhiên, khi mọi câu hỏi mà người dùng ChatGPT đặt ra đều được tích hợp vào mô hình huấn luyện trí tuệ nhân tạo của phần mềm, những lo ngại về quyền riêng tư xuất hiện, các chuyên gia cho biết. Và tình trạng này cũng áp dụng cho các sản phẩm trí tuệ nhân tạo sáng tạo khác dành cho học sinh.

Cho phép ChatGPT thu thập thông tin từ học sinh và sau đó sử dụng để phát triển công cụ sẽ vi phạm Family Educational Rights and Privacy Act (FERPA), tức Đạo luật Quyền riêng tư và Quyền lợi Giáo dục gia đình, cấm việc thu thập hoặc phân tích dữ liệu thông tin học sinh có thể xác định cho mục đích khác ngoài giáo dục, David Sallay, Giám đốc quyền riêng tư cho tuổi trẻ và giáo dục của Future of Privacy Forum, một tổ chức phi lợi nhuận nói.

chính sách riêng tư của ChatGPT cho biết công cụ này không dành cho người dùng dưới 13 tuổi và những người từ 13 đến 18 tuổi nên được sự cho phép của phụ huynh.

Tuy nhiên, ông dự đoán rằng nhiều học khu vẫn chưa tiến hành việc xin sự cho phép chính thức từ phụ huynh. "Tôi nghĩ rằng rất nhiều [trường] đang chỉ đơn giản sử dụng nó mà không nói cho ai biết," Sallay nói. "Đó là điều xảy ra với nhiều công nghệ giáo dục."

Trong năm học trước, học khu Peninsula gần Seattle đã thu thập tờ giấy cho phép học sinh sử dụng các công cụ trí tuệ nhân tạo như ChatGPT trong lớp học, Kris Hagel, Giám đốc điều hành học tập số của học khu, cho biết trong một buổi hội thảo của Education Week vào ngày 1 tháng 11 về trí tuệ nhân tạo.

Nhưng trong năm học này, "chúng tôi đã tự do hơn một chút," Hagel nói.

Thay vì yêu cầu tờ giấy cho mỗi học sinh, "chúng tôi cho phụ huynh biết từ đầu năm rằng học sinh lớp 8 trở lên của chúng tôi rất có thể sử dụng trí tuệ nhân tạo," ông nói. "Tôi nghĩ đó là một ý kiến tốt để cho phụ huynh biết điều gì đang diễn ra trong lớp học, những công cụ mà bạn đang sử dụng."

Việc xin sự cho phép của phụ huynh để học sinh sử dụng các công cụ trí tuệ nhân tạo là một động thái thông minh, theo Tammi Sisk, chuyên gia công nghệ giáo dục cho Công viên Trường học Công cộng Fairfax County, Virginia, người cũng tham gia như một thành viên trong buổi hội thảo của Education Week. Học khu của ông đang phát triển chính sách trí tuệ nhân tạo của mình.

"Tôi không thấy cách nào chúng ta tránh được việc xin sự cho phép của phụ huynh, đặc biệt nếu đó là một sản phẩm tiêu dùng như ChatGPT," Sisk nói. Công cụ này "cũng không rõ ràng về việc nó đang tiếp thu những gì.

Học sinh sử dụng một công cụ trí tuệ nhân tạo được thiết kế đặc biệt cho giáo dục - ví dụ như chatbot Khanmigo của Khan Academy - có thể trải qua môi trường được bảo vệ hơn, nhưng các giáo viên và nhà lãnh đạo trường học nên kiểm tra hướng dẫn về quyền riêng tư của từng công cụ trước khi quyết định làm gì, chuyên gia cho biết.

Việc cấp phép cũng mang lại lợi ích khác cho các trường học: giúp phụ huynh hiểu rõ hơn về cách trí tuệ nhân tạo được sử dụng trong lớp học, Stacey Hawthorne, giám đốc học vụ chính của Learn21, một tổ chức phi lợi nhuận chuyên về công nghệ giáo dục đã nói.

"Đây là một cơ hội thực sự tốt để có cuộc trò chuyện với phụ huynh về trí tuệ nhân tạo", Hawthorne nói trong buổi hội thảo của Education Week.

Vấn đề bảo mật dữ liệu tiềm ẩn khi sử dụng phép mơi

Tuy nhiên, các trường học không chỉ nên lấy được giấy phép từ phụ huynh và coi đó là xong, Amelia Vance, Chủ tịch của Trung tâm Quyền quan tâm Công cộng, một tổ chức phi lợi nhuận chuyên làm việc với vấn đề bảo mật dữ liệu của trẻ em và học sinh nói rằng.

Bất kể lứa tuổi của học sinh, điều tốt nhất mà giáo viên có thể làm "từ một quan điểm an toàn và trạng thái an sinh thực tế là giảng dạy cho trẻ em cách giới hạn hoặc giảm thiểu lượng thông tin cá nhân mà họ đưa vào dịch vụ", Vance nói.

Vance khuyến nghị các trường học khuyến cáo học sinh "tắt lịch sử của họ", một tính năng ChatGPT đã thêm vào trong mùa xuân cho phép người dùng đặt câu hỏi mà cuộc trò chuyện sau này không được sử dụng làm dữ liệu huấn luyện cho công cụ.

Học sinh cũng nên được cảnh báo không nhập vào những bài tiểu luận về chuyện đau lòng cá nhân, hoặc ngay cả thông tin đơn giản như tên trường học của họ, tuổi, nơi cư trú hoặc ngày sinh, Vance thêm vào.

Cô coi việc cung cấp loại lời khuyên đó như những cảnh báo mà nhiều người lớn, bây giờ đã ở độ tuổi 20 và 30, đã nghe khi còn ở trường trung học về việc không cung cấp quá nhiều thông tin cụ thể cho những người lạ trong phòng chat.

"Việc đảm bảo cho trẻ em biết những thông tin có thể nhận dạng được cá nhân và những thông tin họ có lẽ không nên đưa vào thậm chí khi [ChatGPT] nói rằng họ sẽ không giữ thông tin", Vance nói.

Trang 2 Trường học cấp phép cho phụ huynh đồng ý cho học sinh tham gia chuyến tham quan, học về sức khỏe sinh lý hoặc chơi thể thao.

Nhưng một số chuyên gia cho rằng nhà lãnh đạo trường học nên xem xét thêm một lo ngại về công nghệ vào danh sách đó: Sử dụng ChatGPT và các công cụ tương tự được cấp sức mạnh bởi trí tuệ nhân tạo.

Các quận học khu trước đây đã cấm ChatGPT - bao gồm cả thành phố New York, thành phố lớn nhất của nước - hiện đang tìm cách sử dụng công cụ để giúp học sinh hiểu rõ hơn về lợi ích và hạn chế của trí tuệ nhân tạo.

Tuy nhiên, khi mọi câu hỏi mà người dùng ChatGPT đặt được tích hợp vào mô hình huấn luyện trí tuệ nhân tạo của phần mềm, các vấn đề bảo mật về quyền riêng tư nảy sinh, các chuyên gia cho biết".

Và điều này cũng áp dụng cho các sản phẩm trí tuệ nhân tạo sáng tạo khác có sẵn cho sinh viên.

Cho phép ChatGPT thu thập thông tin từ học sinh để phát triển công cụ làm việc của chính nó có vẻ xung đột với Family Educational Rights and Privacy Act (FERPA), còn được biết đến là FERPA, cấm thu thập hoặc phân tích dữ liệu cá nhân của học sinh để mục đích khác ngoài giáo dục, David Sallay, giám đốc quyền riêng tư về thanh thiếu niên và giáo dục của Future of Privacy Forum, một tổ chức phi lợi nhuận, cho biết.

chính sách bảo mật của ChatGPT cho biết công cụ này không được dành cho bất kỳ ai dưới 13 tuổi và những người từ 13 đến 18 tuổi cần được sự cho phép từ phụ huynh.

Tuy nhiên, ông ấy dự đoán nhiều quận chưa tiến hành việc xin phép chính thức từ phụ huynh. "Tôi nghĩ rằng nhiều [trường học] đang sử dụng nó mà không thông báo cho ai", Sallay nói. "Đó là điều xảy ra với nhiều công nghệ giáo dục".

Trong năm học trước đó, quận Peninsula ở gần Seattle đã thu thập đơn xin phép cho phép học sinh sử dụng các công cụ trí tuệ nhân tạo như ChatGPT trong lớp học, Kris Hagel, giám đốc điều hành về học tập kỹ thuật số của quận, nói trong một buổi hội thảo trực tuyến Education Week vào ngày 1 tháng 11 về trí tuệ nhân tạo.

Nhưng trong năm học này, "chúng tôi đã coi nhẹ hơn một chút", Hagel nói.

Thay vì yêu cầu đơn xin phép cho mỗi học sinh, "chúng tôi thông báo cho phụ huynh từ đầu năm học rằng học sinh lớp 8 trở lên có thể sẽ sử dụng trí tuệ nhân tạo", ông nói. "Tôi nghĩ rằng thông báo cho phụ huynh biết điều gì đang diễn ra trong lớp học, những công cụ bạn đang sử dụng, là ý kiến tốt".

Việc xin phép của phụ huynh cho học sinh sử dụng công cụ trí tuệ nhân tạo là một động thái thông minh, Tammi Sisk, chuyên gia công nghệ giáo dục của Công viên Trường học Công cộng Fairfax ở Virginia, cũng là một thành viên ban trọng tài cho buổi hội thảo Education Week, nói. Quận học của cô vẫn đang phát triển chính sách trí tuệ nhân tạo của mình.

"Tôi không thấy cách nào chúng ta có thể không có sự cho phép của phụ huynh, đặc biệt nếu đó là một sản phẩm người tiêu dùng, như ChatGPT", Sisk nói. Công cụ này "cũng không rõ ràng về việc nó đang tiếp thu cái gì".

Học sinh sử dụng công cụ trí tuệ nhân tạo được thiết kế đặc biệt cho giáo dục — hãy nghĩ đến chatbot Khanmigo của Khan Academy, ví dụ — có thể trải qua một môi trường được bảo vệ hơn, nhưng giáo viên và nhà lãnh đạo trường học cần kiểm tra hướng dẫn bảo mật riêng tư của từng công cụ trước khi quyết định làm gì, các chuyên gia nói.

Việc xin phép cho học sinh một cách trực tiếp cung cấp lợi ích khác cho các trường học: Giúp phụ huynh hiểu rõ hơn về cách trí tuệ nhân tạo được sử dụng trong lớp học, Stacey Hawthorne, giám đốc học thuật chính của Learn21, một tổ chức phi lợi nhuận hỗ trợ các trường học trong việc sử dụng công nghệ giáo dục, nói.

"Đây là một cơ hội rất tốt để trò chuyện với phụ huynh về trí tuệ nhân tạo", Hawthorn nói trong buổi hội thảo trực tuyến Education Week.

Khả năng tồn tại vấn đề riêng tư dữ liệu tiềm ẩn trong việc xin phép trực tiếp

Nhưng các trường học không chỉ nên xin phép rồi kết thúc, Amelia Vance, chủ tịch của Trung tâm Quyền riêng tư lợi ích công chúng, một tổ chức phi lợi nhuận chuyên làm việc về việc bảo vệ dữ liệu cá nhân và dữ liệu của trẻ em và học sinh cho biết.

Bất kể độ tuổi của học sinh, điều tốt nhất mà các giáo viên có thể làm "từ một quan điểm về an toàn thực tế và quan điểm về sự an lành là giúp trẻ em biết cách hạn chế hoặc giảm thiểu lượng thông tin cá nhân mà họ đưa vào dịch vụ", Vance nói.

Vance khuyến nghị rằng các trường học nên khuyến cáo học sinh "tắt tính năng lịch sử", một tính năng mà ChatGPT đã thêm vào vào mùa xuân, cho phép người dùng đặt câu hỏi mà cuộc trò chuyện không được sử dụng sau này làm dữ liệu đào tạo cho công cụ.

Học sinh cũng nên được cảnh báo không nên đưa vào những bài văn về chấn thương cá nhân, hoặc thậm chí là thông tin đơn giản như tên của trường, tuổi, nơi ở hoặc ngày sinh của mình, Vance thêm.

Bà đã so sánh loại lời khuyên đó với những cảnh báo mà nhiều người trưởng thành—những người hiện đang ở độ tuổi 20 và 30—đã nghe từ thời giữa và cao trung về việc không cung cấp quá nhiều thông tin cụ thể cho những người lạ mà họ nói chuyện trong những phòng chat.

"Việc quan trọng là đảm bảo cho trẻ em biết những gì có thể xác định được cá nhân và những gì họ có thể không nên đưa vào ngay cả khi [ChatGPT] nói rằng họ sẽ không giữ lại thông tin", Vance nói.