Tóm tắt: Các nhà nghiên cứu phát hiện ra các mô hình trí tuệ nhân tạo (AI) thường không thể tái tạo chính xác quyết định của con người về việc vi phạm quy định, thường có xu hướng đưa ra những phán quyết nghiêm khắc hơn. Điều này được gán cho loại dữ liệu mà các mô hình này được đào tạo trên; thường được đánh dấu với mô tả chứ không phải đánh giá theo chuẩn, dẫn đến sự khác biệt trong việc hiểu và giải thích sự vi phạm quy định. Khác biệt này có thể dẫn đến những hậu quả nghiêm trọng, chẳng hạn như áp dụng những án phạt nghiêm khắc hơn trong pháp luật. Vì vậy, các nhà nghiên cứu đề nghị cải thiện tính minh bạch của tập dữ liệu và phù hợp ngữ cảnh đào tạo với tình huống triển khai để có được những mô hình chính xác hơn.

This shows a robot holding up the scales of justice.

Thông tin chính: Các mô hình học máy thường không tái tạo chính xác quyết định của con người về vi phạm quy định và có xu hướng đưa ra những phán quyết nghiêm khắc, theo những nhà nghiên cứu của MIT và các cơ quan khác. Sự khác biệt này xuất hiện từ loại dữ liệu được sử dụng để huấn luyện các mô hình: các mô hình được đào tạo với các nhãn được mô tả (xác định các tính năng thực tế) thay vì được đào tạo với các dữ liệu được đánh nhãn theo chuẩn (đánh giá vi phạm quy định) có xu hướng dự báo quy định vi phạm quá mức. Sự khác biệt trong hiệu suất của mô hình có thể có tác động đáng kể trong thực tế, chẳng hạn như dẫn đến những kết quả trong pháp luật nghiêm khắc hơn, điều này xác nhận nhu cầu cải thiện tính minh bạch của tập dữ liệu và phù hợp ngữ cảnh đào tạo với tình huống triển khai.

Nguồn gốc: MIT

Nhãn: Mục đích của việc cải thiện tính công bằng hoặc giảm hệ lụy, các mô hình học máy đôi khi được thiết kế để bắt chước quyết định của con người, chẳng hạn như quyết định liệu các bài đăng trên mạng xã hội có vi phạm chính sách nội dung độc hại hay không. Tuy nhiên, các nhà nghiên cứu của MIT và cơ quan khác phát hiện ra rằng những mô hình này thường không tái tạo chính xác quyết định của con người về việc vi phạm quy định. Nếu các mô hình không được đào tạo với dữ liệu chính xác, chúng có thể đưa ra những quyết định khác biệt, thường là những phán quyết nghiêm khắc hơn so với con người.