AI sắp được định tội con người

Thứ hai - 14/09/2020 07:29
AI sắp được định tội con người AI sắp được định tội con người

Một dự luật mới có thể được thông qua tại bang California, Mỹ. Các phạm nhân sẽ được đánh giá về khả năng phạm tội dựa vào một thuật toán còn đang tranh cãi.

Một dự luật mới có thể được thông qua tại bang California, Mỹ. Các phạm nhân sẽ được đánh giá về khả năng phạm tội dựa vào một thuật toán còn đang tranh cãi.

Bang California đang nỗ lực xóa bỏ phương pháp bảo lãnh truyền thống bằng tiền mặt. Họ muốn áp dụng một hệ thống bắt giữ người dựa trên các khuyến nghị từ thuật toán mang tên "dự đoán tội phạm". Tuy vậy, nhiều chuyên gia lo ngại vấn đề phân biệt đối xử sẽ nảy sinh.

Theo Dự luật 25, vào tháng 11 này, các thẩm phán sẽ được yêu cầu sử dụng một thuật toán, được gọi là "công cụ đánh giá rủi ro".

Phần mềm này dự đoán liệu một bị cáo có thể bỏ trốn nếu được phóng thích hay không. Nếu điểm “rủi ro” đủ cao, bị cáo sẽ bị bỏ tù. Họ không thể nộp tiền tại ngoại vì Dự luật này cũng loại bỏ tiến trình này.

Các chuyên gia cho biết, các thẩm phán có thể sửa đổi đề xuất của thuật toán dựa trên nhận định của mình. Tuy vậy, họ sẽ nghiêng về có xu hướng thay đổi đề xuất thả tù nhân, chứ ít khi thả tù nhân dù có khuyến nghị bỏ tù, John Raphling, nhà nghiên cứu cấp cao về quyền con người nhận định.

Dự luật đã giành được nhiều tán dương từ các nhà cải cách, theo đó đây là giải pháp khoa học để hạn chế sự phân biệt chủng tộc. Đồng thời, việc xóa bỏ cơ chế bảo lãnh tại ngoại sẽ giảm thiểu việc những người giàu có dùng tiền mua lấy tự do.

AI sắp được định tội con người 1
Tháng 11 này, các bị cáo sẽ được đánh giá bởi các thuật toán để quyết định việc tại ngoại hay không. (Ảnh: CTV News).

Tuy vậy, thuật toán dự đoán này bị lo ngại sẽ tạo ra những hệ thống phân biệt chủng tộc mới.

1/3 quận ở Mỹ từ lâu đã âm thầm sử dụng thuật toán tương tự để dự đoán tội phạm trước khi bắt đầu phiên sơ thẩm. Phần lớn các thuật toán được phát triển bởi các doanh nghiệp tư nhân.

Hannah Sassaman, giám đốc chính sách của Dự án Liên minh Phong trào tiết lộ rằng: “Thường sẽ không có bất kỳ thông báo hoặc thông cáo báo chí nào. Những công cụ này được sử dụng trong bóng tối".

Bang California từng nỗ lực để cấm bảo lãnh tiền mặt và ủng hộ sử dụng thuật toán trong trong Dự luật Thượng viện 10 (SB10) vào năm 2016 và nhanh chóng trở thành luật chính thức vào năm 2018.

Tuy nhiên bên ủng hộ phương pháp bảo lãnh truyền thống phản đối dự luật này và chỉ dừng lại khi Đề xuất 25 ra đời vào năm nay.

Ít nhất 49/58 quận của bang California đã trang bị các thuật toán đánh giá rủi ro nhưng trước đây chúng chỉ được sử dụng trong số ít trường hợp.

Pilar Weiss, giám đốc điều hành của Community Justice Exchange nói rằng: “Một số nơi hoàn toàn không ủng hộ các thuật toán này nhưng điều đó sẽ thay đổi theo dự luật SB10”.

Vẫn còn nhiều tranh cãi

SB10 được cho là sẽ không áp đặt tiêu chuẩn lên các thuật toán. Mỗi quận có thể xử lý dữ liệu khác nhau như cách mà họ vẫn đang làm.

Điển hình như việc hai quận đã sử dụng công cụ Đánh giá An toàn Công cộng (PSA), để xác định xem có nên giam giữ một ai đó hay không. Trong khi, quận Los Angeles lại sử dụng phiên bản sửa đổi của công cụ Hồ sơ quản lý phạm nhân cải tạo cho các hình phạt thay thế (COMPAS).

Các thuật toán tuy khác nhau về hình thức nhưng bản chất của chúng lại giống nhau: Đánh giá ai đó dựa trên tiền sử phạm tội trước đây của họ. Đây là các “sai sót không thể sửa chữa” của các thuật toán, theo Bernard Harcourt, giáo sư luật và khoa học chính trị tại Trường Luật Columbia.

Bởi vì các thuật toán đánh giá dựa trên số lần bị cảnh sát bắt giữ nhưng lại không quan tâm về hình thức bắt giữ và liệu một ai đó có bị bắt oan hay không.

Và cảnh sát Mỹ thường bị chỉ trích là nhắm vào người nghèo, người da đen, trẻ em da màu, người chuyển giới, người nhập cư và người bán dâm.

AI sắp được định tội con người 2
Cảnh sát Mỹ thường bị chỉ trích là nhắm vào người da đen, một sai sót tiềm năng của thuật toán dự đoán tội phạm. (Ảnh: Quarzt).

Các thuật toán còn được quảng cáo là một phương pháp hiệu quả và tiết kiệm chi phí để ngăn chặn tội phạm. Tuy nhiên theo giáo sư Harcourt “các thuật toán không dự đoán được hành vi, chúng chỉ đang dự đoán chính sách”.

Cũng như các hệ thống thuật toán dự đoán khác, thuật toán đánh giá rủi ro “nhúng” sự phân biệt đối xử đã tồn tại từ lâu.

Ví dụ, khi một thuật toán đánh giá trình độ học vấn hoặc công việc của một ai đó sẽ dựa trên các yếu tố như: chủng tộc, giai cấp và giới tính để quyết định về trình độ học vấn và thu nhập của người đó.

Các thẩm phán sau đó dựa vào đó để ấn định mức bảo lãnh cao hơn và thường gây áp lực buộc các bị cáo phải nhận tội. Những bị cáo bị bỏ tù vì không đủ khả năng chi trả tiền bảo lãnh đơn giản sẽ “nhận tội nhanh hơn và ít gây gổ hơn”, Raphling, một cựu luật sư ở California, cho biết.

AI sắp được định tội con người 3
Một nhóm biểu tình chống dự luật SB10 năm 2018. (Ảnh: San Francisco Chronicle).

Các thuật toán cũng thống kê các tiền án trước đây. Tỷ lệ vụ án hình sự được đưa ra xét xử tại California năm 2018 là 0.95%. Nếu SB10 trở thành luật, tỷ lệ này sẽ tăng lên.

“Hệ thống pháp luật sẽ tiếp tục bất công và lũng đoạn”, luật sư Raphling nói thêm.

Kể từ những năm 1920, khi các dự đoán tội phạm lần đầu tiên được sử dụng, hồ sơ tiền án đã được sử dụng như là một dự đoán tốt nhất về hành vi trong tương lai.

Ngay cả khi các dự đoán này chính xác, cuối cùng thuật toán không quyết định bỏ tù ai đó mà chính là hệ thống đạo đức xã hội và chính trị.

Giáo sư Harcourt cuối cùng kết luận rằng: “Chúng ta nên đầu tư vào ai đó được dự đoán sẽ phạm tội lần hai thay vì trừng phạt họ”.

Nguồn tin: khoahoc.tv


 
Tổng số điểm của bài viết là: 0 trong 0 đánh giá
Click để đánh giá bài viết
 

Những tin cũ hơn

Bình Luận Facebook
Showbiz
Tin thế giới
Thống kê truy cập
  •   Đang truy cập 78
  •   Máy chủ tìm kiếm 14
  •   Khách viếng thăm 64
 
  •   Hôm nay 12,190
  •   Tháng hiện tại 884,788
  •   Tổng lượt truy cập 78,888,767