(SeaPRwire) – Liệu AI có thể được sử dụng để làm cho hệ thống tư pháp hình sự công bằng và hiệu quả hơn hay nó sẽ chỉ củng cố những thành kiến có hại? Các chuyên gia cho rằng cho đến nay nó đã được triển khai theo những cách đáng lo ngại—nhưng có tiềm năng tác động tích cực.
Ngày nay, công nghệ AI đã chạm đến hầu hết mọi khía cạnh của hệ thống tư pháp hình sự. Nó đang được sử dụng trong các hệ thống nhận dạng khuôn mặt để xác định nghi phạm; trong các chiến lược “cảnh sát dự đoán” để xây dựng các tuyến tuần tra; trong phòng xử án để hỗ trợ quản lý vụ việc; và bởi các luật sư bào chữa công để sàng lọc bằng chứng. Nhưng trong khi những người ủng hộ chỉ ra sự gia tăng hiệu quả và công bằng, thì các nhà phê bình lại đặt ra những câu hỏi nghiêm trọng về quyền riêng tư và trách nhiệm giải trình.
Tháng trước, Council on Criminal Justice đã khởi động một tổ chức phi đảng phái về AI, để nghiên cứu cách AI có thể được sử dụng trong hệ thống tư pháp hình sự một cách an toàn và có đạo đức. Công việc của nhóm sẽ được hỗ trợ bởi các nhà nghiên cứu tại RAND, và cuối cùng họ sẽ lấy những phát hiện của mình và đưa ra các khuyến nghị cho các nhà hoạch định chính sách và cơ quan thực thi pháp luật.
“Không có nghi ngờ gì rằng AI có thể mang lại những kết quả không công bằng,” Nathan Hecht, chủ tịch lực lượng đặc nhiệm và cựu Chánh án Tòa án Tối cao Texas, cho biết. “Lực lượng đặc nhiệm này muốn tập hợp các chuyên gia công nghệ, những người làm việc trong lĩnh vực tư pháp hình sự, những người trong cộng đồng, các chuyên gia trong nhiều lĩnh vực khác nhau, và thực sự ngồi lại để xem chúng ta có thể sử dụng nó như thế nào để làm cho hệ thống tốt hơn và không gây ra những tác hại mà nó có thể gây ra.”
Rủi ro của AI trong thực thi pháp luật
Nhiều tòa án và sở cảnh sát đã sử dụng AI, Hecht nói. “Nó rất rời rạc: Những người tò mò nói rằng, ‘Ồ, wow, có AI ngoài kia, chúng ta có thể sử dụng nó trong tòa án hình sự.’”
Nhưng vì có rất ít tiêu chuẩn về cách triển khai AI, nên các tổ chức giám sát quyền dân sự ngày càng lo ngại rằng các cơ quan thực thi pháp luật đang sử dụng nó theo những cách nguy hiểm. Hàng ngàn cơ quan đã phải dựa vào công nghệ nhận dạng khuôn mặt do các công ty như Clearview bán, nơi lưu trữ một cơ sở dữ liệu gồm hàng tỷ hình ảnh được thu thập từ internet. Trong nhiều cơ sở dữ liệu, người da đen bị đại diện quá mức, một phần vì họ sống trong các cộng đồng bị cảnh sát tuần tra quá mức. Công nghệ AI cũng kém hiệu quả trong việc phân biệt sự khác biệt trên khuôn mặt của người da đen, điều này có thể dẫn đến tỷ lệ nhận dạng sai cao hơn.
Năm ngoái, Innocence Project, một tổ chức phi lợi nhuận về luật pháp, phát hiện ra rằng đã có ít nhất bảy vụ bắt giữ oan sai từ công nghệ nhận dạng khuôn mặt, sáu trong số đó liên quan đến những người da đen bị buộc tội oan. Walter Katz, giám đốc chính sách của tổ chức, nói rằng cảnh sát đôi khi thực hiện các vụ bắt giữ chỉ dựa trên kết quả nhận dạng khuôn mặt của AI thay vì để AI đóng vai trò là điểm khởi đầu cho một cuộc điều tra lớn hơn. “Có sự phụ thuộc quá mức vào kết quả đầu ra của AI,” ông nói.
Katz nói rằng khi ông đến một hội nghị về hoạt động cảnh sát vào mùa thu năm ngoái, “AI có mặt ở khắp mọi nơi.” Các nhà cung cấp đang tích cực chào bán các công cụ công nghệ tuyên bố giải quyết các vấn đề thực tế trong sở cảnh sát. “Nhưng khi đưa ra lời chào mời đó, có rất ít sự chú ý đến bất kỳ sự đánh đổi hoặc rủi ro nào,” ông nói. Ví dụ, các nhà phê bình lo lắng rằng nhiều công cụ AI này sẽ làm tăng cường giám sát các không gian công cộng, bao gồm cả việc theo dõi những người biểu tình ôn hòa—hoặc cái gọi là các điểm nóng dự đoán sẽ tăng cường các cuộc đàn áp của cơ quan thực thi pháp luật đối với các khu vực bị cảnh sát tuần tra quá mức.
Nơi AI có thể giúp ích
Tuy nhiên, Katz thừa nhận rằng AI có một vị trí trong hệ thống tư pháp hình sự. “Sẽ rất khó để loại bỏ AI—và có những nơi AI có thể hữu ích,” ông nói. Vì lý do đó, ông đã tham gia lực lượng đặc nhiệm AI của Council on Criminal Justice. “Trước hết là nắm bắt được tốc độ áp dụng nhanh như thế nào. Và nếu mọi người đều hiểu rằng việc không có bất kỳ chính sách nào có lẽ là một vị trí sai lầm, thì chúng ta sẽ xây dựng từ đó.”
Hecht, chủ tịch lực lượng đặc nhiệm, thấy một số lĩnh vực mà AI có thể hữu ích trong phòng xử án, ví dụ, bao gồm cải thiện quy trình tiếp nhận cho những người bị bắt, hoặc giúp xác định ai đủ điều kiện tham gia các chương trình chuyển hướng, cho phép người phạm tội tránh bị kết án. Ông cũng hy vọng lực lượng đặc nhiệm sẽ đưa ra các khuyến nghị về những loại sử dụng AI nào không nên được phê duyệt rõ ràng trong tư pháp hình sự và các bước để bảo vệ quyền riêng tư của công chúng. “Chúng tôi muốn cố gắng tập hợp các chuyên môn cần thiết để trấn an người dùng sản phẩm và công chúng rằng điều này sẽ làm cho trải nghiệm của bạn với hệ thống tư pháp hình sự tốt hơn—và sau đó, nó sẽ để bạn yên,” ông nói.
Trong khi đó, rất nhiều nỗ lực độc lập khác đang cố gắng sử dụng AI để cải thiện các quy trình tư pháp. Một công ty khởi nghiệp, JusticeText, hy vọng sẽ sử dụng AI để thu hẹp khoảng cách giữa các nguồn lực của công tố viên và luật sư bào chữa công, những người thường thiếu nhân viên và thiếu nguồn lực nghiêm trọng. JusticeText đã xây dựng một công cụ cho các luật sư bào chữa công, công cụ này có thể sắp xếp hàng giờ các cuộc gọi 911, cảnh quay từ camera gắn trên người cảnh sát và các cuộc thẩm vấn được ghi âm, để phân tích nó và xác định xem, chẳng hạn, cảnh sát có đưa ra những tuyên bố mâu thuẫn hay đặt câu hỏi dẫn dắt hay không.
“Chúng tôi thực sự muốn xem việc trở thành một luật sư bào chữa công ưu tiên sẽ như thế nào và cố gắng san bằng sân chơi mà công nghệ đã làm trầm trọng thêm trong nhiều năm qua,” người sáng lập và Giám đốc điều hành Devshi Mehrotra cho biết. JusticeText đang làm việc với khoảng 75 cơ quan luật sư bào chữa công trên khắp đất nước.
Recidiviz, một tổ chức phi lợi nhuận về cải cách tư pháp hình sự, cũng đã thử nghiệm một số cách tích hợp AI vào quy trình làm việc của họ, bao gồm cung cấp cho các cán bộ quản chế các bản tóm tắt do AI tạo ra về khách hàng. “Bạn có thể có 80 trang ghi chú vụ việc từ bảy năm trước về người này mà bạn sẽ không đọc nếu bạn có 150 người và bạn phải gặp từng người trong số họ hàng tháng,” Andrew Warren, đồng sáng lập của Recidiviz, cho biết. “AI có thể đưa ra những điểm nổi bật ngắn gọn về những gì người này đã đạt được và những gì họ có thể cần hỗ trợ.”
Thách thức đối với các nhà hoạch định chính sách và lực lượng đặc nhiệm của Council on Criminal Justice là xác định cách phát triển các tiêu chuẩn và cơ chế giám sát để những lợi ích từ việc tăng hiệu quả của AI lớn hơn khả năng khuếch đại những thành kiến hiện có của nó. Hecht, tại lực lượng đặc nhiệm, cũng hy vọng sẽ bảo vệ khỏi một tương lai mà AI hộp đen đưa ra những quyết định thay đổi cuộc đời một mình.
“Chúng ta có nên đảm bảo rằng những ý tưởng truyền thống của chúng ta về công lý của con người được bảo vệ không? Tất nhiên là có. Chúng ta có nên đảm bảo rằng các thẩm phán có năng lực và những người xử lý hệ thống tư pháp hình sự hoàn toàn kiểm soát được không? Tất nhiên là có,” ông nói. “Nhưng nói rằng chúng ta sẽ loại AI ra khỏi hệ thống tư pháp là vô vọng. Các công ty luật đang sử dụng nó. Hệ thống tư pháp dân sự đang sử dụng nó. Nó ở đây để ở lại.”
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
“`