Dự đoán tội phạm của AI có thể buộc tội người sai

Mục lục:

Dự đoán tội phạm của AI có thể buộc tội người sai
Dự đoán tội phạm của AI có thể buộc tội người sai
Anonim

Bài học rút ra chính

  • Một công ty phần mềm được cho là đang thu thập thông tin trên mạng xã hội để tạo hồ sơ có thể được sử dụng để xác định những người gây ra rủi ro bảo mật.
  • Voyager Labs đã ký một hợp đồng quan trọng với một cơ quan chính phủ Nhật Bản.
  • Nhưng các chuyên gia cảnh báo rằng phần mềm dự đoán AI có thể bị đánh lừa.
Image
Image

Thông tin trực tuyến của bạn có thể được sử dụng để dự đoán xem bạn có thể phạm tội hay không.

Voyager Labs được cho là đang thu thập thông tin trên mạng xã hội để tạo hồ sơ có thể được sử dụng để xác định những người gây ra rủi ro bảo mật. Đó là một phần của nỗ lực ngày càng tăng nhằm sử dụng trí thông minh nhân tạo (AI) để điều tra những tên tội phạm tiềm năng. Nhưng một số chuyên gia nói rằng phong trào này tiềm ẩn nhiều vấn đề.

"Rất khó để dự đoán hành vi của con người," Matthew Carr, một nhà nghiên cứu bảo mật tại Tập đoàn Atumcell, nói với Lifewire trong một cuộc phỏng vấn qua email. "Chúng tôi thậm chí còn không thể dự đoán được hành vi của chính mình chứ đừng nói đến hành vi của người khác. Tôi nghĩ rằng AI có thể được sử dụng trong tương lai cho mục đích này, nhưng chúng ta còn lâu mới có thể làm được như vậy ở hiện tại.""

Tạo hồ sơ

Như The Guardian đã đưa tin gần đây, sở cảnh sát Los Angeles đã xem xét việc sử dụng phần mềm dự đoán tội phạm của Voyager Lab. Công ty cũng thông báo rằng họ đã ký một hợp đồng quan trọng với một cơ quan chính phủ Nhật Bản.

Thỏa thuận của Nhật Bản cung cấp cho cơ quan chính phủ một nền tảng điều tra dựa trên AI để phân tích lượng lớn thông tin từ bất kỳ nguồn nào, bao gồm cả dữ liệu mở và sâu.

"Tôi rất vui vì chúng ta đang hợp tác trong cuộc chiến chống khủng bố và tội phạm", Divya Khangarot, Giám đốc điều hành APAC tại Voyager Labs, cho biết trong thông cáo báo chí. "Bằng cách sử dụng các giải pháp thông minh tiên tiến của Voyager Lab, khách hàng của chúng tôi có được các khả năng độc đáo để chủ động xác định và phá vỡ các mối đe dọa tiềm ẩn. Chúng tôi cung cấp thêm các lớp thông tin chi tiết điều tra sâu hơn bằng cách sử dụng kết hợp AI, Machine Learning và OSINT để khám phá các dấu vết ẩn, thông tin vi phạm, và những diễn viên xấu."

Không quá Thông minh?

Nhưng trong một cuộc phỏng vấn qua email, Matt Heisie, người đồng sáng lập Ferret.ai, cũng sử dụng AI để dự đoán người phạm tội, đã nghi ngờ một số tuyên bố của Voyager Labs.

"Chẳng hạn, có mối liên hệ rõ ràng giữa hồ sơ bắt giữ và hành vi phạm tội trong tương lai, vì có một vết đen trong bài kiểm tra và sự phát triển của một khối u?" anh ấy nói. "Hãy nghĩ đến tất cả những khó khăn tiềm ẩn dẫn đến vụ bắt giữ đó - khu phố mà người đó sống ở đâu, số lượng và chất lượng, thậm chí cả những thành kiến, về cảnh sát trong khu vực đó. Tuổi tác của người đó, giới tính, ngoại hình của họ, tất cả những điều đó đều có tác động đan xen đến khả năng người đó có hồ sơ bắt giữ, hoàn toàn tách biệt với xu hướng phạm tội thực tế của họ mà chúng tôi đang cố gắng dự đoán."

Bị cáo có luật sư tốt hơn có nhiều khả năng ngăn chặn hồ sơ bị công bố rộng rãi, Heisie nói. Một số khu vực pháp lý hạn chế việc phát hành các bức ảnh chụp hoặc hồ sơ bắt giữ để bảo vệ bị can.

"Máy tính sẽ học dựa trên dữ liệu bạn cung cấp cho nó và kết hợp tất cả các thành kiến đã đi vào thu thập dữ liệu đó…"

"Tất cả những điều này làm tăng thêm sự thiên vị cho các thuật toán," ông nói thêm. "Máy tính sẽ học dựa trên dữ liệu bạn cung cấp cho nó và kết hợp tất cả các thành kiến có trong quá trình thu thập dữ liệu đó vào việc học và giải thích."

Đã có một số nỗ lực tạo ra khả năng dự đoán tội phạm của AI và với những kết quả thường gây tai tiếng, Heisie nói.

COMPAS, một thuật toán thực thi pháp luật sử dụng để dự đoán tái phạm, thường được sử dụng để xác định kết án và tại ngoại. Nó đã phải đối mặt với vụ bê bối từ năm 2016 vì thành kiến chủng tộc, dự đoán các bị cáo Da đen có nguy cơ tái phạm cao hơn so với thực tế và điều ngược lại đối với các bị cáo da trắng.

Hơn 1.000 nhà công nghệ và học giả, bao gồm các học giả và chuyên gia AI từ Harvard, MIT, Google và Microsoft, đã lên tiếng vào năm 2020 chống lại một bài báo tuyên bố rằng các nhà nghiên cứu đã phát triển một thuật toán có thể dự đoán tội phạm chỉ dựa trên một Heisie lưu ý rằng việc xuất bản những nghiên cứu như vậy củng cố thành kiến chủng tộc đã tồn tại từ trước trong hệ thống tư pháp hình sự.

Image
Image

Trung Quốc là thị trường lớn nhất và phát triển nhanh nhất cho loại công nghệ này, chủ yếu do truy cập rộng rãi vào dữ liệu cá nhân, với hơn 200 triệu camera giám sát và nghiên cứu AI tiên tiến tập trung vào vấn đề này trong nhiều năm, Heisie nói. Các hệ thống như Đám mây Cảnh sát của CloudWalk hiện được sử dụng để dự đoán và theo dõi tội phạm cũng như xác định chính xác việc thực thi pháp luật.

"Tuy nhiên, những thành kiến đáng kể cũng được báo cáo ở đó," Heisie nói.

Heisie nói thêm rằng công ty của anh ấy cẩn thận quản lý dữ liệu đi vào và không sử dụng ảnh chụp hoặc hồ sơ bắt giữ, "thay vào đó tập trung vào các tiêu chí khách quan hơn."

"AI của chúng tôi đã học được từ dữ liệu đã được quản lý, nhưng quan trọng hơn, nó cũng học từ mọi người, những người tự phân tích, quản lý và đánh giá hồ sơ và cho chúng tôi biết về tương tác của họ với những người khác", ông nói thêm. "Chúng tôi cũng duy trì sự minh bạch hoàn toàn và quyền truy cập công khai và miễn phí vào ứng dụng của chúng tôi (nhanh nhất có thể để chúng tôi đưa chúng vào phiên bản beta), đồng thời hoan nghênh thông tin chi tiết về các quy trình và thủ tục của chúng tôi."

Đề xuất: