Bài học rút ra chính
- Phần mềm sử dụng trí tuệ nhân tạo để lập hồ sơ cá nhân đang làm dấy lên những lo ngại về quyền riêng tư.
- Cryfe kết hợp các kỹ thuật phân tích hành vi với trí tuệ nhân tạo.
- Công ty Alibaba của Trung Quốc gần đây đã phải đối mặt với những lời chỉ trích sau khi được báo cáo rằng phần mềm của họ có thể phát hiện người Duy Ngô Nhĩ và các dân tộc thiểu số khác.
Phần mềm mới được hỗ trợ bởi trí thông minh nhân tạo dành cho người sử dụng lao động để lập hồ sơ nhân viên của họ đang làm dấy lên những lo ngại về quyền riêng tư.
Một nền tảng phần mềm mới, được gọi là Cryfe, kết hợp các kỹ thuật phân tích hành vi với trí tuệ nhân tạo. Nhà phát triển tuyên bố rằng bằng cách phân tích các manh mối nhỏ, phần mềm có thể tiết lộ ý định của mọi người trong các cuộc phỏng vấn. Nhưng một số nhà quan sát nói rằng Cryfe và các loại phần mềm phân tích hành vi khác có thể xâm phạm quyền riêng tư.
"Các công ty ngày càng dựa vào AI để lập hồ sơ", chuyên gia AI Vaclav Vincale cho biết trong một cuộc phỏng vấn qua email. "Nhưng ngay cả những người viết mã các thuật toán này, ít hơn một người hỗ trợ khách hàng mà bạn tiếp cận qua điện thoại, cũng không thể cho bạn biết lý do tại sao họ đưa ra bất kỳ đề xuất nhất định nào."
More Than Words
Cryfe được phát triển bởi một công ty Thụy Sĩ với các nhân viên được FBI đào tạo về các kỹ thuật lập hồ sơ. Caroline Matteucci, người sáng lập Cryfe, cho biết trong một cuộc phỏng vấn qua email: “Cryfe, trong tất cả các giao tiếp giữa các cá nhân, không chỉ lắng nghe lời nói, mà còn xác định các tín hiệu khác do con người phát ra như cảm xúc, biểu hiện vi mô và tất cả các cử chỉ.
"Ví dụ: trong khi tuyển dụng, điều này cho phép chúng tôi đi và tìm kiếm tính cách thực sự của người đối thoại của chúng tôi."
Matteucci cho biết quyền riêng tư của người dùng được bảo vệ vì công ty minh bạch về cách hoạt động của phần mềm. "Người dùng, trước khi có thể sử dụng nền tảng, phải chấp nhận các điều kiện chung", cô nói.
"Ở đó, người dùng không được phép gửi một cuộc phỏng vấn để phân tích trong mọi trường hợp mà không nhận được sự đồng ý bằng văn bản của người đối thoại."
Cryfe không phải là phần mềm duy nhất được hỗ trợ bởi AI có mục đích phân tích hành vi của con người. Ngoài ra còn có Humantic, tuyên bố phân tích hành vi của người tiêu dùng. "Công nghệ phá vỡ đường dẫn của Humantic dự đoán hành vi của mọi người mà họ không cần phải thực hiện bài kiểm tra tính cách", theo trang web của công ty.
Công ty tuyên bố sử dụng AI để tạo hồ sơ tâm lý của ứng viên dựa trên những từ họ sử dụng trong sơ yếu lý lịch, thư xin việc, hồ sơ LinkedIn và bất kỳ đoạn văn bản nào khác mà họ gửi.
Phần mềm hành vi đã gặp phải những thách thức pháp lý trong quá khứ. Vào năm 2019, Bloomberg Law đã báo cáo rằng Ủy ban Cơ hội Việc làm Bình đẳng (EEOC) đã xem xét các trường hợp bị cáo buộc là phân biệt đối xử bất hợp pháp do các quyết định liên quan đến nhân sự, được hỗ trợ thuật toán.
"Tất cả điều này sẽ phải được giải quyết vì tương lai của việc tuyển dụng là AI", luật sư Bradford Newman nói với Bloomberg.
Một số nhà quan sát gặp vấn đề với các công ty sử dụng phần mềm theo dõi hành vi vì nó không đủ chính xác. Trong một cuộc phỏng vấn, Nigel Duffy, nhà lãnh đạo trí tuệ nhân tạo toàn cầu tại công ty dịch vụ chuyên nghiệp EY, nói với InformationWeek rằng anh ấy gặp rắc rối với phần mềm sử dụng các câu đố trên mạng xã hội và ảnh hưởng đến khả năng phát hiện.
"Tôi nghĩ rằng có một số tài liệu thực sự hấp dẫn về khả năng phát hiện ảnh hưởng, nhưng sự hiểu biết của tôi là cách thực hiện đôi khi khá ngây thơ", anh ấy nói.
"Mọi người đang đưa ra những suy luận rằng khoa học không thực sự ủng hộ [chẳng hạn như] quyết định ai đó là nhân viên giỏi tiềm năng vì họ cười rất nhiều hoặc quyết định rằng ai đó thích sản phẩm của bạn vì họ cười rất nhiều."
Các công ty Trung Quốc được báo cáo Tiểu học Hồ sơ
Theo dõi hành vi cũng có thể có nhiều mục đích thâm độc hơn, một số nhóm nhân quyền cho biết. Tại Trung Quốc, gã khổng lồ thị trường trực tuyến Alibaba gần đây đã gây xôn xao sau khi được báo cáo rằng phần mềm của họ có thể phát hiện người Duy Ngô Nhĩ và các dân tộc thiểu số khác.
New York Times đã báo cáo rằng mảng kinh doanh điện toán đám mây của công ty có phần mềm quét hình ảnh và video.
Nhưng ngay cả những người viết mã các thuật toán này… cũng không thể cho bạn biết tại sao họ lại đưa ra bất kỳ đề xuất nào.
Washington Post gần đây cũng đưa tin rằng Huawei, một công ty công nghệ khác của Trung Quốc, đã thử nghiệm phần mềm có thể cảnh báo cơ quan thực thi pháp luật khi camera giám sát của họ phát hiện ra khuôn mặt người Duy Ngô Nhĩ.
Một đơn xin cấp bằng sáng chế năm 2018 của Huawei được cho là đã tuyên bố rằng "việc xác định các thuộc tính của người đi bộ là rất quan trọng" trong công nghệ nhận dạng khuôn mặt."Các thuộc tính của đối tượng mục tiêu có thể là giới tính (nam, nữ), tuổi (chẳng hạn như thanh thiếu niên, trung niên, già) [hoặc] chủng tộc (Hán, Uyghur)", ứng dụng cho biết.
Một phát ngôn viên của Huawei nói với CNN Business rằng tính năng nhận dạng sắc tộc "không bao giờ nên trở thành một phần của ứng dụng."
Việc sử dụng trí tuệ nhân tạo đang phát triển để sắp xếp thông qua một lượng lớn dữ liệu nhất định sẽ gây ra những lo ngại về quyền riêng tư. Bạn có thể không bao giờ biết ai hoặc điều gì đang phân tích bạn vào lần tới khi bạn đi phỏng vấn xin việc.