Tại sao phần mềm đọc cảm xúc có thể vi phạm quyền riêng tư của bạn

Mục lục:

Tại sao phần mềm đọc cảm xúc có thể vi phạm quyền riêng tư của bạn
Tại sao phần mềm đọc cảm xúc có thể vi phạm quyền riêng tư của bạn
Anonim

Bài học rút ra chính

  • Zoom cho biết họ sẽ sử dụng AI để đánh giá tình cảm hoặc mức độ tương tác của người dùng.
  • Các nhóm nhân quyền đang yêu cầu Zoom xem xét lại kế hoạch của mình do lo ngại về quyền riêng tư và bảo mật dữ liệu.
  • Một số công ty cũng sử dụng phần mềm phát hiện cảm xúc trong các cuộc phỏng vấn để đánh giá xem người dùng có chú ý hay không.
Image
Image

Việc sử dụng ngày càng nhiều trí tuệ nhân tạo (AI) để theo dõi cảm xúc của con người đang gây ra những lo ngại về quyền riêng tư.

Các tổ chức nhân quyền đang yêu cầu Zoom làm chậm kế hoạch đưa AI phân tích cảm xúc vào phần mềm hội nghị truyền hình của mình. Công ty đã báo cáo rằng họ sẽ sử dụng AI để đánh giá tình cảm hoặc mức độ tương tác của người dùng.

"Các chuyên gia thừa nhận rằng phân tích cảm xúc không hoạt động," liên hợp các nhóm nhân quyền, bao gồm ACLU, đã viết trong một bức thư cho Zoom. "Biểu hiện trên khuôn mặt thường không liên quan đến cảm xúc bên dưới và nghiên cứu đã phát hiện ra rằng không phải lúc nào con người cũng có thể đọc hoặc đo lường chính xác cảm xúc của người khác. Việc phát triển công cụ này tạo thêm uy tín cho khoa học giả và khiến danh tiếng của bạn bị đe dọa."

Zoom đã không trả lời ngay yêu cầu bình luận của Lifewire.

Giữ các tab theo cảm xúc của bạn

Theo bài báo trên Giao thức, hệ thống giám sát Thu phóng có tên Q for Sales sẽ kiểm tra tỷ lệ thời gian trò chuyện của người dùng, độ trễ thời gian phản hồi và thay đổi người nói thường xuyên để theo dõi mức độ tương tác của người đó. Tính năng thu phóng sẽ sử dụng dữ liệu này để ấn định điểm số từ 0 đến 100, với điểm cao hơn cho thấy mức độ tương tác hoặc tình cảm cao hơn.

Các nhóm nhân quyền tuyên bố phần mềm có thể phân biệt đối xử chống lại người khuyết tật hoặc một số sắc tộc bằng cách giả định rằng mọi người đều sử dụng các nét mặt, mẫu giọng nói và ngôn ngữ cơ thể giống nhau để giao tiếp. Các nhóm cũng cho rằng phần mềm có thể là một rủi ro về bảo mật dữ liệu.

Image
Image

"Việc thu thập dữ liệu cá nhân sâu sắc có thể khiến bất kỳ tổ chức nào triển khai công nghệ này trở thành mục tiêu cho các cơ quan chính phủ theo dõi và tin tặc độc hại", theo bức thư.

Julia Stoyanovich, giáo sư khoa học máy tính và kỹ thuật tại Đại học New York, nói với Lifewire trong một cuộc phỏng vấn qua email rằng cô ấy hoài nghi về những tuyên bố đằng sau việc phát hiện cảm xúc.

“Tôi không hiểu bằng cách nào mà công nghệ như vậy có thể thể hiện cảm xúc của người làm việc là rất cá nhân, rất phụ thuộc vào văn hóa và rất cụ thể theo ngữ cảnh,” Stoyanovich nói."Nhưng, có lẽ còn quan trọng hơn, tôi không hiểu tại sao chúng ta lại muốn những công cụ này hoạt động. Nói cách khác, chúng ta sẽ gặp nhiều rắc rối hơn nếu chúng hoạt động tốt. Nhưng có lẽ ngay cả trước khi nghĩ đến rủi ro, chúng ta cũng nên hỏi-lợi ích tiềm năng của công nghệ đó là gì?"

Zoom không phải là công ty duy nhất sử dụng phần mềm phát hiện cảm xúc. Theo Wills, giám đốc cấp cao về quyền riêng tư của Kuma LLC, một công ty tư vấn bảo mật và quyền riêng tư, nói với Lifewire qua email rằng phần mềm phát hiện cảm xúc được sử dụng trong các cuộc phỏng vấn để đánh giá xem người dùng có chú ý hay không. Nó cũng đang được thử nghiệm trong ngành giao thông vận tải để theo dõi xem người lái xe có buồn ngủ hay không, trên các nền tảng video để đánh giá mức độ quan tâm và điều chỉnh các đề xuất cũng như trong các hướng dẫn giáo dục để xác định xem một phương pháp giảng dạy cụ thể có hấp dẫn hay không.

Wills cho rằng tranh cãi xung quanh phần mềm theo dõi cảm xúc là câu hỏi về đạo đức dữ liệu hơn là quyền riêng tư. Cô ấy nói đó là về hệ thống đưa ra các quyết định trong thế giới thực dựa trên linh cảm.

"Với công nghệ này, bây giờ bạn có thể giả định lý do tôi có biểu hiện cụ thể trên khuôn mặt, nhưng động lực đằng sau biểu hiện rất khác nhau do những thứ như giáo dục xã hội hoặc văn hóa, hành vi gia đình, kinh nghiệm trong quá khứ hoặc sự lo lắng trong thời điểm này, "Wills nói thêm. "Việc đặt thuật toán dựa trên một giả định vốn đã thiếu sót và có khả năng phân biệt đối xử. Nhiều quần thể không được đại diện trong tổng thể mà các thuật toán dựa trên đó và biểu diễn phù hợp cần được ưu tiên trước khi sử dụng điều này."

Cân nhắc Thực tế

Các vấn đề do phần mềm theo dõi cảm xúc nêu ra có thể là thực tế cũng như lý thuyết. Matt Heisie, người đồng sáng lập Ferret.ai, một ứng dụng hỗ trợ trí tuệ nhân tạo, cung cấp thông tin về mối quan hệ, nói với Lifewire trong một email rằng người dùng cần hỏi nơi thực hiện phân tích khuôn mặt và dữ liệu nào đang được lưu trữ. Nghiên cứu đang được thực hiện trên bản ghi âm cuộc gọi, được xử lý trên đám mây hay trên thiết bị cục bộ?

Ngoài ra, Heisie hỏi, khi thuật toán học, nó thu thập dữ liệu nào về khuôn mặt hoặc chuyển động của một người có khả năng bị tách khỏi thuật toán và được sử dụng để tạo lại sinh trắc học của ai đó? Công ty có đang lưu trữ ảnh chụp nhanh để xác minh hoặc xác thực việc học của thuật toán không và người dùng có được thông báo về dữ liệu phái sinh mới này hoặc hình ảnh được lưu trữ có khả năng được thu thập từ các cuộc gọi của họ không?

"Đây là tất cả những vấn đề mà nhiều công ty đã giải quyết, nhưng cũng có những công ty đã bị rung chuyển bởi vụ bê bối khi hóa ra họ đã không làm điều này một cách chính xác," Heisie nói. "Facebook là trường hợp quan trọng nhất của một công ty đã từ bỏ nền tảng nhận dạng khuôn mặt vì lo ngại về quyền riêng tư của người dùng. Công ty mẹ Meta hiện đang rút các tính năng AR khỏi Instagram ở một số khu vực pháp lý như Illinois và Texas vì luật bảo mật xung quanh dữ liệu sinh trắc học."

Đề xuất: