Sự thiên lệch về chủng tộc của Thuật toán Twitter chỉ ra vấn đề kỹ thuật lớn hơn

Mục lục:

Sự thiên lệch về chủng tộc của Thuật toán Twitter chỉ ra vấn đề kỹ thuật lớn hơn
Sự thiên lệch về chủng tộc của Thuật toán Twitter chỉ ra vấn đề kỹ thuật lớn hơn
Anonim

Bài học rút ra chính

  • Twitter hy vọng sẽ khắc phục những gì người dùng gọi là thành kiến chủng tộc trong phần mềm xem trước hình ảnh của họ.
  • Lời kêu gọi của gã khổng lồ công nghệ có thể là tính toán văn hóa mà ngành công nghiệp cần để giải quyết các vấn đề đa dạng.
  • Sự thiếu đa dạng củacông nghệ đang làm tổn hại đến hiệu quả của những tiến bộ công nghệ của nó.
Image
Image

Twitter chuẩn bị khởi động một cuộc điều tra về thuật toán cắt ảnh của nó sau khi nó trở thành một chủ đề thịnh hành, thúc đẩy một cuộc trò chuyện lớn hơn về các vấn đề đa dạng trong ngành công nghệ.

Kẻ tung tin trên mạng xã hội đã gây chú ý sau khi người dùng phát hiện ra thành kiến chủng tộc rõ ràng trong thuật toán xem trước hình ảnh của nó. Phát hiện này xảy ra sau khi người dùng Twitter Colin Madland sử dụng nền tảng này để kêu gọi việc Zoom không nhận ra các đồng nghiệp Da đen sử dụng công nghệ màn hình xanh của anh ấy, nhưng trong một trường hợp trớ trêu, anh ấy nhận thấy thuật toán cắt xén hình ảnh của Twitter hoạt động tương tự và làm mất mặt các khuôn mặt của Người da đen.

Chắc chắn, đó là một vấn đề lớn đối với bất kỳ thiểu số nào, nhưng tôi nghĩ rằng còn có một vấn đề rộng lớn hơn nhiều.

Những người dùng khác đã tham gia vào xu hướng này làm dấy lên một loạt các tweet lan truyền cho thấy thuật toán luôn ưu tiên những khuôn mặt trắng và da sáng hơn, từ người đến nhân vật hoạt hình và thậm chí cả chó. Thất bại này là dấu hiệu cho thấy một phong trào văn hóa lớn hơn trong ngành công nghệ thường xuyên không tính đến các nhóm thiểu số, vốn đã tràn sang lĩnh vực kỹ thuật.

"Nó khiến những người thiểu số cảm thấy khủng khiếp, giống như họ không quan trọng, và nó có thể được sử dụng cho những việc khác có thể gây ra tác hại nghiêm trọng hơn", Erik Learned-Miller, giáo sư khoa học máy tính tại Đại học của Massachusetts, cho biết trong một cuộc phỏng vấn qua điện thoại."Sau khi bạn đã quyết định một phần mềm có thể được sử dụng để làm gì và tất cả những tác hại có thể xảy ra, thì chúng ta sẽ bắt đầu nói về các cách để giảm thiểu khả năng những điều đó xảy ra."

Canary trên Dòng thời gian

Twitter sử dụng mạng nơ-ron để tự động cắt hình ảnh được nhúng trong tweet. Thuật toán được cho là phát hiện khuôn mặt để xem trước, nhưng nó dường như có độ lệch màu trắng đáng chú ý. Người phát ngôn của công ty Liz Kelley đã tweet một phản hồi cho tất cả các mối quan tâm.

Kelley đã tweet, "cảm ơn tất cả những người đã nêu ra điều này. Chúng tôi đã kiểm tra sự thiên vị trước khi vận chuyển mô hình và không tìm thấy bằng chứng về sự thành kiến về chủng tộc hoặc giới tính trong thử nghiệm của chúng tôi, nhưng rõ ràng là chúng tôi đã phân tích thêm làm. chúng tôi sẽ mở nguồn công việc của mình để những người khác có thể đánh giá và nhân rộng."

Đồng tác giả của sách trắng "Công nghệ nhận dạng khuôn mặt ở vùng hoang dã: Lời kêu gọi cho văn phòng liên bang", Learned-Miller là nhà nghiên cứu hàng đầu về sự vượt trội của phần mềm học AI dựa trên khuôn mặt. Anh ấy đã thảo luận về tác động tiêu cực tiềm ẩn của phần mềm học hình ảnh trong nhiều năm và đã nói về tầm quan trọng của việc tạo ra một thực tế nơi những thành kiến này được giảm thiểu bằng khả năng tốt nhất của họ.

Nhiều thuật toán cho công nghệ nhận dạng khuôn mặt sử dụng các tập tham chiếu cho dữ liệu, thường được gọi là tập huấn luyện, là tập hợp các hình ảnh được sử dụng để tinh chỉnh hành vi của phần mềm học hình ảnh. Cuối cùng, nó cho phép AI dễ dàng nhận ra một loạt các khuôn mặt. Tuy nhiên, các nhóm tham chiếu này có thể thiếu nguồn đa dạng, dẫn đến các vấn đề như nhóm Twitter gặp phải.

"Chắc chắn, đó là một vấn đề lớn đối với bất kỳ thiểu số nào, nhưng tôi nghĩ rằng còn có một vấn đề rộng hơn nhiều," Learned-Miller nói. "Nó liên quan đến sự thiếu đa dạng trong lĩnh vực công nghệ và sự cần thiết của một lực lượng quản lý, tập trung để chỉ ra cách sử dụng thích hợp của loại phần mềm mạnh mẽ dễ bị lạm dụng và lạm dụng này".

Thiếu Công nghệ Đa dạng

Twitter có thể là công ty công nghệ mới nhất trong lĩnh vực chặt chẽ, nhưng đây không phải là một vấn đề mới. Lĩnh vực công nghệ vẫn là lĩnh vực chủ yếu là người da trắng, vĩnh viễn do nam giới thống trị và các nhà nghiên cứu đã phát hiện ra rằng sự thiếu đa dạng gây ra sự sao chép của sự mất cân bằng hệ thống, lịch sử trong phần mềm được phát triển.

Trong một báo cáo năm 2019 của Viện AI Now của Đại học New York, các nhà nghiên cứu phát hiện ra rằng người Da đen chiếm chưa đến 6% lực lượng lao động tại các công ty công nghệ hàng đầu trong nước. Tương tự, phụ nữ chỉ chiếm 26% lao động trong lĩnh vực này - một thống kê thấp hơn tỷ lệ của họ vào năm 1960.

Nó khiến những người thiểu số cảm thấy kinh khủng, như thể họ không quan trọng và nó có thể được sử dụng cho những việc khác có thể gây ra tác hại nghiêm trọng hơn.

Nhìn bề ngoài, những vấn đề đại diện này có vẻ trần tục, nhưng trên thực tế, tác hại gây ra có thể rất sâu sắc. Các nhà nghiên cứu trong báo cáo của Viện AI Now cho thấy điều này có liên quan nhân quả đến các vấn đề với phần mềm thường không giải thích được cho dân số không phải da trắng và không phải nam giới. Cho dù đó là máy rút xà phòng hồng ngoại không phát hiện ra da sẫm màu hay phần mềm AI của Amazon không phân biệt được khuôn mặt của phụ nữ với khuôn mặt của nam giới, thì việc không giải quyết được sự đa dạng trong ngành công nghệ sẽ dẫn đến sự thất bại của công nghệ trong việc đối phó với một thế giới đa dạng.

"Có rất nhiều người chưa suy nghĩ thấu đáo vấn đề và không thực sự nhận ra những điều này có thể gây hại như thế nào và những tác hại này nghiêm trọng như thế nào", Learned-Miller đề xuất về học hình ảnh AI. "Hy vọng rằng số lượng người đó đang giảm dần!"

Đề xuất: