AI cuối cùng cũng có thể giúp bẻ khóa lời nói căm thù

Mục lục:

AI cuối cùng cũng có thể giúp bẻ khóa lời nói căm thù
AI cuối cùng cũng có thể giúp bẻ khóa lời nói căm thù
Anonim

Bài học rút ra chính

  • Một công cụ phần mềm mới cho phép AI theo dõi các bình luận trên internet về lời nói căm thù.
  • AI là cần thiết để kiểm duyệt nội dung internet vì khối lượng tài liệu khổng lồ vượt xa khả năng của con người.
  • Nhưng một số chuyên gia nói rằng việc giám sát giọng nói của AI làm tăng những lo ngại về quyền riêng tư.
Image
Image

Khi lời nói căm thù trực tuyến gia tăng, một công ty cho biết họ có thể có giải pháp không dựa vào người kiểm duyệt.

Một công ty khởi nghiệp có tên Spectrum Labs cung cấp công nghệ trí tuệ nhân tạo cho các nhà cung cấp nền tảng để phát hiện và đóng cửa các sàn giao dịch độc hại trong thời gian thực. Nhưng các chuyên gia cho rằng việc giám sát bằng AI cũng làm nảy sinh các vấn đề về quyền riêng tư.

"Giám sát AI thường đòi hỏi phải xem xét các mẫu theo thời gian, điều này đòi hỏi phải giữ lại dữ liệu", David Moody, cộng sự cấp cao tại Schellman, một công ty đánh giá tuân thủ quyền riêng tư và bảo mật, nói với Lifewire trong một cuộc phỏng vấn qua email. "Dữ liệu này có thể bao gồm dữ liệu mà luật pháp đã gắn cờ là dữ liệu quyền riêng tư (thông tin nhận dạng cá nhân hoặc PII)."

Thêm lời nói căm thù

Spectrum Labs hứa hẹn một giải pháp công nghệ cao cho vấn đề ngôn từ kích động thù địch lâu đời.

"Trung bình, chúng tôi giúp các nền tảng giảm 50% nỗ lực kiểm duyệt nội dung và tăng khả năng phát hiện các hành vi độc hại lên 10 lần", công ty tuyên bố trên trang web của mình.

Spectrum cho biết họ đã làm việc với các viện nghiên cứu có chuyên môn về các hành vi có hại cụ thể để xây dựng hơn 40 mô hình nhận dạng hành vi. Nền tảng kiểm duyệt nội dung Guardian của công ty được xây dựng bởi một nhóm các nhà khoa học dữ liệu và người kiểm duyệt để "hỗ trợ bảo vệ cộng đồng khỏi độc hại."

Ngày càng có nhu cầu về các cách chống lại lời nói căm thù vì con người không thể giám sát mọi lưu lượng truy cập trực tuyến, Dylan Fox, Giám đốc điều hành của AssemblyAI, một công ty khởi nghiệp cung cấp tính năng nhận dạng giọng nói và có khách hàng tham gia theo dõi sự căm thù, nói với Lifewire trong một cuộc phỏng vấn qua email.

"Chỉ riêng Twitter mỗi ngày có khoảng 500 triệu lượt tweet", anh ấy nói thêm. "Ngay cả khi một người có thể kiểm tra một tweet sau mỗi 10 giây, twitter sẽ cần tuyển dụng 60 nghìn người để làm việc này. Thay vào đó, chúng tôi sử dụng các công cụ thông minh như AI để tự động hóa quy trình."

Không giống như con người, AI có thể hoạt động 24/7 và có khả năng công bằng hơn vì nó được thiết kế để áp dụng thống nhất các quy tắc của mình cho tất cả người dùng mà không có bất kỳ niềm tin cá nhân nào can thiệp, Fox cho biết. Những người phải theo dõi và kiểm duyệt nội dung cũng phải trả một khoản chi phí.

"Họ có thể tiếp xúc với bạo lực, thù hận và những hành vi bẩn thỉu, có thể gây tổn hại đến sức khỏe tâm thần của một người", ông nói.

Spectrum không phải là công ty duy nhất tìm cách tự động phát hiện lời nói căm thù trực tuyến. Ví dụ: Trung tâm Malaysia gần đây đã tung ra một trình theo dõi trực tuyến được thiết kế để tìm lời nói căm thù của cư dân mạng Malaysia. Phần mềm mà họ phát triển có tên là Tracker Benci, sử dụng công nghệ máy học để phát hiện lời nói căm thù trực tuyến, đặc biệt là trên Twitter.

Thách thức là làm thế nào để tạo ra không gian mà mọi người thực sự có thể tương tác với nhau một cách xây dựng.

Mối quan tâm về Quyền riêng tư

Trong khi các giải pháp công nghệ như Spectrum có thể chống lại lời nói căm thù trực tuyến, chúng cũng đặt ra câu hỏi về mức độ hoạt động của các máy tính kiểm soát.

Có những tác động về quyền tự do ngôn luận, nhưng không chỉ đối với những diễn giả có bài đăng sẽ bị xóa vì lời nói căm thù, Irina Raicu, giám đốc đạo đức internet tại Trung tâm Đạo đức Ứng dụng Markkula tại Đại học Santa Clara, nói với Lifewire trong một email phỏng vấn.

"Việc cho phép quấy rối nhân danh 'quyền tự do ngôn luận' đã khiến các mục tiêu của bài phát biểu như vậy (đặc biệt là khi nhắm vào các cá nhân cụ thể) ngừng nói - từ bỏ hoàn toàn các cuộc trò chuyện và nền tảng khác nhau", Raicu nói."Thách thức là làm thế nào để tạo ra không gian mà mọi người có thể thực sự tương tác với nhau một cách xây dựng."

Giám sát giọng nói của AI sẽ không gây ra các vấn đề về quyền riêng tư nếu các công ty sử dụng thông tin công khai trong quá trình giám sát, Fox cho biết. Tuy nhiên, nếu công ty mua thông tin chi tiết về cách người dùng tương tác trên các nền tảng khác để xác định trước những người dùng có vấn đề, điều này có thể gây ra lo ngại về quyền riêng tư.

"Nó chắc chắn có thể là một chút vùng xám, tùy thuộc vào ứng dụng," anh ấy nói thêm.

Image
Image

Justin Davis, Giám đốc điều hành của Spectrum Labs nói với Lifewire trong một email rằng công nghệ của công ty có thể xem xét từ 2 đến 5 nghìn hàng dữ liệu trong vòng một giây. Ông nói: “Quan trọng nhất, công nghệ có thể làm giảm lượng nội dung độc hại mà người điều hành phải tiếp xúc.

Chúng ta có thể đang trên đỉnh cao của cuộc cách mạng về AI giám sát lời nói và văn bản của con người trực tuyến. Những tiến bộ trong tương lai bao gồm khả năng giám sát độc lập và tự chủ tốt hơn để xác định các hình thức ngôn từ kích động thù địch chưa từng biết trước đây hoặc bất kỳ hình thức kiểm duyệt nào khác sẽ phát triển, Moody nói.

AI cũng sẽ sớm có thể nhận ra các mẫu trong các mẫu giọng nói cụ thể và các nguồn liên quan cũng như các hoạt động khác của chúng thông qua phân tích tin tức, hồ sơ công khai, phân tích mẫu lưu lượng, giám sát vật lý và nhiều tùy chọn khác, anh ấy nói thêm.

Nhưng một số chuyên gia nói rằng con người sẽ luôn cần làm việc với máy tính để theo dõi lời nói căm thù.

"Chỉ riêng AI sẽ không hoạt động," Raicu nói. "Nó phải được công nhận là một công cụ không hoàn hảo phải được sử dụng cùng với các phản hồi khác."

Sửa 1/25/2022:Đã thêm trích dẫn của Justin Davis trong đoạn thứ 5 từ cuối để phản ánh một email sau khi xuất bản.

Đề xuất: