Đừng tin tưởng bất cứ điều gì bạn thấy trên web, hãy nói các chuyên gia

Mục lục:

Đừng tin tưởng bất cứ điều gì bạn thấy trên web, hãy nói các chuyên gia
Đừng tin tưởng bất cứ điều gì bạn thấy trên web, hãy nói các chuyên gia
Anonim

Bài học rút ra chính

  • Nghiên cứu mới cho thấy mọi người không thể tách hình ảnh do AI tạo ra khỏi hình ảnh thực.
  • Những người tham gia đánh giá hình ảnh do AI tạo ra là đáng tin cậy hơn.
  • Các chuyên gia tin rằng mọi người nên ngừng tin tưởng bất cứ thứ gì họ thấy trên internet.
Image
Image

Câu ngạn ngữ 'thấy là tin' không còn phù hợp khi nói đến internet nữa và các chuyên gia cho rằng nó sẽ không sớm trở nên tốt hơn.

Một nghiên cứu gần đây cho thấy hình ảnh khuôn mặt được tạo ra bởi trí thông minh nhân tạo (AI) không chỉ có độ chân thực cao mà còn trông có vẻ đẹp hơn khuôn mặt thật.

"Đánh giá của chúng tôi về chủ nghĩa quang học của các khuôn mặt do AI tổng hợp chỉ ra rằng các động cơ tổng hợp đã đi qua thung lũng kỳ lạ và có khả năng tạo ra các khuôn mặt không thể phân biệt được và đáng tin hơn khuôn mặt thật", các nhà nghiên cứu nhận xét.

Người đó không tồn tại

Các nhà nghiên cứu, Tiến sĩ Sophie Nightingale từ Đại học Lancaster và Giáo sư Hany Farid từ Đại học California, Berkeley, đã tiến hành các thử nghiệm sau khi ghi nhận các mối đe dọa giả mạo sâu sắc được công bố rộng rãi, từ tất cả các loại gian lận trực tuyến đến tiếp thêm sinh lực chiến dịch thông tin sai lệch.

"Có lẽ điều nguy hại nhất là hậu quả của việc, trong một thế giới kỹ thuật số, trong đó bất kỳ hình ảnh hoặc video nào đều có thể bị làm giả, tính xác thực của bất kỳ đoạn ghi âm bất tiện hoặc không được hoan nghênh nào đều có thể bị nghi ngờ", các nhà nghiên cứu tranh luận.

Họ lập luận rằng mặc dù có nhiều tiến bộ trong việc phát triển các kỹ thuật tự động để phát hiện nội dung giả mạo sâu sắc, nhưng các kỹ thuật hiện tại không đủ hiệu quả và chính xác để theo kịp dòng nội dung mới liên tục được tải lên trực tuyến. Điều này có nghĩa là người tiêu dùng nội dung trực tuyến tùy thuộc vào việc phân loại hàng thật và hàng giả, bộ đôi gợi ý.

Jelle Wieringa, một nhà ủng hộ nâng cao nhận thức về bảo mật tại KnowBe4, đã đồng ý. Anh ấy nói với Lifewire qua email rằng việc chống lại những hành vi giả mạo sâu sắc thực tế là điều cực kỳ khó thực hiện nếu không có công nghệ chuyên dụng. "[Công nghệ giảm thiểu] có thể tốn kém và khó triển khai vào các quy trình thời gian thực, thường chỉ phát hiện ra lỗi sâu sau khi thực tế."

Với giả thiết này, các nhà nghiên cứu đã thực hiện một loạt thí nghiệm để xác định xem liệu những người tham gia là con người có thể phân biệt khuôn mặt tổng hợp hiện đại với khuôn mặt thật hay không. Trong các thử nghiệm của mình, họ phát hiện ra rằng mặc dù được đào tạo để giúp nhận ra hàng giả, tỷ lệ chính xác chỉ cải thiện lên 59%, tăng từ 48% mà không cần đào tạo.

Điều này khiến các nhà nghiên cứu phải kiểm tra xem liệu nhận thức về độ tin cậy có thể giúp mọi người xác định hình ảnh nhân tạo hay không. Trong một nghiên cứu thứ ba, họ yêu cầu những người tham gia đánh giá mức độ đáng tin cậy của các khuôn mặt, chỉ để phát hiện ra rằng xếp hạng trung bình cho các khuôn mặt tổng hợp là 7. Đáng tin hơn 7% so với đánh giá trung bình cho khuôn mặt thật. Con số nghe có vẻ không nhiều, nhưng các nhà nghiên cứu khẳng định nó có ý nghĩa thống kê.

Deeper Fakes

Hàng giả sâu sắc vốn đã là một mối quan tâm lớn, và giờ đây nghiên cứu này đã bị làm mờ hơn nữa, điều này cho thấy hình ảnh giả mạo chất lượng cao như vậy có thể tạo thêm một chiều hướng hoàn toàn mới cho các trò lừa đảo trực tuyến, bằng cách giúp tạo ra nhiều hơn hồ sơ giả trực tuyến thuyết phục.

"Một điều thúc đẩy an ninh mạng là sự tin tưởng của mọi người vào các công nghệ, quy trình và những người cố gắng giữ an toàn cho chúng", Wieringa chia sẻ. "Những sự giả mạo sâu sắc, đặc biệt là khi chúng trở nên thực tế, làm suy yếu sự tin tưởng này và do đó, việc áp dụng và chấp nhận an ninh mạng. Nó có thể dẫn đến việc mọi người trở nên không tin tưởng vào mọi thứ họ nhận thấy."

Image
Image

Chris Hauk, nhà vô địch về quyền riêng tư của người tiêu dùng tại Pixel Privacy, đã đồng ý. Trong một cuộc trao đổi ngắn qua email, anh ấy nói với Lifewire rằng giả sâu ảo có thể gây ra "sự tàn phá" trực tuyến, đặc biệt là những ngày này khi tất cả các loại tài khoản có thể được truy cập bằng công nghệ ID ảnh.

Hành động sửa chữa

Rất may, Greg Kuhn, Giám đốc IoT, Prosegur Security, nói rằng có những quy trình có thể tránh được việc xác thực gian lận như vậy. Anh ấy nói với Lifewire qua email rằng các hệ thống thông tin xác thực dựa trên AI khớp một cá nhân đã được xác minh với một danh sách, nhưng nhiều người có các biện pháp bảo vệ được tích hợp để kiểm tra "tính sống động".

"Những loại hệ thống này có thể yêu cầu và hướng dẫn người dùng thực hiện một số tác vụ nhất định như mỉm cười hoặc quay đầu sang trái, rồi sang phải. Đây là những điều mà các khuôn mặt được tạo tĩnh không thể thực hiện", Kuhn chia sẻ.

Các nhà nghiên cứu đã đề xuất các hướng dẫn để điều chỉnh việc tạo và phân phối của chúng để bảo vệ công chúng khỏi những hình ảnh tổng hợp. Đối với những người mới bắt đầu, họ khuyên bạn nên kết hợp các hình mờ đã ăn sâu vào chính mạng tổng hợp hình ảnh và video để đảm bảo tất cả các phương tiện tổng hợp có thể được xác định một cách đáng tin cậy.

Cho đến lúc đó, Paul Bischoff, người ủng hộ quyền riêng tư và là biên tập viên của nghiên cứu infosec tại Comparitech, nói rằng mọi người đang ở riêng của họ. Bischoff nói với Lifewire qua email: “Mọi người sẽ phải học cách không tin tưởng vào những khuôn mặt trực tuyến, cũng như tất cả chúng ta (hy vọng) đã học cách không tin tưởng vào tên hiển thị trong email của mình,” Bischoff nói với Lifewire qua email.

Đề xuất: