Làm giả Video dễ dàng, Thể hiện nỗi nhớ sâu sắc

Mục lục:

Làm giả Video dễ dàng, Thể hiện nỗi nhớ sâu sắc
Làm giả Video dễ dàng, Thể hiện nỗi nhớ sâu sắc
Anonim

Bài học rút ra chính

  • Deep Nostalgia là một chương trình mới cho phép bạn tạo ảnh động cho những bức ảnh cũ.
  • Công nghệ cho thấy việc tạo video của những người làm những việc họ thực sự chưa làm trong đời thực dễ dàng như thế nào.
  • Công nghệ giả mạo sâu sắc đã tinh vi đến mức khó có thể phân biệt được video là thật hay video được tạo ra bằng máy tính, một chuyên gia cho biết.
Image
Image

Hãy cẩn thận với phần mềm mới có thể tạo ra cái gọi là "giả sâu", trong đó các video của người thật có thể được mô phỏng, các chuyên gia cảnh báo.

Deep Nostalgia, do công ty MyHeritage phát hành, đang thịnh hành trên mạng xã hội, với việc người dùng phục hồi mọi người từ các nhà soạn nhạc nổi tiếng đến những người thân đã khuất. Phần mềm đang tạo ra những phản ứng trái chiều, với một số người thích thú với những sáng tạo, và những người khác thấy chúng đáng sợ. Công nghệ cho thấy việc tạo video của những người đang làm những việc họ thực sự chưa làm trong đời thực dễ dàng như thế nào.

"Công nghệ Deepfake ngày càng tinh vi và nguy hiểm hơn", Aaron Lawson, trợ lý giám đốc Phòng thí nghiệm Nghiên cứu và Công nghệ Giọng nói Quốc tế (STAR) của SRI, cho biết trong một cuộc phỏng vấn qua email. "Điều này một phần là do bản chất của trí tuệ nhân tạo. Khi công nghệ 'truyền thống' đòi hỏi thời gian và năng lượng của con người để cải thiện, thì AI có thể học hỏi từ chính nó.

"Nhưng khả năng tự phát triển của AI là một con dao hai lưỡi", Lawson tiếp tục. "Nếu một AI được tạo ra để làm một điều gì đó nhân từ, tuyệt vời. Nhưng khi một AI được thiết kế cho một thứ gì đó độc hại như hàng giả sâu sắc, thì mối nguy hiểm là chưa từng có".

Phần mềm mang đến những bức ảnh sống động

Trang web phả hệ MyHeritage đã giới thiệu engine hoạt hình vào tháng trước. Công nghệ, được gọi là Deep Nostalgia, cho phép người dùng tạo ảnh động cho ảnh qua trang web MyHeritage. Một công ty có tên D-ID đã thiết kế các thuật toán cho MyHeritage để tái tạo lại chuyển động của khuôn mặt người một cách kỹ thuật số. Phần mềm áp dụng các chuyển động cho các bức ảnh và sửa đổi các biểu cảm khuôn mặt để chuyển động như khuôn mặt người thường làm, theo trang web MyHeritage.

Deep Nostalgia cho thấy công nghệ giả sâu đang trở nên dễ tiếp cận hơn, Lior Shamir, giáo sư khoa học máy tính tại Đại học Bang Kansas, cho biết trong một cuộc phỏng vấn qua email. Quá trình này đang tiến triển nhanh chóng và loại bỏ ngay cả những khác biệt nhỏ giữa video và âm thanh giả và thật.

"Cũng đã có những tiến bộ đáng kể đối với video giả sâu theo thời gian thực, nghĩa là các video giả sâu thuyết phục được tạo ra tại thời điểm truyền thông video", Shamir nói."Ví dụ: một người có thể có một cuộc họp Zoom với một người nhất định, trong khi nhìn và nghe giọng nói của một người hoàn toàn khác."

Ngoài ra còn có ngày càng nhiều những trò giả mạo sâu sắc dựa trên ngôn ngữ, Jason Corso, Giám đốc Viện Trí tuệ Nhân tạo Stevens tại Viện Công nghệ Stevens, cho biết trong một cuộc phỏng vấn qua email. "Tạo toàn bộ các đoạn văn bản giả sâu cho một chương trình cụ thể là khá khó khăn, nhưng những tiến bộ hiện đại trong xử lý ngôn ngữ tự nhiên sâu sắc đang làm cho điều đó trở nên khả thi", anh ấy nói thêm.

Cách phát hiện hàng giả sâu

Mặc dù công nghệ phát hiện sâu giả vẫn còn trong giai đoạn sơ khai, nhưng bạn có thể phát hiện ra một số cách, Corso nói, bắt đầu bằng miệng.

"Sự thay đổi hình dáng bên trong miệng khi ai đó đang nói là rất cao, khiến cho việc diễn đạt một cách thuyết phục trở nên khó khăn," Corso giải thích. “Có thể làm được, nhưng khó hơn phần còn lại của cái đầu. Lưu ý rằng video Deep Nostalgia không thể hiện khả năng nói 'I love you' của bức ảnh hoặc một số cụm từ khác trong quá trình tạo giả sâu sắc như thế nào. Làm như vậy đòi hỏi phải mở và đóng miệng, điều này rất khó để tạo sâu giả."

Ghosting là một món quà khác, được thêm vào Corso. Anh ấy đã nói.

Bạn cũng có thể chú ý đến sự biến đổi màu sắc khi cố gắng phát hiện một video giả sâu, chẳng hạn như một đường sắc nét trên khuôn mặt, với màu đậm hơn ở một bên và màu nhạt hơn ở bên kia.

"Các thuật toán máy tính thường có thể phát hiện ra các dạng biến dạng này," Shamir nói. "Tuy nhiên, các thuật toán giả sâu đang tiến bộ nhanh chóng. Điều không thể tránh khỏi là các luật nghiêm ngặt sẽ được yêu cầu để bảo vệ khỏi các thuật toán giả sâu và những thiệt hại mà chúng có thể dễ dàng gây ra".

Đề xuất: