Alexa có thể là điều đáng sợ nhất từ trước đến nay

Mục lục:

Alexa có thể là điều đáng sợ nhất từ trước đến nay
Alexa có thể là điều đáng sợ nhất từ trước đến nay
Anonim

Bài học rút ra chính

  • Trợ lý giọng nói Alexa của Amazon có thể sao chép giọng nói chỉ với một phút âm thanh.
  • Bạn có thể yêu cầu Alexa đọc một câu chuyện bằng giọng của một người cha đã khuất.
  • Đó là ý tưởng giống như hàng giả sâu sắc, chỉ được sử dụng cho sức mạnh của điều tốt.
Image
Image

Mánh lới quảng cáo mới nhất của Amazon Alexa là học cách bắt chước giọng nói của một người thân yêu đã khuất, để họ có thể nói chuyện với bạn từ bên ngoài nấm mồ.

Alexa chỉ cần một phút nghe âm thanh để bắt chước giọng nói một cách thuyết phục. Amazon coi đây là một tính năng thoải mái có thể giúp bạn liên lạc với những người thân yêu, nhưng nó cũng có thể là một trải nghiệm khá rùng rợn. Và nó cho thấy việc tạo ra âm thanh giả trầm đủ tốt để đánh lừa chúng ta dễ dàng như thế nào, ngay cả khi giọng nói là thứ mà chúng ta biết rất rõ.

"Amazon chắc chắn đã bước vào một lãnh thổ khá độc đáo và kỳ lạ với thông báo rằng Alexa sẽ sớm có thể học và sau đó sẽ sớm sử dụng giọng nói của những người thân đã khuất", Bill Mann, chuyên gia về quyền riêng tư tại Restore Privacy, nói Lifewire qua email. "Đối với một số người, nó không đáng sợ chút nào. Trên thực tế, nó có thể khá cảm động."

Ghost in the Machine

Là một phần của hội nghị re: MARS hàng năm, Amazon đã giới thiệu tính năng này trong một đoạn video ngắn. Trong đó, một đứa trẻ hỏi Alexa rằng liệu bà có thể tiếp tục đọc "The Wizard of Oz", tác phẩm yêu thích của mọi đứa trẻ trong miền công cộng thân thiện với các bài phát biểu quan trọng hay không. Và đó là một khoảnh khắc khá cảm động. Thật khó để không cảm nhận được cảm xúc của con người khi bà bắt đầu đọc.

"Con người phải vật lộn với cái chết, đặc biệt là trong văn hóa phương Tây. Trong nhiều thế kỷ, chúng tôi đã cố gắng tìm cách để tưởng nhớ những người đã chết, từ mặt nạ thần chết, đến những lọn tóc, những bức ảnh cũ, để xem những bộ phim cũ", Andrew Selepak, một giáo sư truyền thông xã hội tại Đại học Florida, nói với Lifewire qua email. "Deepfakes sử dụng công nghệ mới nhất để tạo ra một chiếc mặt nạ tử thần mới của một người thân yêu đã qua đời. Tuy nhiên, tùy thuộc vào quan điểm của mỗi người, nó rùng rợn hay là một cách để tưởng nhớ và giữ chặt người bạn yêu sau khi họ đã chết?"

Nhưng một chiếc mori lưu niệm có thể vừa an ủi vừa đáng sợ. Bạn của một thành viên trong gia đình đã chết, nhưng bạn vẫn có thể nghe thấy họ nói. Không có ích gì khi Alexa có một lịch sử về hành vi kỳ quặc, và đôi khi đáng sợ. Vào năm 2018, khi Farhad Manjoo, nhà báo chuyên mục quan điểm của NYT đang chuẩn bị đi ngủ, Amazon Echo của anh ấy "bắt đầu rên rỉ, giống như một đứa trẻ đang hét lên trong giấc mơ phim kinh dị."

Ngay sau đó, Amazon thừa nhận rằng đôi khi Alexa cười thành tiếng, cùng với thanh thiếu niên và hầm rượu, là bộ phim kinh dị 101.

Người ta chỉ có thể tự hỏi bạn có thể cảm thấy thế nào nếu Alexa kéo những chiêu trò tương tự trong giọng nói của bà.

GiảSâu

Sự dễ dàng rõ ràng mà Alexa học để bắt chước giọng nói dẫn chúng ta đến những cách sử dụng nhân bản giọng nói bất chính hơn: giả mạo sâu sắc.

Image
Image

"Âm thanh Deepfake không phải là mới, ngay cả khi nó ít được hiểu và ít được biết đến. Công nghệ này đã có trong nhiều năm để tái tạo giọng nói của một cá nhân bằng trí tuệ nhân tạo và học sâu bằng cách sử dụng tương đối ít âm thanh thực tế từ người đó" Selepak nói. "Công nghệ như vậy cũng có thể nguy hiểm và phá hoại. Một người bị rối loạn có thể tạo lại giọng nói của bạn trai hoặc bạn gái cũ đã chết và sử dụng âm thanh mới để nói những điều thù hận và tổn thương."

Đó chỉ là trong ngữ cảnh của Alexa. Ví dụ, âm thanh giả sâu có thể vượt xa điều đó, thuyết phục mọi người rằng các chính trị gia nổi tiếng tin những điều họ không tin. Nhưng mặt khác, chúng ta càng quen với những trò giả mạo sâu sắc này - có lẽ dưới dạng những giọng nói của Alexa này - chúng ta sẽ càng nghi ngờ về những trò giả mạo bất chính hơn. Sau đó, một lần nữa, với mức độ dễ dàng lan truyền những lời nói dối trên Facebook, có lẽ là không.

Amazon chưa cho biết liệu tính năng này có xuất hiện trên Alexa hay chỉ là một bản demo công nghệ. Tôi hy vọng nó thành công. Công nghệ đạt mức tốt nhất khi nó được sử dụng theo cách nhân văn như thế này và mặc dù phản ứng dễ dàng là gọi nó là rùng rợn, như Selepak nói, nó thực sự không khác nhiều so với việc xem video cũ hoặc nghe thư thoại đã lưu, giống như một nhân vật trong chương trình truyền hình có kịch bản lười biếng.

Và nếu công nghệ làm giả sâu sắc luôn sẵn có, tại sao không sử dụng nó để tự an ủi?

Đề xuất: