Làm thế nào AI có thể theo dõi những đứa con nguy hiểm của nó

Mục lục:

Làm thế nào AI có thể theo dõi những đứa con nguy hiểm của nó
Làm thế nào AI có thể theo dõi những đứa con nguy hiểm của nó
Anonim

Bài học rút ra chính

  • Một bài báo mới tuyên bố rằng trí tuệ nhân tạo có thể xác định những dự án nghiên cứu nào có thể cần nhiều quy định hơn những dự án khác.
  • Đó là một phần trong nỗ lực ngày càng tăng để khám phá loại AI có thể nguy hiểm.
  • Một chuyên gia nói rằng mối nguy hiểm thực sự của AI là nó có thể khiến con người chết lặng.

Image
Image

Trí tuệ nhân tạo (AI) mang lại nhiều lợi ích, nhưng cũng tiềm ẩn một số nguy cơ. Và bây giờ, các nhà nghiên cứu đã đề xuất một phương pháp để theo dõi các sáng tạo trên máy tính của họ.

Một nhóm quốc tế cho biết trong một bài báo mới rằng AI có thể xác định loại dự án nghiên cứu nào có thể cần nhiều quy định hơn những loại khác. Các nhà khoa học đã sử dụng một mô hình kết hợp các khái niệm từ sinh học và toán học và là một phần của nỗ lực ngày càng tăng nhằm khám phá loại AI có thể nguy hiểm.

"Tất nhiên, trong khi việc sử dụng AI nguy hiểm 'khoa học viễn tưởng' có thể nảy sinh nếu chúng ta quyết định như vậy […], điều khiến AI trở nên nguy hiểm không phải là bản thân AI, mà là [cách chúng ta sử dụng nó]", Thierry Rayna, chủ nhiệm Bộ phận Công nghệ Thay đổi, tại École Polytechnique ở Pháp, nói với Lifewire trong một cuộc phỏng vấn qua email. "Việc triển khai AI có thể là nâng cao năng lực (ví dụ: nó củng cố mức độ liên quan của các kỹ năng và kiến thức của con người / công nhân) hoặc phá hủy năng lực, tức là AI làm cho các kỹ năng và kiến thức hiện có trở nên kém hữu ích hơn hoặc lỗi thời."

Giữ các Tab

Các tác giả của bài báo gần đây đã viết trong một bài đăng rằng họ đã xây dựng một mô hình để mô phỏng các cuộc thi AI giả định. Họ đã chạy mô phỏng hàng trăm lần để cố gắng dự đoán các cuộc đua AI trong thế giới thực có thể hoạt động như thế nào.

"Biến số mà chúng tôi nhận thấy là đặc biệt quan trọng là" độ dài "của cuộc đua - thời gian các cuộc đua mô phỏng của chúng tôi đạt được mục tiêu (một sản phẩm trí tuệ nhân tạo)", các nhà khoa học viết. "Khi các cuộc đua AI đạt được mục tiêu một cách nhanh chóng, chúng tôi nhận thấy rằng các đối thủ mà chúng tôi đã lập mã là luôn bỏ qua các biện pháp phòng ngừa an toàn luôn giành chiến thắng."

Ngược lại, các nhà nghiên cứu nhận thấy rằng các dự án AI dài hạn không nguy hiểm bằng vì những người chiến thắng không phải lúc nào cũng coi trọng sự an toàn. Họ viết: "Với những phát hiện này, điều quan trọng là các nhà quản lý phải thiết lập các chủng tộc AI khác nhau có thể kéo dài bao lâu, áp dụng các quy định khác nhau dựa trên khoảng thời gian dự kiến của chúng". "Phát hiện của chúng tôi cho thấy rằng một quy tắc cho tất cả các cuộc đua của AI - từ chạy nước rút đến chạy marathon - sẽ dẫn đến một số kết quả khác xa lý tưởng."

David Zhao, giám đốc điều hành của Coda Strategy, một công ty chuyên tư vấn về AI, cho biết trong một cuộc phỏng vấn qua email với Lifewire rằng việc xác định AI nguy hiểm có thể khó khăn. Những thách thức nằm ở thực tế là các phương pháp tiếp cận AI hiện đại áp dụng phương pháp học sâu.

"Chúng tôi biết học sâu tạo ra kết quả tốt hơn trong nhiều trường hợp sử dụng, chẳng hạn như phát hiện hình ảnh hoặc nhận dạng giọng nói," Zhao nói. "Tuy nhiên, con người không thể hiểu cách hoạt động của thuật toán học sâu và cách nó tạo ra kết quả đầu ra. Do đó, rất khó để biết liệu một AI đang tạo ra kết quả tốt có nguy hiểm hay không vì con người không thể hiểu được những gì đang xảy ra."

Phần mềm có thể "nguy hiểm" khi được sử dụng trong các hệ thống quan trọng, có lỗ hổng có thể bị khai thác bởi các tác nhân xấu hoặc tạo ra kết quả không chính xác, Matt Shea, giám đốc chiến lược của công ty AI MixMode, cho biết qua email. Ông nói thêm rằng AI không an toàn cũng có thể dẫn đến việc phân loại kết quả không chính xác, mất dữ liệu, tác động kinh tế hoặc thiệt hại vật chất.

"Với phần mềm truyền thống, các nhà phát triển mã hóa các thuật toán có thể được một người kiểm tra để tìm ra cách cắm lỗ hổng hoặc sửa lỗi bằng cách xem mã nguồn", Shea nói."Tuy nhiên, với AI, một phần chính của logic được tạo ra từ chính dữ liệu, được mã hóa thành các cấu trúc dữ liệu như mạng thần kinh và những thứ tương tự. Điều này dẫn đến các hệ thống trở thành" hộp đen "không thể kiểm tra để tìm và sửa các lỗ hổng như phần mềm thông thường."

Nguy hiểm phía trước?

Mặc dù AI đã được hình dung trong các bộ phim như Kẻ hủy diệt như một thế lực xấu xa có ý định tiêu diệt loài người, nhưng các mối nguy hiểm thực sự có thể còn tầm thường hơn, các chuyên gia nói. Rayna, ví dụ, gợi ý rằng AI có thể khiến chúng ta buồn ngủ.

“Nó có thể khiến con người không được đào tạo não bộ và phát triển chuyên môn,” anh nói. “Làm sao bạn có thể trở thành một chuyên gia trong lĩnh vực đầu tư mạo hiểm nếu bạn không dành phần lớn thời gian để đọc các ứng dụng khởi nghiệp? Tệ hơn nữa, AI nổi tiếng là "hộp đen" và ít có thể giải thích được. Không biết tại sao một quyết định cụ thể của AI được thực hiện có nghĩa là sẽ có rất ít điều để học hỏi từ nó, giống như bạn không thể trở thành một vận động viên chạy chuyên nghiệp bằng cách lái xe quanh sân vận động trên đường Segway.”

Rất khó để biết liệu một AI đang tạo ra kết quả tốt có nguy hiểm hay không, vì con người không thể hiểu được chuyện gì đang xảy ra.

Có lẽ mối đe dọa tức thời nhất từ AI là khả năng nó có thể cung cấp kết quả thiên vị, Lyle Solomon, một luật sư viết về các tác động pháp lý của AI, cho biết trong một cuộc phỏng vấn qua email.

"AI có thể hỗ trợ làm sâu sắc thêm sự phân chia xã hội. AI về cơ bản được xây dựng từ dữ liệu thu thập từ con người", Solomon nói thêm. "[Nhưng] bất chấp dữ liệu khổng lồ, nó chứa các tập hợp con tối thiểu và sẽ không bao gồm những gì mọi người nghĩ. Do đó, dữ liệu thu thập từ nhận xét, tin nhắn công khai, đánh giá, v.v., với những thành kiến cố hữu sẽ khiến AI khuếch đại sự phân biệt đối xử và thù hận."

Đề xuất: