Tại sao các chuyên gia nói rằng chúng ta nên kiểm soát AI, ngay bây giờ

Mục lục:

Tại sao các chuyên gia nói rằng chúng ta nên kiểm soát AI, ngay bây giờ
Tại sao các chuyên gia nói rằng chúng ta nên kiểm soát AI, ngay bây giờ
Anonim

Bài học rút ra chính

  • Nghiên cứu mới cho thấy có thể không có cách nào để kiểm soát trí tuệ nhân tạo siêu thông minh.
  • Một bài báo lập luận rằng việc kiểm soát AI sẽ đòi hỏi công nghệ tiên tiến hơn nhiều so với những gì chúng ta đang sở hữu.
  • Một số chuyên gia nói rằng AI thực sự thông minh có thể xuất hiện sớm hơn chúng ta nghĩ.
Image
Image

Nếu con người từng phát triển trí tuệ nhân tạo siêu thông minh, có thể không có cách nào để kiểm soát nó, các nhà khoa học nói.

AI từ lâu đã được coi là phương pháp chữa trị cho các vấn đề của nhân loại hoặc ngày tận thế theo kiểu Kẻ hủy diệt. Tuy nhiên, cho đến nay, AI vẫn chưa tiến gần đến trí thông minh cấp độ con người. Tuy nhiên, theo một bài báo gần đây được công bố trên Tạp chí Nghiên cứu Trí tuệ Nhân tạo, theo một bài báo gần đây được công bố trên Tạp chí Nghiên cứu Trí tuệ Nhân tạo, theo một bài báo gần đây được công bố trên Tạp chí Nghiên cứu Trí tuệ Nhân tạo có thể là một vấn đề quá phức tạp đối với con người.

"Một cỗ máy siêu thông minh điều khiển thế giới nghe giống như khoa học viễn tưởng", Manuel Cebrian, một trong những đồng tác giả của tờ báo, cho biết trong một bản tin.

"Nhưng đã có những cỗ máy thực hiện các nhiệm vụ quan trọng nhất định một cách độc lập mà lập trình viên không hiểu hết cách họ học nó như thế nào. Vì vậy, câu hỏi đặt ra là liệu điều này đến lúc nào đó có thể trở nên mất kiểm soát và nguy hiểm cho nhân loại hay không."

Sắp Có Siêu Máy Tính Gần Bạn

Bài báo lập luận rằng việc kiểm soát AI sẽ đòi hỏi công nghệ tiên tiến hơn nhiều so với những gì chúng ta đang sở hữu.

Trong nghiên cứu của mình, nhóm đã hình thành một thuật toán ngăn chặn lý thuyết đảm bảo AI siêu thông minh không thể gây hại cho con người trong bất kỳ trường hợp nào, bằng cách mô phỏng hành vi của AI trước và ngăn chặn nó nếu được coi là có hại. Nhưng các tác giả nhận thấy rằng không thể xây dựng một thuật toán như vậy.

"Nếu bạn phá vỡ vấn đề thành các quy tắc cơ bản từ khoa học máy tính lý thuyết, thì hóa ra một thuật toán ra lệnh cho AI không hủy diệt thế giới có thể vô tình ngăn chặn hoạt động của chính nó." Iyad Rahwan, giám đốc Trung tâm Con người và Máy móc tại Viện Phát triển Con người Max Planck ở Đức, cho biết trong bản tin.

"Nếu điều này xảy ra, bạn sẽ không biết liệu thuật toán ngăn chặn vẫn đang phân tích mối đe dọa hay liệu nó đã ngừng chứa AI có hại hay chưa. Thực tế, điều này khiến thuật toán ngăn chặn không thể sử dụng được."

Image
Image

AI thực sự thông minh có thể xuất hiện sớm hơn chúng ta nghĩ, Michalis Vazirgiannis, giáo sư khoa học máy tính tại École Polytechnique ở Pháp, lập luận. Ông nói trong email gửi tới Lifewire: “AI là một tạo tác của con người, nhưng nó đang nhanh chóng trở thành một thực thể tự trị.

"Điểm quan trọng sẽ là nếu / khi điểm kỳ dị xảy ra (tức là khi các tác nhân AI sẽ có ý thức như một thực thể) và do đó chúng sẽ đòi quyền độc lập, tự chủ và cuối cùng là thống trị."

Sự kỳ lạ đang đến

Vazirgiannis không đơn độc trong việc dự đoán sự xuất hiện sắp xảy ra của siêu AI. Những người tin tưởng thực sự vào mối đe dọa AI thích nói về "điểm kỳ dị", mà Vazirgiannis giải thích là điểm mà AI sẽ thay thế trí thông minh của con người và "rằng các thuật toán AI sẽ có khả năng nhận ra sự tồn tại của chúng và bắt đầu hành xử ích kỷ và hợp tác".

Theo Ray Kurzweil, giám đốc kỹ thuật của Google, điểm kỳ dị sẽ đến trước giữa thế kỷ 21. "Năm 2029 là ngày nhất quán mà tôi đã dự đoán khi một AI sẽ vượt qua bài kiểm tra Turing hợp lệ và do đó đạt được mức độ thông minh của con người", Kurzweil nói với Futurism.

Nếu chúng ta không thể tự dọn dẹp nhà của mình, chúng ta phải yêu cầu AI làm theo mã nào?

"Tôi đã đặt ngày 2045 cho 'Điểm kỳ dị', đó là thời điểm chúng ta sẽ nhân trí thông minh hiệu quả của mình lên một tỷ lần bằng cách hợp nhất với trí thông minh mà chúng ta đã tạo ra."

Nhưng không phải tất cả các chuyên gia AI đều cho rằng máy móc thông minh là một mối đe dọa. Nhà tư vấn AI Emmanuel Maggiori cho biết trong một cuộc phỏng vấn qua email, AI đang được phát triển có nhiều khả năng hữu ích hơn cho việc phát triển thuốc và không cho thấy bất kỳ trí thông minh thực sự nào. "Có một sự cường điệu lớn xung quanh AI, khiến nó có vẻ như nó thực sự mang tính cách mạng", ông nói thêm. "Các hệ thống AI hiện tại không chính xác như được công bố rộng rãi và con người sẽ không bao giờ mắc phải những sai lầm."

Kiểm soát AI, Bây giờ

Điều chỉnh AI để nó không thoát khỏi sự kiểm soát của chúng ta có thể khó khăn, Vazirgiannis nói. Các công ty, thay vì chính phủ, kiểm soát các nguồn lực cung cấp năng lượng cho AI. Ông nói: “Ngay cả bản thân các thuật toán cũng thường được sản xuất và triển khai trong các phòng nghiên cứu của các thực thể lớn và mạnh, thường là đa quốc gia này.

"Do đó, hiển nhiên là chính phủ các bang ngày càng có ít quyền kiểm soát hơn đối với các nguồn lực cần thiết để kiểm soát AI".

Một số chuyên gia nói rằng để điều khiển AI siêu thông minh, con người sẽ cần quản lý tài nguyên máy tính và năng lượng điện. Vazirgiannis nói: “Những bộ phim khoa học viễn tưởng như The Matrix đưa ra lời tiên tri về một tương lai lạc hậu, nơi con người được AI sử dụng làm nguồn năng lượng sinh học.

"Mặc dù bất khả thi từ xa, loài người nên đảm bảo có đủ quyền kiểm soát các tài nguyên máy tính (tức là cụm máy tính, GPU, siêu máy tính, mạng / truyền thông) và tất nhiên là các nhà máy điện cung cấp điện bất lợi cho chức năng của AI."

Image
Image

Vấn đề với việc kiểm soát AI là các nhà nghiên cứu không phải lúc nào cũng hiểu cách các hệ thống như vậy đưa ra quyết định của họ, Michael Berthold, người đồng sáng lập và Giám đốc điều hành của công ty phần mềm khoa học dữ liệu KNIME, cho biết trong một cuộc phỏng vấn qua email. "Nếu chúng ta không làm điều đó, làm sao chúng ta có thể 'kiểm soát' nó?"

Anh ấy nói thêm, "Chúng tôi không hiểu khi nào thì một quyết định hoàn toàn khác được đưa ra dựa trên những đầu vào không liên quan đối với chúng tôi."

Cách duy nhất để kiểm soát rủi ro khi sử dụng AI là đảm bảo rằng nó chỉ được sử dụng khi rủi ro đó có thể kiểm soát được, Berthold nói. "Nói cách khác, hai ví dụ cực đoan: Đừng để AI phụ trách nhà máy điện hạt nhân của bạn, nơi một sai sót nhỏ có thể gây ra những tác dụng phụ thảm khốc", ông nói thêm.

"Mặt khác, AI dự đoán nếu nhiệt độ phòng của bạn nên được điều chỉnh lên hoặc xuống một chút có thể đáng để chịu rủi ro nhỏ vì lợi ích của cuộc sống thoải mái."

Nếu chúng ta không thể kiểm soát AI, chúng ta nên dạy nó cách cư xử tốt hơn, cựu kỹ sư máy tính NASA Peter Scott cho biết trong một cuộc phỏng vấn qua email. Ông nói: “Cuối cùng, chúng tôi không thể đảm bảo khả năng kiểm soát của AI hơn là chúng tôi có thể đảm bảo điều đó của con mình.

"Chúng tôi nuôi dạy chúng đúng cách và hy vọng những điều tốt đẹp nhất; cho đến nay, chúng vẫn chưa phá hủy thế giới. Để nuôi dạy chúng tốt, chúng ta cần hiểu rõ hơn về đạo đức; nếu chúng ta không thể tự dọn dẹp nhà cửa của mình thì sao chúng ta có phải yêu cầu AI làm theo không?"

Nhà nghiên cứu AI Yonatan Wexler, phó chủ tịch điều hành R&D tại OrCam, cho biếtNhưng tất cả hy vọng sẽ không mất đi đối với loài người. "Mặc dù những tiến bộ thực sự ấn tượng, nhưng cá nhân tôi tin rằng không nên đánh giá thấp trí thông minh của con người", ông nói trong một cuộc phỏng vấn qua email. "Chúng ta là một loài đã tạo ra những điều khá tuyệt vời, bao gồm cả chính AI."

Công cuộc tìm kiếm AI ngày càng thông minh hơn vẫn tiếp tục. Nhưng tốt hơn là nên xem xét cách chúng tôi kiểm soát các sáng tạo của mình trước khi quá muộn.

Đề xuất: