Skip to main content

Elon Musk, những người khác ký thư ngỏ tới Liên Hợp Quốc yêu cầu cấm robot giết người

Hình ảnh: Hình ảnh AFP / Getty

Elon Musk, đồng sáng lập Google DeepMind, Mustafa Suleyman, và 114 chuyên gia về AI và robot hàng đầu khác đã tham gia cùng nhau để yêu cầu LHQ cấm sử dụng cái gọi là robot giết người trong một bức thư ngỏ được công bố hôm nay.

Nhóm này lo ngại về tiềm năng sử dụng vũ khí tự trị gây chết người và cách chúng có thể được áp dụng trong tương lai, và họ đã viết một ghi chú ngắn do Viện Tương lai của Cuộc sống phát hành. Văn bản đã được công khai để khởi động việc khai trương) tại Melbourne, Australia, theo thông cáo báo chí.

"Vũ khí tự trị Lethal" dùng để chỉ máy bay không người lái, súng máy tự trị, xe tăng và các dạng vũ khí khác do AI điều khiển trên các chiến trường thế hệ tiếp theo.

Musk, trước hết, nổi tiếng cảnh giác về khả năng trở nên tồi tệ của AI, gần đây gọi nó là "mối đe dọa lớn nhất mà chúng ta phải đối mặt như một nền văn minh", thậm chí trên cả vũ khí hạt nhân - nhưng thư ngỏ là lần đầu tiên một nhóm các công ty AI và robot có gia nhập lực lượng để kiến nghị Liên Hợp Quốc cụ thể về vũ khí tự trị, theo bản phát hành.

XEM CSONG: Quốc gia tự động nhất thế giới chuyển sang thiết lập 'thuế robot'

Hội nghị Đánh giá của Liên Hợp Quốc về Công ước về Vũ khí thông thường đã nhất trí bắt đầu các cuộc thảo luận chính thức về việc cấm vũ khí tự trị, và 19 trong số các quốc gia thành viên đã hỗ trợ cấm hoàn toàn các robot giết người. Nhóm dự kiến sẽ họp vào ngày 21 tháng 8, nhưng đã bị trì hoãn cho đến tháng 11, theo Vận may.

"Một khi hộp Pandora này được mở ra, nó sẽ khó đóng lại."

Bức thư ngỏ, được ký bởi đại diện từ các công ty trị giá hàng tỷ đô la trên 26 quốc gia, thậm chí có thể gây áp lực lớn hơn để khiến lệnh cấm xảy ra.

Hình: tương lai của viện đời

Các văn bản thực tế của bức thư là ngắn và nghiêm túc. Bạn có thể đọc nó ở đây, nhưng chúng tôi đã bao gồm đoạn văn cần thiết nhất dưới đây:

Vũ khí tự trị gây chết người có nguy cơ trở thành cuộc cách mạng thứ ba trong chiến tranh. Sau khi được phát triển, chúng sẽ cho phép xung đột vũ trang được chiến đấu ở quy mô lớn hơn bao giờ hết, và tại thời điểm nhanh hơn con người có thể hiểu được. Đây có thể là vũ khí khủng bố, vũ khí mà bọn chuyên gia và những kẻ khủng bố sử dụng để chống lại những người dân vô tội và vũ khí bị hack để hành xử theo những cách không mong muốn. Chúng tôi không có thời gian dài để hành động. Một khi hộp Pandora này được mở, sẽ rất khó để đóng.

Đồng ký tên Yoshua Bengio, một chuyên gia nghiên cứu sâu, người sáng lập Element AI, lo ngại nhiều hơn là những vũ khí tự trị gây chết người ngay lập tức có thể gây ra. Ông đã trích dẫn tiềm năng "làm tổn thương sự phát triển hơn nữa của các ứng dụng tốt AI AI" bằng cách tập trung vào chiến tranh và phản ứng dữ dội không thể tránh khỏi đối với công nghệ là lý do chính khiến ông tham gia vào nỗ lực này.

Viện Tương lai của Cuộc sống đã xuất bản một bức thư tương tự vào năm 2015, được ký bởi Musk, Stephen Hawking và những người khác với lời cảnh báo về sự nguy hiểm rộng lớn hơn của AI, không chỉ những người được tạo ra cho chiến tranh.

Mối nguy hiểm do AI phi quân sự gây ra ít gây bức xúc hơn, điều này khiến cho một số tuyên bố của Musk cảm thấy bị choáng ngợp và lố bịch và cuộc cãi vã tự trọng của anh ta với Mark Zuckerberg về cảnh tượng truyền thông hơn là một cuộc tranh luận với các cổ phần thực sự. Nhưng tiềm năng cho vũ khí tự trị gây sát thương, như thư ngỏ, hiện đang ở đây. Hy vọng, LHQ lắng nghe các chuyên gia.