Nhà nghiên cứu trí tuệ nhân tạo (AI) nổi tiếng người Mỹ Eliezer Yudkowsky nói rằng nhân loại chưa được chuẩn bị để sống sót khi đối phó với trí tuệ nhân tạo thông minh hơn nhiều so với hiện tại.
Ngừng phát triển các hệ thống trí tuệ nhân tạo tiên tiến trên toàn cầu và trừng phạt nghiêm khắc những người vi phạm lệnh cấm là cách duy nhất để cứu loài người khỏi sự tuyệt chủng. Đó là lời cảnh báo được nhà nghiên cứu AI nổi tiếng Eliezer Yudkowsky đưa ra.
Ông Eliezer Yudkowsky, nhà đồng sáng lập Viện Nghiên cứu Trí tuệ Máy móc (MIRI), đã viết một bài bình luận cho tạp chí TIME trong tuần này, giải thích lý do tại sao ông không ký vào bản kiến nghị kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất sáu tháng”. GPT-4 là một mô hình ngôn ngữ đa phương thức sử dụng trí tuệ nhân tạo, được công ty OpenAI phát hành vào đầu tháng này.
Ông Yudkowsky lập luận rằng, bức thư, được ký bởi những nhân vật nổi tiếng trong ngành công nghệ như Elon Musk hay Steve Wozniak của Apple, đưa ra “yêu cầu quá ít" để giải quyết vấn đề do sự phát triển nhanh chóng và thiếu kiểm soát của AI đặt ra.
Theo ông, lệnh cấm 6 tháng này vẫn tốt hơn là không có lệnh cấm nào. "Tôi tôn trọng tất cả những người đã tham gia và ký nó... Tôi không ký tên vì tôi nghĩ rằng bức thư chưa nhấn mạnh đủ mức độ nghiêm trọng của tình hình và yêu cầu quá ít để giải quyết vấn đề" - ông Yudkowsky giải thích.
Chuyên gia AI này nói rõ hơn: "Nhiều nhà nghiên cứu sâu trong vấn đề này, bao gồm cả tôi, đều dự đoán rằng kết quả rất có thể xảy ra của việc xây dựng một AI thông minh siêu phàm, trong bất kỳ hoàn cảnh nào xa xôi so với hiện tại, là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen. [Nhưng] Không phải là 'một cơ hội xa xôi nào đó' mà 'đó là điều hiển nhiên sẽ xảy ra'. Về nguyên tắc, không phải là bạn không thể tồn tại khi tạo ra thứ gì đó thông minh hơn bạn nhiều; vấn đề là nó sẽ đòi hỏi sự chính xác, sự chuẩn bị cũng như những hiểu biết khoa học mới" mà nhân loại hiện đang thiếu và khó có thể đạt được trong tương lai gần.
“Một AI đủ thông minh sẽ không bị giới hạn trong máy tính lâu”, ông Yudkowsky cảnh báo. Nhà nghiên cứu này giải thích rằng việc có thể gửi email các chuỗi DNA đến các phòng thí nghiệm để sản xuất protein có thể sẽ cho phép AI “xây dựng các dạng sống nhân tạo hoặc đi thẳng đến quá trình sản xuất phân tử hậu sinh học” và bước ra thế giới.
Theo nhà nghiên cứu Yudkowsky, một lệnh cấm vô thời hạn và trên toàn thế giới đối với các hoạt động đào tạo AI lớn phải được đưa ra ngay lập tức. Ông nhấn mạnh: “Không thể có ngoại lệ, kể cả đối với chính phủ hay quân đội".
Ông Yudkowsky nhấn mạnh rằng các thỏa thuận quốc tế nên được ký kết để đặt ra mức trần về sức mạnh của máy tính, nhằm kiểm soát ai đó có thể sử dụng nó để đào tạo các hệ thống AI như vậy.
“Nếu thông tin tình báo nói rằng một quốc gia đứng ngoài thỏa thuận đang xây dựng cụm GPU (bộ xử lý đồ họa), hãy bớt lo sợ về xung đột súng ống giữa các quốc gia hơn là sợ lệnh cấm (phát triển AI) bị vi phạm; hãy sẵn sàng phá hủy một trung tâm dữ liệu vô nguyên tắc bằng một cuộc không kích", ông viết.
Nhà nghiên cứu cũng nói thêm: Mối đe dọa từ trí tuệ nhân tạo lớn đến mức cần phải làm rõ “trong ngoại giao quốc tế rằng việc ngăn chặn các kịch bản tuyệt chủng do AI phải được coi là ưu tiên hơn so với việc ngăn chặn một cuộc xung đột hạt nhân”.
Kết bài viết, ông Yudkowsky nhấn mạnh: "Chúng ta không chuẩn bị. Tất nhiên, chúng ta không sẵn sàng chuẩn bị cho bất kỳ khoảng thời gian phù hợp nào. Không có kế hoạch. Tiến bộ về khả năng của AI đang diễn ra rất nhanh, vượt xa tiến bộ trong việc kiểm soát AI hoặc thậm chí là tiến bộ trong việc hiểu chuyện quái gì đang diễn ra bên trong các hệ thống đó. Nếu thực sự như vậy, tất cả chúng ta sẽ chết".