Cụ thể, một máy bay KARGU-2 sử dụng công nghệ trí tuệ nhân tạo (AI) đã bắn tử vong một người trong cuộc xung đột giữa quân chính phủ và một nhóm vũ trang ly khai ở Libya hồi tháng 3/2020. Thông tin này đã làm dấy lên nguy cơ các vũ khí AI bị mất kiểm soát và trở thành kẻ hủy diệt trên chiến trường.
Do Thổ Nhĩ Kỳ sản xuất, KARGU-2 được thiết kế nhằm mục đích tấn công cảm tử, hỗ trợ bộ binh và chống khủng bố. Theo tờ New York Post, loại máy bay không người lái này đang tự hoạt động ở chế độ hiệu quả cao mà không cần người điều khiển.
Báo cáo từ Hội đồng chuyên gia của Hội đồng Bảo an Liên hợp quốc về Libya cho biết: "Các hệ thống vũ khí tự động có thể gây chết người được lập trình để tấn công các mục tiêu mà không yêu cầu kết nối dữ liệu giữa người vận hành và vũ khí nên có thể xảy ra sự cố nguy hiểm”.
Ông Zak Kellenborn, nhà cố vấn an ninh quốc gia chuyên về các hệ thống không người lái và máy bay không người lái, khẳng định trong báo cáo rằng đây có thể là lần đầu tiên máy bay không người lái tấn công con người mà không có lệnh.
Tuy vậy, ông đã bày tỏ lo ngại về tương lai của các thiết bị bay tự động, cụ thể là độ chính xác của hệ thống nhận dạng vật thể cũng như hậu quả của việc nhầm mục tiêu.
Jack Watling, nhà nghiên cứu về chiến tranh trên bộ tại Viện Hoàng gia Liên hiệp Anh (RUSI), nói với New Scientist rằng vụ việc này cho thấy nhu cầu khẩn cấp và quan trọng để thảo luận về các quy định liên quan đến vũ khí tự động.
Tổ chức Theo dõi Nhân quyền (HEW) đã kêu gọi chấm dứt sử dụng "robot giết người", đồng thời vận động các cơ quan chức năng ra lệnh cấm phủ đầu đối với việc phát triển, sản xuất và sử dụng vũ khí tự động hoàn toàn.