Theo đài Sputnik ngày 27/6, ông Nakamitsu phát biểu tại Đối thoại Đổi mới năm 2023 của Viện Nghiên cứu Giải trừ quân bị (Liên hợp quốc): “AI trong các chức năng liên quan đến vũ khí…, đặc biệt là các hệ thống vũ khí hạt nhân, là một khái niệm cực kỳ nguy hiểm có thể dẫn đến hậu quả nhân đạo thảm khốc”.
Ông Nakamitsu cảnh báo không nên chạy theo công nghệ một cách mù quáng và nhấn mạnh rằng con người cần là người quyết định thời điểm và cách sử dụng AI và máy học (machine learning) chứ không phải ngược lại.
Trước đó, theo tờ The Verge, chính sách của Bộ Quốc phòng Mỹ đã cấm để AI tự động phóng vũ khí hạt nhân. Nhưng trong bối cảnh nỗi sợ hãi ngày càng tăng về AI, một nhóm các nhà lập pháp lưỡng đảng ở Mỹ đã muốn đảm bảo chắc chắn rằng điều đó không thể xảy ra.
Hồi cuối tháng 4, thượng nghị sĩ Edward Markey cùng các hạ nghị sĩ Ted Lieu, Don Beyer và Ken Buck đã trình Đạo luật Cấm kích hoạt hạt nhân bằng AI tự động. Dự luật sẽ cấm sử dụng quỹ liên bang để phóng vũ khí hạt nhân bằng hệ thống vũ khí tự động mà không chịu sự kiểm soát của con người. Dự luật này sẽ hệ thống hóa các quy tắc hiện có của Lầu Năm Góc về vũ khí hạt nhân tính tới năm 2022.
Dự luật có đoạn: “Trong mọi trường hợp, Mỹ sẽ để con người thực hiện tất cả các hành động quan trọng để thông báo và thực thi các quyết định của Tổng thống nhằm kích hoạt và chấm dứt sử dụng vũ khí hạt nhân”.
Đồng thời, dự luật muốn không có hệ thống tự động nào không có sự giám sát của con người lại có thể phóng vũ khí hạt nhân hoặc lựa chọn, tấn công các mục tiêu với ý định phóng một vũ khí hạt nhân. Quyết định phóng vũ khí hạt nhân cũng không được để AI đưa ra.
Việc công bố dự luật kêu gọi chú ý đến những nguy cơ tiềm ẩn của các hệ thống AI tự động hiện nay - một mối quan tâm đang diễn ra tại Quốc hội Mỹ cũng như thế giới công nghệ.