Trung tâm An ninh mạng Quốc gia Anh (NCSC) đã cảnh báo rủi ro từ chatbot AI và nhận định chúng có thể bị lợi dụng trong tấn công mạng.
Các chuyên gia nhận định kẻ xấu có thể hình thành kế hoạch lừa đảo với thư điện tử (email) giả tạo tinh vi hình thành từ ChatGPT cũng như các đối thủ của chương trình AI này. Một ví dụ là việc tạo email với nhiều ngôn ngữ sẽ dễ dàng hơn nhờ chatbot AI. Điều này gây khó khăn cho phát hiện dấu hiệu gian lận như lỗi ngữ pháp hoặc chính tả.
Tờ Guardian (Anh) dẫn lời khuyên của các chuyên gia cảnh báo người sử dụng nên thận trọng hơn trong việc nhấp chuột vào các đường link hoặc tập tin đính kèm từ những nguồn không rõ nguồn gốc.
CEO của công ty tư vấn dữ liệu Covelent (Anh) – ông Nik Nicholas đưa ra lời khuyên nên sử dụng phần mềm an ninh và thường xuyên cập nhật để bảo vệ chống lại phần mềm độc hại.
Một cách nhận biết nữa là tuy ngôn ngữ có thể không có khuyết điểm nhưng các nội dung của chatbot thường mang thông tin lỗi thời, và đây có thể là dấu hiệu của sản phẩm không phải do con người tạo ra. Ngoài ra, các nội dung này cũng có thể mang phong cách viết theo công thức, nhạt nhẽo.
Các chuyên gia cảnh báo rằng tội phạm mạng cũng có thể lợi dụng những công cụ như ChatGPT để viết phần mềm độc hại. Bên cạnh đó, còn có lo ngại về nguy cơ thông tin nhạy cảm được nhập vào trong chatbot bị rò rỉ trên internet.
Thêm vào đó, AI cũng có thể tạo các nội dung như âm thanh, hình ảnh. Đây cũng là điều khiến tội phạm nhòm ngó để tìm cơ hội tạo ra video deepfake như thật để giả dạng nhân viên ngân hàng hỏi mật khẩu khách hàng…
Ông Will Richmond-Coggan, chuyên gia AI tại công ty luật Freeths kết luận cách phòng ngừa tốt nhất trước phần mềm độc hại và lừa đảo hình thành từ AI là sự cảnh giác của mỗi người.
Bên cạnh đó, các chuyên gia cho biết, trong bối cảnh hình ảnh AI tạo ra ngày càng trở nên khó phân biệt với thực tế, cách tốt nhất để chống lại thông tin sai lệch từ hình ảnh là nâng cao nhận thức và giáo dục cộng đồng.