Meta dự kiến sẽ hoàn tất hệ thống này trong vài tháng tới để xác định và gắn nhãn các hình ảnh do AI tạo ra được đăng trên các nền tảng Facebook, Instagram và Threads của “gã khổng lồ” truyền thông xã hội này.
Chủ tịch Meta phụ trách các vấn đề toàn cầu, ông Nick Clegg cho biết kể từ tháng 12/2023, Meta đã triển khai việc gắn nhãn ẩn và hiển thị đối với các hình ảnh được tạo ra bằng công cụ AI riêng, nhưng công ty vẫn muốn hợp tác với các công ty khác để đảm bảo “tính minh bạch” tối đa cho người dùng.
Trong một bài đăng trên mạng, đại diện Meta cho biết đang phối hợp với các đối tác trong ngành để điều chỉnh các tiêu chuẩn kỹ thuật chung giúp báo cáo nội dung được tạo ra bằng AI. Các đối tác tham gia dự án là những công ty mà Meta vốn đang hợp tác về các tiêu chuẩn AI, trong đó có OpenAI, Google, Microsoft, Midjourney và một số công ty khác tham gia cuộc đua dẫn đầu lĩnh vực non trẻ này.
Ông Clegg thừa nhận việc gắn nhãn ở quy mô lớn các hình ảnh vi phạm sẽ không loại bỏ hoàn toàn nguy cơ ảnh giả, nhưng chắc chắn sẽ góp phần ngăn ảnh phát tán rộng trong giới hạn cho phép của công nghệ hiện nay. Tuy nhiên theo ông Clegg, các công ty đã bắt đầu thêm tính năng báo hiệu các hình ảnh được tạo bằng công cụ AI, song vẫn còn “chậm chân” trong việc phát hiện các âm thanh hoặc video được tạo bằng AI.
Bên cạnh đó, công ty Meta khuyến cáo mọi người nên “tỉnh táo” khi xem xét các nội dung trực tuyến, kiểm tra xem liệu các tài khoản đăng nội dung đó có đáng tin cậy hay không và lưu ý tới những chi tiết có vẻ bất thường.
Trước đó, Meta yêu cầu các nhà quảng cáo phải thông báo khi sử dụng AI để tạo hoặc thay đổi hình ảnh hay âm thanh trong các quảng cáo liên quan đến chính trị.
Nhiều chính trị gia và phụ nữ đang trở thành mục tiêu chính của những hình ảnh giả mạo được tạo ra bằng kỹ thuật “deepfake”. Cuối tháng 1 vừa qua, những hình ảnh khiêu dâm do AI tạo ra về ngôi sao nhạc pop người Mỹ Taylor Swift đã lan truyền trên mạng xã hội. Mặc dù những ảnh này sau đó đã bị xóa khỏi các nền tảng xã hội, song đã có hàng chục triệu lượt xem.