Việc phát triển và ứng dụng công nghệ trí tuệ nhân tạo (AI) đang đặt ra nhiều thách thức cho công tác quản lý. Phóng viên báo Tin tức đã có cuộc trao đổi với TS Nguyễn Văn Cương, Viện trưởng Viện Chiến lược và Khoa học pháp lý (Bộ Tư pháp) về vấn đề này.
Thưa ông, những vấn đề pháp lý đặt ra đối với việc phát triển và ứng dụng công nghệ trí tuệ nhân tạo hiện nay là gì?
TS Nguyễn Văn Cương: Trí tuệ nhân tạo là một trong những thành tựu công nghệ chung của nhân loại trong cuộc Cách mạng công nghiệp lần thứ tư. Việc phát triển và ứng dụng trí tuệ nhân tạo một cách có trách nhiệm có thể thúc đẩy tạo ra những đột phá trong phát triển kinh tế - xã hội của mỗi quốc gia và của nền kinh tế toàn cầu, góp phần tăng năng suất lao động trong nhiều ngành, lĩnh vực.
Tuy nhiên, việc phát triển và ứng dụng các công cụ trí tuệ nhân tạo, nhất là trí tuệ nhân tạo tạo sinh (Generative AI) như Chat GPT cũng đặt ra nhiều vấn đề pháp lý, đặc biệt là trách nhiệm của các đối tượng liên quan đến AI như: Vấn đề sở hữu và các quyền tài sản, quyền nhân thân đối với dữ liệu; vấn đề tôn trọng, bảo đảm, bảo vệ dữ liệu cá nhân; vấn đề tôn trọng quyền tác giả (khả năng vi phạm pháp luật về bảo hộ quyền tác giả); rủi ro đối với các quan hệ kinh tế; rủi ro lan truyền những thông tin không chính xác hoặc những định kiến…
Các tổ chức tội phạm có thể lợi dụng công nghệ trí tuệ nhân tạo để thực hiện những hành vi phạm tội mới, nhất là các loại tội phạm trên không gian mạng, các hành vi vi phạm pháp luật về an ninh mạng, trong đó có hành vi lừa đảo, giả mạo, các loại tội phạm về tài chính khác…
Ngoài ra, từ khía cạnh đạo đức, có thể thấy AI có tác động tới từng cá nhân, doanh nghiệp, tổ chức, các cơ quan nhà nước và tới toàn xã hội. Chẳng hạn, như vấn đề vận hành AI tạo sinh cần tiêu tốn nhiều năng lượng sẽ phát thải CO2 lớn; AI tạo ra những công việc mới nhưng cũng thay thế nhiều loại hình lao động…
Để việc phát triển và ứng dụng AI mang lại những lợi ích thiết thực cho xã hội, rất cần thiết kế hệ thống công cụ, trong đó có các quy định pháp luật và các quy tắc đạo đức để bảo đảm việc phát triển và ứng dụng AI một cách có trách nhiệm.
Việc điều chỉnh chính sách, pháp luật liên quan đến trí tuệ nhân tạo cần chú ý điều gì, thưa ông?
TS Nguyễn Văn Cương: Nhiều quốc gia, vùng lãnh thổ trên thế giới đã có những động thái chính sách để xử lý những vấn đề pháp lý phát sinh trong quá trình phát triển và ứng dụng trí tuệ nhân tạo. Các chính sách thường xoay quanh việc tìm điểm cân bằng giữa yêu cầu “tạo động lực thúc đẩy đổi mới sáng tạo liên quan tới việc phát triển và ứng dụng trí tuệ nhân tạo” với yêu cầu “bảo vệ lợi ích công cộng” nhất là trật tự, an ninh, an toàn xã hội, lợi ích của người tiêu dùng…
Tại Việt Nam, trong Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030 đã được Thủ tướng Chính phủ phê duyệt, xác định sự cần thiết phải xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến trí tuệ nhân tạo. Trong đó yêu cầu tạo hành lang pháp lý thông thoáng đáp ứng yêu cầu thúc đẩy nghiên cứu, phát triển và ứng dụng AI trong cuộc sống. Chiến lược cũng nhấn mạnh việc phát triển và ứng dụng AI phải lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Việc phát triển và ứng dụng AI mà không có sự điều tiết của nhà nước bằng công cụ pháp luật và các công cụ bổ trợ khác, thì rất khó bảo đảm được các yêu cầu về quốc phòng, an ninh, trật tự, an toàn xã hội, lợi ích quốc gia, lợi ích cộng đồng và các yêu cầu về an ninh, an toàn khác. Vì vậy, bảo đảm an ninh, an toàn, đáng tin cậy, với mức độ rủi ro nằm trong tầm kiểm soát phải là các yêu cầu mang tính then chốt trong chính sách, pháp luật điều chỉnh việc phát triển và ứng dụng AI.
Trong yêu cầu chung đó, chính sách, pháp luật về AI phải tạo điều kiện thuận lợi nhất để thúc đẩy đổi mới sáng tạo, củng cố các giá trị cốt lõi của trật tự chính trị, kinh tế, văn hóa, xã hội của quốc gia đã được ghi nhận trong Hiến pháp và các văn bản pháp luật của quốc gia. Chính sách, pháp luật về AI cũng phải góp phần bảo đảm các quyền thiết thân của mỗi người dân sử dụng hệ thống AI, trong đó có các quyền liên quan tới dữ liệu cá nhân.
Về góc độ pháp luật, ông có lời khuyên gì cho các tổ chức, cá nhân, doanh nghiệp đang nghiên cứu phát triển và ứng dụng công nghệ trí tuệ nhân tạo tại Việt Nam, thưa ông?
TS Nguyễn Văn Cương: Hiện nay, Việt Nam vẫn chưa có đạo luật chuyên biệt điều chỉnh riêng về việc phát triển và ứng dụng trí tuệ nhân tạo. Nhưng cần lưu ý rằng, AI cũng chỉ là một công nghệ và khi được phát triển ứng dụng để cung cấp các sản phẩm hàng hóa, dịch vụ ra thị trường thì đều chịu sự chi phối bởi các quy định pháp luật hiện hành của Việt Nam như Bộ luật dân sự, Luật Bảo vệ quyền lợi người tiêu dùng, Luật An ninh mạng, Nghị định về bảo vệ dữ liệu cá nhân, các quy định về hành chính, hình sự…
Tinh thần chung của các quy định pháp luật hiện hành là tôn trọng, khuyến khích cá nhân và doanh nghiệp thực hiện quyền phát triển khoa học công nghệ, đổi mới sáng tạo. Phải bảo đảm các yêu cầu không xâm phạm lợi ích quốc gia, dân tộc, lợi ích của nhà nước, lợi ích chung của cộng đồng, quyền và lợi ích hợp pháp của các cá nhân, tổ chức trong xã hội.
Tôi cho rằng, các cá nhân và doanh nghiệp đang nghiên cứu phát triển và ứng dụng AI cần hết sức lưu ý việc phát triển trí tuệ nhân tạo có trách nghiệm, mang lại lợi ích thiết thực cho người dùng bảo đảm an ninh an toàn, bảo đảm tính chính xác, độ tin cậy của những thông tin mà hệ thống AI tạo lập, tuyệt đối không sử dụng AI vào những hoạt động trái quy định của pháp luật.
Trân trọng cảm ơn ông!
20/06/2024 09:21