Trong bối cảnh kinh tế - xã hội đang phát triển với tốc độ nhanh chóng, vấn đề này đặt ra nhiều thách thức, rủi ro về đạo đức, xã hội, pháp lý. Việc phát triển trí tuệ có trách nhiệm cần có cái nhìn toàn diện và sâu rộng trên cơ sở xây dựng chính sách pháp luật liên quan.
Xu thế chung
Theo Phó Giáo sư, Tiến sỹ Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học Luật (Đại học Quốc gia Hà Nội), trí tuệ nhân tạo là một trong những thành tố cơ bản của cuộc cách mạng công nghiệp lần thứ tư và ngày càng phát triển mạnh mẽ. Bên cạnh những lợi ích to lớn, sự phát triển của trí tuệ nhân tạo cũng đã và đang làm dấy lên những quan ngại sâu sắc về các rủi ro tiềm ẩn từ các khía cạnh đạo đức, xã hội, pháp lý.
Không nằm ngoài xu thế chung về trí tuệ nhân tạo, tại Việt Nam, xác định trí tuệ nhân tạo có trách nhiệm cần bao gồm việc nghiên cứu cách tiếp cận của các quốc gia điển hình trên thế giới để rút ra bài học kinh nghiệm và đưa ra hàm ý chính sách cho Việt Nam. Cũng theo Phó Giáo sư, Tiến sỹ Nguyễn Thị Quế Anh, Việt Nam có lợi thế đi sau học tập kinh nghiệm các nước nhưng không thể sao chép nguyên văn chính sách, pháp luật của nước ngoài mà phải phân tích, đánh giá, tiếp thu phù hợp với bối cảnh của Việt Nam.
Nêu dẫn chứng cụ thể đối với ngành Giáo dục và Đào tạo, Phó Giáo sư, Tiến sỹ Nguyễn Thị Quế Anh cho rằng, trí tuệ nhân tạo đóng vai trò quan trọng trong hiện thực hóa ý tưởng học tập cá nhân hóa bằng việc điều chỉnh quá trình học, nội dung và tốc độ phù hợp với nhu cầu cụ thể của từng học sinh. Bên cạnh đó, cung cấp khả năng lấy dữ liệu từ nhiều nguồn khác nhau, xác thực và phân tích dữ liệu bằng các công cụ như phân tích dự báo và học máy. Tiềm năng của trí tuệ nhân tạo trong giáo dục là rất lớn, đóng vai trò là chất xúc tác cho quá trình chuyển đổi giáo dục cho tất cả các bên liên quan. Tuy nhiên, việc triển khai ứng dụng trí tuệ nhân tạo trong lĩnh vực giáo dục cũng đi kèm với rủi ro tiềm ẩn mang khía cạnh đạo đức và xã hội như: Quyền riêng tư, bảo vệ và sử dụng dữ liệu người học; ngăn chặn phân biệt đối xử dựa trên giới tính, chủng tộc, đặc điểm kinh tế - xã hội và sự khác biệt về trình độ năng lực; ngăn chặn sự lan tỏa các định kiến xã hội và văn hóa…
Còn theo Tiến sỹ Tôn Quang Cường, Trường Đại học Giáo dục, Đại học Quốc gia Hà Nội, việc ứng dụng các công nghệ như thị giác máy tính, học máy, xử lý ngôn ngữ tự nhiên, robot thông minh, tự động và cảm biến, công nghệ ảo… đã, đang và sẽ nhanh chóng mở rộng tới toàn bộ hệ thống giáo dục Việt Nam từ giáo dục phổ thông đến giáo dục đại học hay dạy nghề, đào tạo doanh nghiệp, giáo dục phi chính quy - giáo dục suốt đời… Sự phổ biến của ứng dụng trí tuệ nhân tạo trong lĩnh vực giáo dục và tầm quan trọng của lĩnh vực này đang đặt ra nhu cầu lớn về xác định, đánh giá những chuẩn mực đạo đức để tối đa hóa lợi ích và kiềm chế rủi ro mà trí tuệ nhân tạo có thể gây ra.
Cân đối yếu tố kinh tế, đạo đức, pháp lý
Trong bối cảnh việc phát triển trí tuệ nhân tạo có trách nhiệm ngày càng được chú trọng, mới đây, Bộ Khoa học và Công nghệ đã ban hành Quyết định 1290/QĐ-BKHCN về việc hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm. Một trong những mục tiêu của hướng dẫn này là hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng.
Theo Bộ Khoa học và Công nghệ, các hệ thống trí tuệ nhân tạo được đánh giá sẽ mang lại các lợi ích to lớn cho con người, xã hội và nền kinh tế thông qua việc hỗ trợ, giải quyết các vấn đề khó khăn mà con người, cộng đồng đang phải đối mặt. Tuy nhiên, cần nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng trí tuệ nhân tạo; cân đối các yếu tố kinh tế, đạo đức và pháp lý liên quan.
Vì vậy, các cơ quan chuyên môn cần nghiên cứu, xây dựng các tiêu chuẩn, hướng dẫn để định hướng kể cả đó là các quy định mềm và không có tính ràng buộc. Bên cạnh đó, việc chia sẻ, trao đổi thông tin về các quy trình, các biện pháp thực hành tốt giữa các bên liên quan cũng sẽ thúc đẩy sự đồng thuận để gia tăng lợi ích từ các hệ thống trí tuệ nhân tạo và kiểm soát được các rủi ro.
Quan điểm của Bộ Khoa học và Công nghệ về việc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo ở Việt Nam là hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ cuộc sống cũng như từ các hệ thống trí tuệ nhân tạo. Bộ Khoa học và Công nghệ cũng cho rằng cần đảm bảo sự cân bằng hợp lý giữa lợi ích và rủi ro của các hệ thống trí tuệ nhân tạo, trong đó nhấn mạnh yêu cầu giảm thiểu nguy cơ xâm phạm quyền hoặc lợi ích hợp pháp của các tổ chức, cá nhân từ các hệ thống trí tuệ nhân tạo…
Mục tiêu của hướng dẫn là thúc đẩy sự quan tâm của các bên liên quan trong việc nghiên cứu, phát triển và sử dụng các hệ thống, ứng dụng trí tuệ nhân tạo ở Việt Nam một cách có trách nhiệm; đồng thời, hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng; nhằm đạt được sự tin tưởng của người dùng và xã hội đối với trí tuệ nhân tạo.
Trong hướng dẫn, Bộ Khoa học và Công nghệ đã đưa ra 9 nguyên tắc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.