Bước đi trên sẽ tạo hình mẫu cho những nơi khác thực hiện các quy định tương tự liên quan đến việc quản lý lĩnh vực hoàn toàn mới mẻ này.
Ngày càng có nhiều cảnh báo về những nguy cơ tiềm ẩn từ AI, đặc biệt sau khi công cụ ChatGPT tạo nên cơn sốt toàn cầu từ cuối năm 2022. Thậm chí, 350 lãnh đạo và chuyên gia đầu ngành AI từng cảnh báo “nguy cơ tuyệt chủng” do AI và cho rằng việc giảm nguy cơ này phải là ưu tiên toàn cầu “bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.
Thực tế này đặt ra yêu cầu cấp bách cần đẩy nhanh việc luật hóa những quy định kiểm soát AI để hạn chế những nguy cơ mà không cản trở sáng tạo. Quá trình thảo luận đã diễn ra ở nhiều nơi, với những quy định tạm thời được đưa ra ở Mỹ, Canada hay Trung Quốc, Brazil. Trong khuôn khổ đa phương, mới đây Mỹ trình lên Đại hội đồng LHQ dự thảo nghị quyết đầu tiên về AI.
Đây là kết quả của quá trình đàm phán với 193 quốc gia thành viên LHQ trong suốt 3 tháng qua và nhận được phản hồi, đóng góp từ 120 nước. Mặc dù văn kiện này khi được thông qua, dự kiến vào cuối tháng 3, không có tính ràng buộc pháp lý, song cũng phản ánh nỗ lực thảo luận thực chất toàn cầu đối với việc quản lý tác động của công nghệ AI đang biến đổi rất nhanh.
Tại châu Âu, câu chuyện quản lý AI đã được xúc tiến từ năm 2021, nhưng chỉ thực sự được đẩy mạnh năm 2023 sau sự phát triển bùng nổ của ChatGPT. Tháng 5/2023, Phó Chủ tịch điều hành phụ trách vấn đề kỹ thuật số của Ủy ban châu Âu Margrethe Vestager nhấn mạnh không nên lãng phí thêm phút nào và kêu gọi các nhà lập pháp EU đẩy nhanh tiến độ thông qua quy định quản lý việc sử dụng AI.
Tháng 12/2023, các quốc gia và nhà lập pháp EU đã đồng ý về một bộ quy tắc dự thảo, được Ủy viên Thị trường Nội địa EU Thierry Breton ca ngợi là các quy tắc “lịch sử, tiên phong, lần đầu tiên trên thế giới” và là sự cân bằng hoàn hảo giữa đổi mới và an toàn công nghệ. Ngày 2/2 vừa qua, 27 quốc gia thành viên EU thông qua các quy tắc mang tính bước ngoặt về thỏa thuận quản lý AI.
Như nhiều dự luật khác, trước khi đi đến đồng thuận cuối cùng, tiến trình đàm phán của EU về dự luật AI cũng có nhiều gập ghềnh khi vừa phải đảm bảo sử dụng AI an toàn vừa không ảnh hưởng đến xu thế đổi mới, sáng tạo, đồng thời phải vẫn bảo vệ được các “ông lớn” công nghệ AI tương lai tại châu Âu trước sự cạnh tranh mạnh mẽ với “những gã khổng lồ” công nghệ tại Mỹ như Google, Meta, hay OpenAI - “cha đẻ” của ChatGPT. Một chủ đề khác cũng khiến đàm phán bế tắc là làm thế nào giám sát các ứng dụng AI tạo sinh như ChatGPT và giám sát sinh trắc học từ xa.
So với các quy định tại một số nước, luật AI của EU là quy định toàn diện nhất, bao trùm hàng loạt vấn đề từ rủi ro cho đến bản quyền. Luật đặt ra nghĩa vụ đối với cả nhà cung cấp và người dùng dựa trên 4 cấp độ rủi ro của AI, gồm rủi ro không thể chấp nhận được, rủi ro cao, rủi ro nói chung và rủi ro thấp.
Các hệ thống AI “gây rủi ro không thể chấp nhận” bị xem là mối đe dọa với con người và sẽ bị cấm, như hệ thống có khả năng thao túng hành vi nhận thức của con người. Các hệ thống AI ảnh hưởng tiêu cực đến sự an toàn hoặc các quyền cơ bản được xếp vào "rủi ro cao", sẽ phải được đánh giá trước khi đưa ra thị trường và tiếp tục được đánh giá trong vòng đời.
Trong khi đó, luật AI coi những rủi ro có hệ thống có thể phát sinh từ các mô hình AI sử dụng vào mục đích chung, trong đó có các mô hình AI tổng quát lớn. Các nền tảng AI tổng quát, như ChatGPT, sẽ phải tuân theo những yêu cầu minh bạch nội dung do AI tạo ra, thiết kế mô hình ngăn chặn việc tạo ra nội dung trái phép và công bố các bản tóm tắt dữ liệu có bản quyền được dùng để huấn luyện AI.
Còn hệ thống AI có rủi ro thấp, gồm các hệ thống AI tạo ra hoặc xử lý hình ảnh, âm thanh hoặc nội dung video, ví dụ như deepfake. Các hệ thống này phải tuân thủ tính minh bạch tối thiểu, cho phép người dùng nhận biết được đang tương tác với AI và quyết định tiếp tục sử dụng hay không.
Các nước thành viên sẽ phải đưa ra các hình thức xử lý thích đáng và có tính răn đe, trong đó có các mức xử phạt hành chính, đối với những hệ thống AI vi phạm các quy định của luật. Trong đó, ngưỡng cao nhất mà luật đề ra để xem xét là phạt tới 35 triệu euro, tương đương 7% tổng doanh thu toàn cầu hằng năm của công ty nếu không tuân thủ các yêu cầu về dữ liệu.
Ban đầu, một số nước thành viên EU, nhất là Pháp và Đức, lo ngại luật AI sẽ kìm hãm sự đổi mới, sáng tạo của các công ty công nghệ tại châu lục. Tuy nhiên, Ủy ban châu Âu (EC) khẳng định luật mới đem lại cho người dùng sự tin tưởng vào các hệ thống AI, từ đó gia tăng mối quan tâm đến công nghệ tiên tiến này.
Về phía doanh nghiệp, đạo luật tạo khuôn khổ pháp lý vững chắc để các nhà cung cấp AI có thể tiếp cận những thị trường rộng lớn hơn. Các công ty tuân thủ luật AI cũng sẽ phải thực hiện thử nghiệm trong thế giới thực, do đó sẽ có môi trường thử nghiệm có kiểm soát đối với những công nghệ đổi mới.
Nhà phân tích Enza Iannopollo tại nhóm nghiên cứu và cố vấn Forrester đánh giá dự luật khi được thông qua là “tin tốt” đối với các doanh nghiệp và xã hội. Với doanh nghiệp, luật đem đến cho các công ty khung pháp lý chắc chắn để đánh giá và giảm thiểu rủi ro mà nếu không được kiểm soát có thể gây hại cho khách hàng và khiến doanh nghiệp giảm khả năng hưởng lợi từ các khoản đầu tư vào công nghệ. Với xã hội, luật mới giúp bảo vệ người dân khỏi những hậu quả tiềm tàng và bất lợi.
Luật sẽ áp dụng đối với cả tổ chức công và tư ở trong và ngoài EU, miễn là hệ thống AI ra mắt tại thị trường EU hoặc việc sử dụng hệ thống đó ảnh hưởng đến người dân EU. Theo đó, các điều khoản của luật dự kiến ảnh hưởng đến các công ty lớn phát triển AI như Google, Meta, Microsoft và OpenAI, và cả những công ty nhỏ hơn dự định ứng dụng công nghệ mới này vào các ngành như giáo dục, ngân hàng và y tế. Sau đó là các cơ quan chính phủ cũng sử dụng các hệ thống AI ở mọi lĩnh vực từ tư pháp đến trợ cấp xã hội.
Tuy nhiên, luật AI có liên quan đến các cơ quan quản lý trên khắp 27 nước thành viên EU, đòi hỏi phải thuê nhiều chuyên gia mới. Nhiều vụ kiện tụng có thể xảy ra khi các công ty bắt đầu áp dụng quy định. Trước đó, Quy định chung về bảo vệ dữ liệu (GDPR) ban hành hồi tháng 5/2018 đã bị chỉ trích là áp dụng không đồng đều và luật AI có thể chịu số phận tương tự.
Một vấn đề phức tạp khác khi triển khai luật AI là nhiều điều khoản sẽ được áp dụng 2 năm sau khi được thông qua. Với tốc độ phát triển như vũ bão của AI, không ai chắc công nghệ này tới thời điểm đó sẽ như thế nào. Dự thảo ban đầu của luật AI đã phải điều chỉnh để phù hợp với tình hình mới sau những đột phá về công nghệ tạo điều kiện cho các ứng dụng AI tổng quát như ChatGPT ra đời.
Mặc dù vẫn còn những ý kiến hoài nghi về việc triển khai trên thực tế, song giới chuyên gia cho rằng luật AI của EU là một sáng kiến bước ngoặt nhằm đưa EU trở thành khu vực dẫn đầu thế giới về công nghệ AI có đạo đức và lấy con người làm trung tâm, trong khi thúc đẩy khả năng cạnh tranh và đổi mới, sáng tạo.
Chiếc “vòng kim cô” mà EU tạo ra để giám sát và kiềm chế những tác động tiêu cực của công nghệ AI có thể trở thành hình mẫu giúp bảo đảm AI được quản lý và khai thác phục vụ lợi ích của con người.