AI có thể được ứng dụng để giúp xóa đói giảm nghèo, chữa ung thư, chống biến đổi khí hậu... nhưng ngược lại, cũng có thể gây ra "những hậu quả rất nghiêm trọng đối với hòa bình và an ninh toàn cầu". Nhà lãnh đạo LHQ đề xuất thành lập một cơ quan mới trong tổ chức này để hỗ trợ quản lý việc sử dụng AI, theo mô hình của Cơ quan Năng lượng nguyên tử quốc tế hoặc Tổ chức Hàng không dân dụng quốc tế.
Đây không phải lần đầu tiên vấn đề cần có cơ chế quản lý, kiểm soát AI sao cho có thể cân bằng giữa việc thúc đẩy công nghệ phát triển, đồng thời cũng hạn chế những nguy cơ, được nhấn mạnh. Liên minh châu Âu (EU) đi tiên phong trong các nỗ lực quản lý AI. Ngày 14/6, Nghị viện châu Âu (EP) đã thông qua văn bản quan trọng về việc xây dựng một bộ quy tắc toàn diện nhằm quản lý các hệ thống AI, vốn đã được đề xuất từ tháng 4/2021. Theo đó, EU sẽ quản lý AI dựa trên mức đánh giá rủi ro đối với an ninh quốc gia và sự an toàn của người dùng. Có 4 cấp độ, bao gồm: rủi ro không thể chấp nhận được; rủi ro cao; rủi ro hạn chế; rủi ro tối thiểu hoặc không có rủi ro. Những ứng dụng AI tiềm ẩn “rủi ro không thể chấp nhận được” sẽ bị cấm.
Trong khi đó, việc giám sát nghiêm ngặt được yêu cầu với những ứng dụng có “rủi ro cao” trong các lĩnh vực như tài chính, hệ thống tư pháp và y học. Đối với các ứng dụng có “rủi ro hạn chế” (như các chatbot), EU yêu cầu các hệ thống AI có nghĩa vụ minh bạch nhất định, chẳng hạn như phải thông báo tới người dùng rằng sản phẩm do máy móc tạo ra, theo đó người dùng tự quyết định có thể tiếp tục sử dụng hay không. Dự luật cho phép sử dụng AI trong nhóm các lĩnh vực được đánh giá ở mức “rủi ro tối thiểu hoặc không có rủi ro”, chẳng hạn các ứng dụng như trò chơi điện tử có AI hỗ trợ hoặc bộ lọc thư rác, song cũng yêu cầu về tính minh bạch đối với các hệ thống trong loại này. Các nước thành viên EU sẽ thảo luận để thông qua dự luật vào cuối năm nay. Nếu điều này thành hiện thực, đây sẽ là bộ luật đầu tiên trên thế giới về quản lý AI.
Tại Mỹ, một dự thảo luật về vấn đề này cũng đã được đề xuất vào năm 2022. Văn kiện mang tên “Kế hoạch chi tiết cho Dự luật về quyền AI” này quy định việc quản trị AI là một vấn đề về quyền công dân, nêu rõ rằng công dân cần được bảo vệ khỏi sự phân biệt đối xử bằng thuật toán, xâm phạm quyền riêng tư và những nguy cơ khác. Hồi tháng 5 vừa qua, Tổng thống Mỹ Joe Biden và một số quan chức chính phủ cũng đã gặp gỡ giám đốc điều hành (CEO) các công ty công nghệ hàng đầu thế giới, bao gồm Microsoft và Google, để thảo luận về sự phát triển và những rủi ro liên quan công nghệ này.
Các nội dung được đề cập trong cuộc họp kéo dài 2 giờ này là vấn đề quản lý dữ liệu và trách nhiệm của các công ty công nghệ trong việc triển khai AI. Hiện Mỹ đã đưa ra kế hoạch trị giá 140 triệu USD để thành lập 7 viện nghiên cứu mới về AI, trong đó yêu cầu các cơ quan chính phủ soạn thảo hướng dẫn sử dụng AI một cách an toàn. Tổng thống Joe Biden cũng đã hối thúc Quốc hội Mỹ thông qua luật áp đặt các biện pháp hạn chế chặt chẽ hơn đối với lĩnh vực công nghệ.
Còn tại Anh, chính phủ nước này đã lên kế hoạch phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý nhân quyền, sức khỏe và an toàn, cũng như cơ quan quản lý cạnh tranh, thay vì tạo ra một cơ quan mới độc lập. Thủ tướng Rishi Sunak đã nhận thức rằng AI có tiềm năng thay đổi mọi khía cạnh của cuộc sống và đề xuất phương pháp này để đảm bảo quản lý hiệu quả và phù hợp với các khía cạnh quan trọng như nhân quyền, sức khỏe, an toàn và cạnh tranh.
Bằng cách phân chia trách nhiệm, Chính phủ Anh hy vọng có thể đảm bảo rằng các vấn đề quan trọng như quyền riêng tư và đạo đức trong việc sử dụng AI được quan tâm và bảo vệ, đồng thời tạo điều kiện thuận lợi cho sự phát triển và cạnh tranh trong lĩnh vực này. Điều này cho thấynhận thức của Chính phủ Anh về tầm quan trọng và tác động của AI đồng thời cũng thể hiện một cách tiếp cận linh hoạt trong quản lý công nghệ này.
Chính phủ Australia và New Zealand đã công bố các khuôn khổ liên quan AI, nhưng không phải là các quy tắc ràng buộc. Các đạo luật của cả hai quốc gia liên quan đến quyền riêng tư, tính minh bạch và không bị phân biệt đối xử, nhưng đều không thể xử lý các ảnh hưởng từ AI.
Trung Quốc tỏ ra quyết liệt hơn trong việc kiểm soát AI. Các công ty Trung Quốc đã đầu tư vào AI hơn 10 năm qua. Tuy nhiên, thay vì cung cấp mô hình AI cho phép mọi người tạo nội dung như chatbot hay trình tạo ảnh dựa trên văn bản, các doanh nghiệp Trung Quốc chủ yếu tập trung vào công nghệ có mục đích thương mại rõ ràng, như hệ thống giám sát.
Trung Quốc yêu cầu các công ty AI thu thập dữ liệu, đào tạo thuật toán của họ và tạo ra đầu ra phù hợp với sự kiểm duyệt và kiểm soát của chính phủ. Bắc Kinh cũng chủ động trong việc điều chỉnh các hoạt động sử dụng AI, đặc biệt là kiểm soát công chúng sử dụng AI để tạo ra nội dung của riêng mình. Một số công ty còn đi xa hơn khi tự đưa ra quy tắc riêng. Chẳng hạn Douyin - phiên bản cho thị trường Trung Quốc của TikTok - yêu cầu nội dung do AI tạo phải được gắn nhãn và bất kỳ ai đăng bài trên nền tảng này phải xác thực danh tính.
Mặc dù vậy, các chuyên gia nhận định việc thiết lập các quy định chung cho công nghệ là một quá trình phức tạp và đòi hỏi được cân nhắc kỹ lưỡng, tránh cản trở sự phát triển của AI.
Theo Foreign Policy, các quy định có thể được thiết lập dựa trên nguyên tắc và khung pháp lý linh hoạt, mở rộng; không làm hạn chế quá mức sự phát triển và sáng tạo, mà vẫn đảm bảo an toàn, đạo đức và trách nhiệm trong việc sử dụng AI. Giới quan sát cũng cho rằng các quy định cần được xem xét và điều chỉnh định kỳ để đảm bảo tính phù hợp và hiệu quả trong việc quản lý công nghệ.
Thêm vào đó, việc hợp tác và tương tác giữa các bên liên quan là rất quan trọng. Các chính phủ, tổ chức quốc tế, doanh nghiệp, cộng đồng nghiên cứu và các bên liên quan khác cần cùng nhau thảo luận, chia sẻ thông tin và kinh nghiệm để xây dựng các quy định chung phù hợp và cập nhật.
Bà Mira Murati - trưởng bộ phận công nghệ của OpenAI, công ty khởi nghiệp Mỹ đã phát triển chatbot ChatGPT - nhấn mạnh: "Công nghệ định hình chúng ta và chúng ta định hình nó. Có rất nhiều vấn đề khó giải quyết. Làm cách nào để khiến mô hình thực hiện điều ta muốn và cách ta đảm bảo rằng nó phù hợp với ý định của con người và cuối cùng là phục vụ nhân loại? Ngoài ra còn có rất nhiều câu hỏi xung quanh tác động xã hội, và có rất nhiều câu hỏi về đạo đức, triết học mà chúng ta cần xem xét".
Trong khi đó, Giám đốc điều hành của Google, ông Sundar Pichai khẳng định: “Cần một thời gian dài để hiểu về AI, vì thế việc 'thả' nó ra xã hội là điều cần phải cân nhắc rất kỹ. Con người cần đủ thời gian để thích ứng và làm chủ AI, chứ không phải là ngược lại”. Ông Sundar Pichai cũng nêu rõ rằng việc xây dựng luật quản lý AI để đảm bảo công nghệ này được ứng dụng một cách an toàn và phù hợp với các giá trị nhân văn sẽ không thể do một công ty công nghệ tự quyết định, mà còn cần có sự tham gia từ các nhà khoa học xã hội, các chuyên gia đạo đức và các nhà nghiên cứu trong những lĩnh vực liên quan khác.
Là sản phẩm do con người tạo ra, với mục tiêu phục vụ nhân loại, có thể thấy AI có tác động tích cực tới phát triển đời sống - xã hội. Vấn đề mấu chốt là cần tránh cả 2 khuynh hướng: quá tôn sùng, lệ thuộc vào AI hoặc kỳ thị cực đoan, mà phải bình tĩnh, tỉnh táo để thấu hiểu bản chất và có cách thức ứng xử thông minh với các sản phẩm AI. Cũng giống như tất cả các công nghệ từng ra đời trước đó - như điện, đồ điện tử, giao thông hiện đại hay mạng lưới Internet - AI sẽ chỉ giúp thúc đẩy kinh tế - xã hội và cải thiện phúc lợi của nhân loại nếu được kiểm soát hợp lý.