Các chuyên gia đều nhất trí rằng thuật ngữ công nghệ nói trên đã "gia tăng mức độ phủ sóng nhanh chóng", đồng thời trở thành "chủ đề thảo luận chính của năm 2023".
Dù AI không phải khái niệm mới, mà đã được biết đến từ những năm 1970, song sự khác nhau chủ yếu giữa AI truyền thống và AI tạo sinh (thế hệ mới) nằm ở khả năng và ứng dụng của chúng. Các hệ thống AI truyền thống chủ yếu được sử dụng để phân tích dữ liệu và đưa ra dự đoán, trong khi AI tạo sinh tiến thêm một bước bằng cách tạo ra dữ liệu mới tương tự dữ liệu đã được đào tạo. Sự ra đời của mô hình GPT (do OpenAI phát triển) cùng một loạt phiên bản sau đó và mới đây nhất là Gemini (của Google DeepMind) là minh chứng rõ nét nhất cho thấy thế giới sẽ bắt đầu một kỷ nguyên mới của AI hóa tri thức. Giới chuyên gia nhận định ứng dụng ChatGPT, Gemini hay AI nói chung đang là xu hướng không thể đảo ngược của thế giới bởi AI góp phần nâng cao năng suất, hiệu quả công việc, học tập, đáp ứng sự phát triển xã hội, phục vụ cuộc sống con người tốt hơn. Tuy nhiên, điều quan trọng là cần hiểu rõ hơn về AI để tận dụng và làm chủ công nghệ này một cách có trách nhiệm, để AI thực sự hỗ trợ và phục vụ con người, mà không đe dọa chính con người.
Giữa năm 2023, Giám đốc điều hành (CEO) của các công ty AI hàng đầu thế giới cùng hàng trăm nhà nghiên cứu và chuyên gia đã cùng ký vào tuyên bố, nhấn mạnh rằng việc giảm thiểu nguy cơ từ AI phải là ưu tiên toàn cầu, đồng thời ví hành động này có tính cấp bách như việc ngăn chặn cuộc chiến tranh hạt nhân. Theo bà Jen Easterly - Giám đốc Cơ quan An ninh mạng và An ninh cơ sở hạ tầng Mỹ, những tác động tiềm ẩn từ sự phát triển nhanh chóng của AI đồng nghĩa với việc các biện pháp bảo vệ cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lý hậu kỳ.
Liên minh châu Âu (EU) đi tiên phong với các cuộc thảo luận nhằm xây dựng quy định pháp lý toàn diện đầu tiên trên thế giới về sử dụng AI một cách an toàn, công bằng, bảo đảm các quyền cơ bản của con người, cũng như tạo cơ sở để các doanh nghiệp có thể tiếp tục phát triển dựa trên công nghệ này. Hiện Nghị viện châu Âu (EP) và Hội đồng châu Âu (EC) đã đạt được thỏa thuận chính trị về các điều khoản trong dự thảo Đạo luật AI. Thỏa thuận bao gồm cách tiếp cận 2 cấp, trong đó yêu cầu minh bạch đối với các mô hình AI nói chung và yêu cầu khắt khe hơn với các mô hình mạnh.
Hội nghị thượng đỉnh toàn cầu đầu tiên về an toàn AI được tổ chức tại Anh đã nhất trí Tuyên bố Bletchley với chữ ký của đại diện 27 quốc gia (trong đó có những nước hàng đầu về phát triển và ứng dụng AI như Mỹ và Trung Quốc) cùng EU, với 5 mục tiêu bao trùm hướng tới phát huy tinh thần đồng thuận và trách nhiệm chung liên quan những rủi ro, cơ hội và tiến trình thúc đẩy hợp tác quốc tế trong đảm bảo sử dụng và nghiên cứu AI an toàn.
Nhóm các nước công nghiệp phát triển (G7) đã công bố bộ quy tắc quốc tế toàn diện đầu tiên về hệ thống AI tiên tiến, trong đó đưa ra nhiều khuyến nghị để không chỉ các nhà phát triển mà cả người dùng bình dân cũng có thể giảm thiểu rủi ro do công nghệ này mang lại. Bộ quy tắc có 11 khuyến nghị, nhằm thúc đẩy sự an toàn, bảo mật và phát triển AI một cách đáng tin cậy trên toàn thế giới, trong đó bao gồm các biện pháp bảo vệ dữ liệu cá nhân và sở hữu trí tuệ, cũng như ưu tiên phát triển các hệ thống AI tiên tiến để giải quyết các thách thức toàn cầu cấp bách như cuộc khủng hoảng khí hậu.
Liên hợp quốc (LHQ) cũng công bố thành lập Ban cố vấn AI, với 39 thành viên là các giám đốc công ty, quan chức chính phủ và các học giả, có nhiệm vụ đưa ra hướng quản lý AI ở tầm quốc tế.
Ở quy mô quốc gia, chính phủ nhiều nước cũng đang nỗ lực quản lý công nghệ đang phát triển "quá nhanh nhưng tiềm ẩn nhiều mối nguy hiểm" này.
Đức, Pháp và Italy đã đạt được thỏa thuận về cách thức quản lý AI trong tương lai, theo đó tất cả các nhà cung cấp AI lớn và nhỏ ở EU cần tuân thủ các quy tắc ứng xử và bảo đảm tính minh bạch trong lĩnh vực này. Hội đồng Liên bang Thụy Sĩ yêu cầu cơ quan chức năng đánh giá tổng quan về các phương pháp quản lý khả thi đối với AI, từ đó xác định các phương pháp tiếp cận tiềm năng để điều chỉnh quy định quản lý vào cuối năm 2024.
Anh thành lập Viện An toàn AI đầu tiên trên thế giới nhằm đánh giá và thử nghiệm các mô hình mới, qua đó xác định tất cả các rủi ro tiềm ẩn từ AI. Nước này cũng tăng khoản tài trợ chi cho dự án "Tài nguyên nghiên cứu AI" lên 300 triệu bảng Anh (gần 374 triệu USD), gấp 3 lần so với công bố trước đó. Đây là dự án vận dụng năng lực của hai siêu máy tính ở Cambridge và Bristol để phân tích những mô hình AI hiện đại nhằm thử nghiệm các tính năng an toàn trong quá trình sử dụng công nghệ mới.
Mỹ - quốc gia đang dẫn đầu về công nghệ AI - cũng thành lập một viện tương tự nhằm đánh giá mức độ an toàn của các hệ thống AI và hướng dẫn quản lý các vấn đề phát sinh liên quan. Tổng thống Joe Biden đã ký sắc lệnh hành pháp hướng đến giải quyết gần như mọi mối lo ngại về an ninh mạng, cạnh tranh toàn cầu, phân biệt đối xử và giám sát về mặt kỹ thuật các hệ thống AI tiên tiến. Theo Nhà Trắng, khoảng 30 quốc gia đã gia nhập "tuyên bố chính trị" do Mỹ soạn thảo nhằm thiết lập bộ quy tắc chung cho việc phát triển, triển khai và sử dụng có trách nhiệm các năng lực AI trong lĩnh vực quân sự.
Trung Quốc công bố “Sáng kiến quản trị AI toàn cầu”, đưa ra một số quy định tạm thời đối với dịch vụ AI tạo sinh, đóng vai trò hướng dẫn về cách quản lý công nghệ này trong lúc chờ đợi một bộ luật chính thức về AI đang trong quá trình soạn thảo.
Chính phủ Nhật Bản sắp tới sẽ ban hành bộ nguyên tắc sử dụng AI nhằm giảm thiểu các rủi ro phát sinh từ công nghệ này như thông tin sai lệch và lo ngại về quyền riêng tư. Các nguyên tắc được đề cập yêu cầu tập trung vào con người, vấn đề bình đẳng, tính minh bạch trong công tác thu thập thông tin, trách nhiệm giải trình và khả năng truy cứu dữ liệu.
Australia dự kiến yêu cầu các công cụ tìm kiếm xây dựng tính năng mới nhằm ngăn chặn việc chia sẻ những tài liệu lạm dụng tình dục trẻ em do AI tạo ra, cũng như xóa sổ các phiên bản deepfake tương tự.
Hơn 50 tập đoàn và tổ chức nghiên cứu như Meta, IBM, Intel, Sony, Dell, Cơ quan Hàng không và Vũ trụ Mỹ (NASA)... đã cùng thành lập Liên minh AI nguồn mở nhằm bảo đảm một phương thức hợp tác cởi mở và minh bạch hơn trong việc phát triển công nghệ này. Việc thành lập liên minh trên được xem là bước tiến quan trọng, hướng tới tương lai an toàn hơn trong ứng dụng AI, thúc đẩy sự cân bằng giữa đổi mới và các tiêu chuẩn đạo đức trong một lĩnh vực đang phát triển nhanh, đầy tiềm năng song cũng ẩn chứa những hiểm họa khôn lường.
Theo giới chuyên gia, đến năm 2028, giá trị thị trường AI có thể vượt ngưỡng 1.000 tỷ USD, đồng nghĩa rằng việc xây dựng hành lang pháp lý nhằm kiểm soát và ngăn ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết. LHQ khẳng định các công nghệ AI cần được giám sát chặt chẽ, cho dù công nghệ phát triển đến mức nào cũng phải bảo đảm khía cạnh quyền con người luôn là yếu tố trung tâm.
Ngoài ra, khuôn khổ quản lý AI cũng cần tập trung vào những yếu tố chủ chốt như bảo mật dữ liệu, quyền riêng tư, trách nhiệm, đạo đức, tính minh bạch, nguy cơ và an toàn, chính sách xã hội và tác động tới kinh tế, phát triển công bằng, hợp tác quốc tế... Tuy vẫn còn chặng đường dài phía trước, nhưng những bước đi hiện tại đang tạo nền tảng quản lý AI một cách hiệu quả, để bảo đảm AI được phát triển vì con người, cho con người.