Thông báo trên được đưa ra một tháng sau khi hội đồng quản trị công ty sa thải Giám đốc điều hành (CEO) Sam Altman, và thuê ông trở lại vài ngày sau vì nhân viên và nhà đầu tư phản đối.
Theo truyền thông Mỹ, các thành viên hội đồng quản trị của OpenAI chỉ trích ông Altman vì ông ủng hộ sự phát triển nhanh chóng của OpenAI bất chấp những rủi ro có thể xảy ra với công nghệ mà công ty phát triển.
Tháng 10 vừa qua, công ty cho biết một nhóm giám sát và đánh giá sẽ tập trung vào "các mô hình biên giới" đang được phát triển, có khả năng vượt trội so với phần mềm AI tiên tiến nhất. Nhóm sẽ đánh giá từng mô hình mới và xác định mức độ rủi ro từ "thấp" đến mức "quan trọng" gồm 4 cấp. Theo bản hướng dẫn trên, chỉ những mô hình có điểm rủi ro là "trung bình" hoặc thấp hơn có thể được triển khai.
Cấp độ rủi ro đầu tiên liên quan đến an ninh mạng và khả năng thực hiện các cuộc tấn công mạng quy mô lớn của mô hình. Cấp độ thứ hai sẽ đo lường xu hướng của phần mềm trong việc giúp tạo ra hỗn hợp hóa học, sinh vật (chẳng hạn như virus) hoặc vũ khí hạt nhân, có thể gây hại cho con người. Cấp độ thứ 3 liên quan đến sức mạnh thuyết phục của mô hình, chẳng hạn như mức độ nó có thể ảnh hưởng đến hành vi của con người. Cấp độ rủi ro cuối cùng liên quan đến khả năng tự chủ tiềm tàng của mô hình, đặc biệt là liệu mô hình này có thể thoát khỏi sự kiểm soát của các lập trình viên đã tạo ra nó hay không.
Sau khi xác định được mức độ rủi ro, kết quả sẽ được gửi đến Nhóm Cố vấn An toàn của OpenAI, một cơ quan mới của OpenAI sẽ đưa ra khuyến nghị cho ông Altman hoặc người do ông chỉ định. Sau đó, người đứng đầu OpenAI sẽ quyết định mọi thay đổi cần thực hiện đối với mô hình để giảm thiểu rủi ro liên quan. Hội đồng quản trị sẽ được thông báo đầy đủ và có thể bác bỏ quyết định trên.