Công ty có trụ sở tại San Francisco đã dẫn chứng các nghiên cứu cho thấy việc trò chuyện với AI như thể đang nói chuyện với một con người có thể dẫn đến sự tin tưởng không đúng chỗ. Họ cũng cho rằng chất lượng giọng nói cao của GPT-4o có thể làm gia tăng tác động này.
"Nhân hóa là quá trình gán những hành vi và đặc điểm của con người cho các thực thể phi nhân, chẳng hạn như các mô hình AI," OpenAI cho biết trong một báo cáo về độ an toàn của phiên bản ChatGPT-4o. "Rủi ro này có thể gia tăng bởi khả năng âm thanh của GPT-4o, giúp các tương tác với mô hình trở nên giống con người hơn."
OpenAI nhận thấy những người thử nghiệm trò chuyện với AI theo cách thể hiện mối quan hệ gần gũi, chẳng hạn như than thở rằng đó là ngày cuối cùng họ có thể nói chuyện với AI. Họ cho rằng những trường hợp này có vẻ vô hại nhưng cần được nghiên cứu kỹ hơn để xem chúng có thể phát triển như thế nào trong thời gian dài.
Theo dự đoán của Open AI, việc giao tiếp xã hội với AI cũng có thể khiến người dùng trở nên kém khéo léo hoặc ít muốn tương tác với con người hơn.
"Việc tương tác kéo dài với mô hình này có thể ảnh hưởng đến các chuẩn mực xã hội," báo cáo cho biết. "Chẳng hạn, các mô hình của chúng tôi thường rất lịch sự, cho phép người dùng ngắt lời và 'chiếm mic' bất cứ lúc nào, điều này là bình thường đối với AI, nhưng sẽ không đúng chuẩn mực trong tương tác giữa con người". Ngoài ra, khả năng AI ghi nhớ chi tiết trong quá trình trò chuyện và thực hiện các nhiệm vụ cũng có thể khiến con người trở nên phụ thuộc quá mức vào công nghệ.
Alon Yamin, đồng sáng lập kiêm CEO của nền tảng phát hiện đạo văn bằng AI, Copyleaks, cho biết: "Những lo ngại gần đây mà OpenAI chia sẻ về khả năng phụ thuộc vào chế độ giọng nói của ChatGPT cho thấy một câu hỏi mà nhiều người đã bắt đầu đặt ra: Đã đến lúc phải dừng lại và xem xét công nghệ này ảnh hưởng thế nào đến tương tác và mối quan hệ giữa con người?" Ông nhấn mạnh rằng AI không bao giờ nên thay thế tương tác thực tế giữa con người.
OpenAI cho biết họ sẽ tiếp tục thử nghiệm để hiểu rõ hơn về cách mà khả năng giọng nói trong AI có thể khiến con người trở nên gắn bó về mặt cảm xúc.
Các nhóm thử nghiệm tính năng giọng nói của ChatGPT-4o cũng đã phát hiện rằng mô hình này có thể bị kích hoạt để lặp lại thông tin sai lệch và tạo ra các thuyết âm mưu, gây lo ngại rằng AI có thể thuyết phục người dùng tin vào những điều sai sự thật.
Vào tháng 6, OpenAI đã buộc phải xin lỗi nữ diễn viên Scarlett Johansson sau khi công ty sử dụng một giọng nói rất giống với giọng của cô trong phiên bản chatbot mới nhất. Mặc dù OpenAI phủ nhận rằng giọng nói họ sử dụng là của Johansson, tình hình trở nên phức tạp khi CEO Sam Altman đã đăng một thông điệp duy nhất trên mạng xã hội để giới thiệu mô hình mới này - "Her" (Cô ấy).
Johansson đã lồng tiếng cho một nhân vật AI trong bộ phim "Her", bộ phim mà Altman đã từng chia sẻ là tác phẩm yêu thích nhất của ông về trí tuệ nhân tạo.
Bộ phim năm 2013 có sự tham gia của Joaquin Phoenix. Tài tử nổi tiếng này thủ vai một người đàn ông nảy sinh tình yêu với một trợ lý giọng nói AI sau khi ly hôn.