Theo đó, người dùng trưởng thành có thể chỉ định một “liên hệ tin cậy” trong tài khoản của mình, chẳng hạn bạn bè hoặc người thân trong gia đình. Khi cuộc trò chuyện có dấu hiệu liên quan đến tự sát hoặc tự gây hại, ChatGPT sẽ khuyến khích người dùng liên hệ với người này.
Đồng thời, hệ thống cũng tự động gửi cảnh báo để người liên hệ chủ động kiểm tra tình trạng của người dùng. Theo OpenAI, nội dung cảnh báo được thiết kế ngắn gọn và chỉ nhằm khuyến khích người nhận chủ động hỏi thăm người dùng, không bao gồm chi tiết cụ thể của cuộc trò chuyện nhằm bảo vệ quyền riêng tư.
OpenAI thời gian qua đối mặt với nhiều vụ kiện từ gia đình của những người đã tự sát sau khi trò chuyện với chatbot của công ty. Trong một số vụ việc, phía gia đình cáo buộc ChatGPT đã khuyến khích hoặc thậm chí hỗ trợ người thân của họ lên kế hoạch tự sát.
Hiện tại, OpenAI cho biết công ty đang sử dụng kết hợp giữa hệ thống tự động và đội ngũ kiểm duyệt con người để xử lý các tình huống có nguy cơ gây hại. Một số từ khóa hoặc nội dung trong hội thoại sẽ kích hoạt hệ thống cảnh báo về ý định tự sát, sau đó thông tin được chuyển cho nhóm an toàn của công ty để xem xét.
OpenAI khẳng định mọi cảnh báo dạng này đều được con người kiểm tra. Công ty cho biết: “Chúng tôi cố gắng xem xét các cảnh báo an toàn này trong vòng chưa đầy một giờ”.
Tính năng “Trusted Contact” được phát triển tiếp nối các biện pháp bảo vệ mà OpenAI triển khai từ tháng 9 năm ngoái. Khi đó, công ty cho phép phụ huynh giám sát một phần tài khoản của con vị thành niên, bao gồm nhận thông báo nếu hệ thống đánh giá trẻ có nguy cơ gặp phải “rủi ro an toàn nghiêm trọng”.
Trong thời gian gần đây, ChatGPT cũng đã tích hợp các cảnh báo tự động khuyến nghị người dùng tìm đến dịch vụ hỗ trợ sức khỏe chuyên nghiệp nếu nội dung trò chuyện chuyển hướng sang chủ đề tự làm hại bản thân.
Trong thông báo chính thức, OpenAI cho biết: “Trusted Contact là một phần trong nỗ lực rộng hơn của OpenAI nhằm xây dựng các hệ thống AI có thể hỗ trợ con người trong những thời điểm khó khăn. Chúng tôi sẽ tiếp tục hợp tác với các bác sĩ lâm sàng, nhà nghiên cứu và các nhà hoạch định chính sách để cải thiện cách hệ thống AI phản ứng khi người dùng có dấu hiệu khủng hoảng tâm lý".