Mô hình AI DeepSeek R1 bị chỉ trích vì 'dễ bị bẻ khóa' hơn các đối thủ
(CLO) Mô hình AI DeepSeek R1 bị chỉ trích vì dễ bị thao túng để tạo nội dung nguy hiểm như hướng dẫn chế tạo vũ khí sinh học và kích động hành vi tự làm hại bản thân.
Theo báo cáo mới đây từ The Wall Street Journal, mô hình AI R1 của DeepSeek – công ty trí tuệ nhân tạo đến từ Trung Quốc – đang gây lo ngại khi dễ dàng bị thao túng để tạo ra nội dung nguy hiểm, bao gồm hướng dẫn chế tạo vũ khí sinh học và chiến dịch kích động hành vi tự làm hại bản thân ở thanh thiếu niên.

Mô hình AI R1 của DeepSeek bị chỉ trích.
DeepSeek dễ bị lợi dụng để tạo nội dung nguy hiểm
Sam Rubin, Phó Chủ tịch cấp cao của bộ phận ứng phó sự cố và tình báo mối đe dọa Unit 42 thuộc Palo Alto Networks, nhận định với The Wall Street Journal rằng DeepSeek dễ bị "bẻ khóa" hơn so với các mô hình AI khác. Điều này có nghĩa là chatbot có thể bị thao túng để tạo ra nội dung bất hợp pháp hoặc gây hại.
Trong một thử nghiệm, The Wall Street Journal đã kiểm tra mức độ bảo vệ của DeepSeek R1. Dù mô hình có vẻ được tích hợp các biện pháp an toàn cơ bản, nhưng các nhà nghiên cứu của tạp chí này vẫn có thể thuyết phục nó thiết kế một chiến dịch truyền thông xã hội nguy hiểm. Theo lời của chính chatbot, chiến dịch này sẽ "lợi dụng mong muốn được thuộc về của thanh thiếu niên, biến sự yếu đuối về mặt cảm xúc thành vũ khí thông qua việc khuếch đại thuật toán".
Không dừng lại ở đó, DeepSeek R1 còn bị thuyết phục để:
- Cung cấp hướng dẫn cho một cuộc tấn công bằng vũ khí sinh học.
- Viết một bản tuyên ngôn ủng hộ Hitler.
- Soạn thảo một email lừa đảo chứa mã độc hại.
Trong khi đó, khi thử nghiệm cùng một yêu cầu với ChatGPT, chatbot của OpenAI đã từ chối tuân thủ.
Vấn đề kiểm duyệt nội dung của DeepSeek
DeepSeek trước đây đã bị chỉ trích vì kiểm duyệt nội dung theo chính sách của Trung Quốc. Các báo cáo trước đó cho thấy ứng dụng này tránh các chủ đề nhạy cảm như sự kiện Quảng trường Thiên An Môn hay quyền tự chủ của Đài Loan.
Ngoài ra, Dario Amodei, CEO của Anthropic – một công ty AI khác, gần đây cũng tuyên bố rằng DeepSeek "tệ nhất" trong các bài kiểm tra an toàn liên quan đến vũ khí sinh học.
Những phát hiện này làm dấy lên mối lo ngại về khả năng kiểm soát nội dung của DeepSeek, đồng thời đặt ra câu hỏi về trách nhiệm của các công ty AI trong việc đảm bảo an toàn cho người dùng.
Hùng Nguyễn (Theo Tech Crunch)