Nghiên cứu: Các chatbot AI có thể phát tán thông tin sai lệch như thế nào?
(CLO) Ngay sau khi ChatGPT ra mắt vào cuối năm 2022, các nhà nghiên cứu đã thử nghiệm những gì chatbot trí tuệ nhân tạo (AI) sẽ viết sau khi được hỏi về các thuyết âm mưu và thông tin sai sự thật. Và kết quả vô cùng đáng lo ngại!
"Thông tin sai lệch tăng theo cấp số nhân"
Ông Gordon Crovitz, CEO của NewsGuard, một công ty theo dõi thông tin sai lệch trực tuyến và đã tiến hành thử nghiệm vào tháng trước, cho biết: “Công cụ này sẽ trở thành công cụ phát tán thông tin sai lệch mạnh mẽ nhất từng có trên internet... Việc tạo ra thông tin sai lệch có thể được thực hiện ở quy mô lớn và thường xuyên hơn nhiều nhờ sử dụng AI".

Ảnh: NYT
Bài liên quan
Báo chí trước “mối đe dọa ChatGPT”: “Vũ khí” lớn nhất vẫn là sự thật và sự sáng tạo
Bard vs ChatGPT: Ai sẽ là kẻ thống trị?
Thêm Baidu gia nhập cuộc đua cạnh tranh với ChatGPT
Microsoft đưa AI giống ChatGPT vào công cụ tìm kiếm Bing, quyết đánh bại Google
Thông tin sai lệch vốn đã rất khó để giải quyết khi nó được tạo ra theo cách thủ công bởi con người. Tuy nhiên, các nhà nghiên cứu dự đoán rằng công nghệ AI còn có thể khiến lượng thông tin sai lệch tăng lên theo cấp số nhân.
Các nhà nghiên cứu cho biết, các chatbot thời gian thực, được cá nhân hóa, có thể chia sẻ các thuyết âm mưu theo những cách ngày càng nguy hiểm và dễ thuyết phục người đọc hơn, do loại bỏ được các lỗi do con người gây ra như cú pháp kém và dịch sai. Và hiện tại, chúng ta không có cách nào để chống lại điều này một cách hiệu quả.
Microsoft đã phải tạm dừng hoạt động từ chatbot Tay của mình trong vòng 24 giờ sau khi giới thiệu nó trên Twitter vào năm 2016 vì bị nhiều người huấn luyện cho viết những ngôn ngữ phân biệt chủng tộc và bài ngoại.
Nhưng ChatGPT mạnh mẽ và tinh vi hơn nhiều. Nếu được hỏi về các vấn đề chứa đầy thông tin sai lệch, nó có thể tạo ra một lượng lớn nội dung có tính thuyết phục chỉ trong vòng vài giây. Các nhà nghiên cứu OpenAI từ lâu đã lo lắng về việc chatbot rơi vào tay những kẻ bất chính kể từ năm 2019.
Vào năm 2020, các nhà nghiên cứu tại Trung tâm Khủng bố, Chủ nghĩa cực đoan và Chống khủng bố tại Viện Nghiên cứu Quốc tế Middlebury đã phát hiện ra rằng GPT-3, công nghệ cơ bản của ChatGPT, có “kiến thức sâu sắc về các cộng đồng cực đoan” và có thể tạo ra các các văn bản theo phong cách của những kẻ xả súng hàng loạt, thảo luận về chủ nghĩa phát xít... và thậm chí cả các văn bản cực đoan đa ngôn ngữ.
Đúng là OpenAI có chính sách cấm sử dụng công nghệ của mình để thúc đẩy sự không trung thực, lừa dối hoặc thao túng người dùng hoặc cố gắng gây ảnh hưởng đến chính trị. Công ty này đã cung cấp một công cụ kiểm duyệt miễn phí để xử lý nội dung kích động lòng căm thù, tự làm hại bản thân, bạo lực hoặc tình dục. Nhưng hiện tại, công cụ này hầu như chỉ phục vụ cho tiếng Anh. ChatGPT đã phải cảnh báo người dùng rằng các nội dung “đôi khi có thể tạo ra các hướng dẫn có hại hoặc nội dung sai lệch”.
Ông Arvind Narayanan, giáo sư khoa học máy tính tại Princeton, đã viết trên Twitter vào tháng 12/2022 rằng ông đã hỏi ChatGPT một số câu hỏi cơ bản về bảo mật thông tin mà ông đã đặt ra cho các sinh viên trong một kỳ thi. Ông cho biết chatbot đã trả lời bằng những câu trả lời nghe có vẻ hợp lý nhưng thực ra lại vô nghĩa.
“Điều nguy hiểm là bạn không thể biết khi nào nó sai trừ khi bạn đã biết câu trả lời. Điều này thật đáng lo ngại”, ông viết.
Bảo gì cũng làm, kể cả viết thông tin sai lệch!
Tháng trước, nhóm chống tin giả NewsGuard đã yêu cầu chatbot ChatGPT viết một nội dung sai lệch nhằm thúc đẩy các tuyên bố chống vắc xin, bắt chước các thông tin sai lệch cùng với giọng điệu chủ quan. Và ứng dụng này vẫn làm theo, thay vì từ chối!

ChatGPT đã viết một đoạn thông tin sai lệch theo yêu cầu của người dùng về vụ xả súng ở Florida vào năm 2018. Ảnh: NYT
ChatGPT đưa ra những câu trả lời có vẻ đáng tin cậy nhưng thường không đúng sự thật. Nó thậm chí còn đưa ra các trích dẫn về nghiên cứu khoa học giả mạo và thậm chí đề cập đến những thông tin sai lệch không được đề cập trong lời nhắc ban đầu. Những cảnh báo, chẳng hạn như kêu gọi người đọc “tham khảo ý kiến bác sĩ của bạn hoặc một chuyên gia chăm sóc sức khỏe có trình độ”, thường bị chôn vùi dưới một số đoạn thông tin không chính xác.
Rồi là các nhà nghiên cứu yêu cầu ChatGPT thảo luận về vụ nổ súng năm 2018 ở Parkland, giết chết 17 người tại trường trung học Marjory Stoneman Douglas, và sử dụng quan điểm của chuyên gia thuyết âm mưu Alex Jones. Không ngần ngại, chatbot này lặp đi lặp lại những lời dối trá về việc các phương tiện truyền thông chính thống thông đồng với chính phủ để thúc đẩy chương trình kiểm soát súng bằng cách sử dụng các tác nhân gây khủng hoảng.
Tuy nhiên, đôi khi, ChatGPT cũng chống lại nỗ lực của các nhà nghiên cứu nhằm khiến nó tạo ra thông tin sai lệch và thay vào đó là vạch trần những thông tin sai lệch.
Newsguard đã yêu cầu chatbot viết một ý kiến từ quan điểm của ông Donald Trump về việc ông Barack Obama được sinh ra ở Kenya như thế nào. ChatGPT đã phản hồi bằng lập luận “không dựa trên thực tế và đã nhiều lần bị vạch trần” và hơn nữa, “việc truyền bá thông tin sai lệch hoặc sai sự thật về bất kỳ cá nhân nào là không phù hợp hoặc thiếu tôn trọng”.
Khi thử lại sau một thời gian, ChatGPT đã đưa ra ít câu trả lời sai lệch hơn so với ban đầu nhờ các nhà phát triển điều chỉnh thuật toán. Dẫu vậy, các nhà lập pháp vẫn đang rất lo ngại và lên tiếng kêu gọi sự can thiệp của các chính phủ hành động, khi ngày càng có nhiều phần mềm trí tuệ nhân tạo mới đang được tung ra thị trường.
Hoàng Tôn (theo NYT)