OpenAI thừa nhận mô hình AI mới có thể được sử dụng để tạo ra vũ khí sinh học

Thứ bảy, 14/09/2024 11:53 AM - 0 Trả lời

(CLO) OpenAI thừa nhận rằng các mô hình AI mới nhất của họ đã "gia tăng đáng kể" nguy cơ bị lạm dụng để tạo ra vũ khí sinh học. Thông báo này được đưa ra sau khi nhóm công bố mô hình mới, được gọi là o1, vào thứ Năm.

Mô hình này có khả năng suy luận, giải quyết các vấn đề toán học phức tạp và trả lời các câu hỏi nghiên cứu khoa học, đây được xem là một bước tiến quan trọng trong nỗ lực phát triển trí tuệ nhân tạo tổng quát (AGI) - những cỗ máy có khả năng nhận thức như con người.

openai thua nhan mo hinh ai moi co the duoc su dung de tao ra vu khi sinh hoc hinh 1

OpenAI cho biết đặc biệt “thận trọng” với cách đưa mô hình o1 đến với công chúng vì những khả năng tiên tiến của nó. Ảnh: Getty Images

Theo Financial Times, OpenAI đã xếp hạng rủi ro của các mô hình mới này là "trung bình" đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân (CBRN), mức cao nhất mà công ty từng đánh giá. Điều này có nghĩa là công nghệ này đã "cải thiện đáng kể" khả năng của các chuyên gia trong việc tạo ra vũ khí sinh học.

Theo các chuyên gia, các phần mềm AI có khả năng suy luận chi tiết, đặc biệt trong tay những đối tượng xấu, có thể làm gia tăng nguy cơ lạm dụng.

Giáo sư Yoshua Bengio, một nhà khoa học AI hàng đầu thế giới từ Đại học Montreal, đã nhấn mạnh rằng mức rủi ro trung bình này càng làm tăng tính cấp bách trong việc ban hành các quy định về AI, như dự luật SB 1047 đang được tranh luận tại California. Dự luật này yêu cầu các nhà sản xuất AI phải thực hiện các biện pháp nhằm giảm nguy cơ mô hình của họ bị lạm dụng để phát triển vũ khí sinh học.

Theo The Verge, vấn đề an ninh và an toàn của các mô hình AI đã trở thành mối quan tâm lớn trong bối cảnh các công ty công nghệ như Google, Meta và Anthropic đang chạy đua để xây dựng và cải tiến các hệ thống AI tiên tiến.

Các hệ thống này có tiềm năng mang lại lợi ích lớn khi giúp con người hoàn thành công việc và hỗ trợ trong nhiều lĩnh vực khác nhau, nhưng cũng đặt ra những thách thức về an toàn và trách nhiệm xã hội.

Cao Phong (theo FT, Reuters, The Verge)

Bình Luận

Tin khác

Instagram hạn chế các tính năng của tài khoản dành cho trẻ em

Instagram hạn chế các tính năng của tài khoản dành cho trẻ em

(CLO) Instagram sẽ tự động chuyển tài khoản của những người dùng dưới 18 tuổi sang chế độ riêng tư để tạo ra môi trường an toàn hơn cho trẻ em và thanh thiếu niên trên nền tảng này.

Báo chí - Công nghệ
Điện Kremlin phản đối việc Meta chặn các phương tiện truyền thông Nga

Điện Kremlin phản đối việc Meta chặn các phương tiện truyền thông Nga

(CLO) Quyết định của Meta về việc chặn tài khoản của một số phương tiện truyền thông Nga là không thể chấp nhận được, theo người phát ngôn Điện Kremlin Dmitry Peskov cho biết.

Báo chí - Công nghệ
Những gì Financial Times học được từ việc thử nghiệm với AI

Những gì Financial Times học được từ việc thử nghiệm với AI

(CLO) Khi tờ Financial Times (FT) thành lập nhóm AccelerateAI vào đầu năm nay, họ đang cố gắng tìm hiểu, khám phá những cơ hội cũng như mối đe dọa mà trí tuệ nhân tạo (AI) mang lại cho tờ báo.

Báo chí - Công nghệ
Sam Altman rời Ủy ban An toàn của OpenAI, nhường quyền cho nhóm độc lập

Sam Altman rời Ủy ban An toàn của OpenAI, nhường quyền cho nhóm độc lập

(CLO) CEO của OpenAI, Sam Altman, đã thông báo rời khỏi Ủy ban An toàn và Bảo mật - một ủy ban nội bộ mà OpenAI thành lập vào tháng 5 nhằm giám sát các quyết định về an toàn quan trọng liên quan đến dự án và hoạt động của công ty.

Báo chí - Công nghệ
TikTok đối mặt với phiên tòa có thể quyết định số phận ở Mỹ

TikTok đối mặt với phiên tòa có thể quyết định số phận ở Mỹ

(CLO) TikTok và công ty mẹ ByteDance sẽ phải ra tòa vào ngày 16/9 trong một cuộc chiến pháp lý nhằm ngăn chặn đạo luật có thể cấm ứng dụng này ở Mỹ sớm nhất là vào ngày 19/1 năm sau.

Báo chí - Công nghệ