Hàng rào an ninh của ChatGPT và các chatbot dễ dàng bị chọc thủng

28/07/2023 11:02 GMT+7

Các nhà nghiên cứu đã phát hiện một biện pháp dễ dàng chọc thủng những hàng rào phòng vệ của các chatbot trực tuyến như ChatGPT, Claude và Google Bard.

Hàng rào an ninh của ChatGPT và các chatbot dễ dàng bị chọc chủng - Ảnh 1.

Các công ty AI dành nhiều tháng để gia cố hàng rào bảo vệ các chatbot

AFP

Khi các công ty trí thông minh nhân tạo (AI) xây dựng ChatGPT (OpenAI), Claude (Anthropic) hay Google Bard (Google), họ dành nhiều tháng để xây dựng và gia cố lớp phòng vệ, nhằm ngăn chặn nguy cơ các chatbot soạn thảo những nội dung thù ghét, sai lệch thông tin hoặc tài liệu độc hại.

Tuy nhiên, các nhà nghiên cứu của Đại học Carnegie Mellon ở Pittsburgh (bang Pennsylvania, Mỹ) và Trung tâm An toàn AI ở San Francisco (bang California, Mỹ) đã chứng minh bất kỳ ai cũng có thể vượt qua hàng rào an ninh của AI và sử dụng các chatbot để tạo ra những thông tin độc hại ở mức độ gần như không bị giới hạn.

Theo báo The New York Times hôm nay 28.7, nghiên cứu trên làm nổi bật sự lo ngại ngày càng gia tăng về nguy cơ các chatbot có thể làm tràn ngập internet với những thông tin sai lệch và nguy hiểm, bất chấp các nỗ lực của những nhà sáng tạo ra chúng nhằm đảm bảo việc này không xảy ra.

Báo cáo của các chuyên gia cũng cho thấy sự bất đồng giữa các công ty AI hàng đầu đang ngày càng tạo ra môi trường không thể đoán trước cho công nghệ này.

"Hiện chưa có phương án giải quyết cho vấn đề trên", theo báo The New York Times dẫn lời tác giả báo cáo là ông Zico Kolter, giáo sư Đại học Carnegie Mellon.

Giáo sư Kolter nêu lên một thực tế đáng sợ, ai cũng có thể tung ra các đòn tấn công chọc thủng hàng rào an toàn của các chatbot trong một thời gian ngắn.

Các nhà nghiên cứu đã chia sẻ những phát hiện của họ cho Anthropic, Google và OpenAI trong tuần này.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.