OpenAI mở chương trình thưởng cho lỗ hổng an toàn sinh học của GPT-5.5
OpenAI vừa công bố chương trình bounty nhằm tìm lỗ hổng biosecurity trong GPT-5.5. Người tham gia được mời thử vượt qua các lớp bảo vệ của mô hình bằng kinh nghiệm red team, an ninh hoặc sinh học.
Thử thách yêu cầu tạo một “universal jailbreak hint” có thể vượt qua 5 câu hỏi về biosecurity mà không kích hoạt quy trình rà soát. Đây là cách OpenAI kiểm tra độ vững của cơ chế bảo vệ trước các truy vấn nhạy cảm.
Người đầu tiên hoàn thành sẽ nhận 25.000 USD, trong khi các kết quả một phần cũng có thể được trao thưởng. Hồ sơ đăng ký nhận đến ngày 22/6, còn giai đoạn thử nghiệm diễn ra từ 28/4 đến 27/7.
Chương trình dành cho những người có kinh nghiệm về AI red team, an ninh hoặc biosecurity. Toàn bộ nghiên cứu tham gia đều phải tuân theo thỏa thuận bảo mật.
Đây là một bước kiểm tra an toàn nhằm đánh giá khả năng chống vượt rào của GPT-5.5 trước các tình huống liên quan đến biosecurity.


