**Anthropic ra mắt Chương trình tiền thưởng lỗi mở rộng**
Công ty trí tuệ nhân tạo Anthropic đã công bố chương trình tiền thưởng lỗi mở rộng, cung cấp phần thưởng lên đến 15.000 đô la cho những người tham gia có thể "bẻ khóa" mô hình AI thế hệ tiếp theo chưa phát hành của công ty. Sáng kiến này nhằm mục đích tăng cường tính an toàn cho AI hàng đầu của công ty, Claude-3, bằng cách xác định các lỗ hổng thông qua "red teaming"—một phương pháp mà các kỹ sư cố gắng lừa AI tạo ra các đầu ra không mong muốn.
Chương trình mới của Anthropic nhắm mục tiêu vào các vụ bẻ khóa phổ biến có thể bỏ qua các biện pháp an toàn trong các lĩnh vực quan trọng như an ninh mạng. Các nhà nghiên cứu AI giàu kinh nghiệm được khuyến khích nộp đơn trước ngày 16 tháng 8 để được tiếp cận sớm với mô hình. Những người tham gia được chọn sẽ giúp đảm bảo tính vững chắc của các rào cản an toàn AI.