Có một chatbot trí tuệ nhân tạo mới khác đang gia nhập vào không gian vốn đã đông đúc, nhưng chatbot này rõ ràng có thể làm được điều mà hầu hết các chatbot khác không làm được — học hỏi từ những sai lầm của nó.

Trong bài đăng ngày 5 tháng 9 trên X, Giám đốc điều hành của HyperWrite AI, Matt Shumer, đã công bố sự phát triển của ‘Reflection 70B’ và tuyên bố đây là “mô hình nguồn mở hàng đầu thế giới”.

Ông nói thêm rằng AI mới được đào tạo bằng cách sử dụng “Reflection-Tuning”, một kỹ thuật được phát triển để cho phép LLM tự sửa lỗi của mình.

Reflection Llama-3.1 70B có thể "tự mình chống lại" ngay cả những mô hình nguồn đóng hàng đầu như Claude 3.5 Sonnet của Anthropic và GPT-4o của OpenAI trong một số điểm chuẩn mà ông tuyên bố. Llama 3.1 là AI nguồn mở của Meta được ra mắt vào tháng 7.

Ông cho biết các mô hình AI hiện tại thường có thể gây ảo giác nhưng Reflection-Tuning cho phép chúng nhận ra lỗi của mình và sửa chúng trước khi đưa ra câu trả lời.

“Các LLM hiện nay có xu hướng bị ảo giác và không thể nhận ra khi họ bị như vậy.”

Ảo giác AI là hiện tượng khi chatbot AI tạo ra nhận thức các mẫu hoặc vật thể không tồn tại hoặc không thể nhận biết được đối với người quan sát, tạo ra các kết quả không chính xác.

Ví dụ về điều chỉnh phản xạ. Nguồn: Matt Shumer

Điều chỉnh phản xạ là một kỹ thuật được sử dụng để cải thiện các mô hình AI bằng cách để chúng phân tích và học hỏi từ đầu ra của chính chúng.

Phản hồi của AI có thể được đưa trở lại AI, nơi AI có thể được yêu cầu đánh giá phản hồi của chính mình, xác định điểm mạnh, điểm yếu và các lĩnh vực cần cải thiện, chẳng hạn.

Quá trình này được lặp lại nhiều lần, cho phép AI liên tục cải thiện khả năng của mình với mục tiêu tự nhận thức rõ hơn về đầu ra của mình và có khả năng tự đánh giá và cải thiện hiệu suất tốt hơn.

Shumer nói thêm rằng "với sự nhắc nhở phù hợp, đây thực sự là một con quái vật cho nhiều trường hợp sử dụng", đồng thời cung cấp liên kết demo cho mô hình mới.

OpenAI được Microsoft hậu thuẫn đã công bố một báo cáo nghiên cứu vào năm 2023 với những ý tưởng về cách giúp ngăn ngừa ảo giác AI.

Một ý tưởng là “giám sát quy trình”, bao gồm việc đào tạo các mô hình AI để tự thưởng cho mỗi bước suy luận đúng khi chúng đi đến câu trả lời, thay vì chỉ thưởng cho kết luận cuối cùng đúng.

Karl Cobbe, một nhà nghiên cứu tại OpenAI, đã nói với CNBC vào thời điểm đó rằng: "Phát hiện và giảm thiểu các lỗi logic hoặc ảo giác của mô hình là một bước quan trọng hướng tới việc xây dựng AGI [trí tuệ nhân tạo tổng quát] phù hợp".

Tạp chí: Kế hoạch 'địa ngục' của máy bay không người lái AI cho Đài Loan, LLM quá ngu ngốc để tiêu diệt nhân loại: AI Eye