Menurut Cointelegraph, chatbot kecerdasan buatan baru bernama 'Reflection 70B' telah diperkenalkan oleh HyperWrite AI. CEO Matt Shumer mengumumkan pengembangan tersebut pada tanggal 5 September, mengklaimnya sebagai model sumber terbuka terbaik di dunia. AI tersebut dilatih menggunakan teknik yang disebut 'Reflection-Tuning,' yang dirancang untuk memungkinkan model bahasa besar (LLM) mengoreksi kesalahannya sendiri.

Reflection Llama-3.1 70B, yang merupakan AI sumber terbuka Meta yang diluncurkan pada bulan Juli, dapat bersaing dengan model sumber tertutup teratas seperti Claude 3.5 Sonnet milik Anthropic dan GPT-4o milik OpenAI dalam beberapa tolok ukur, menurut Shumer. Ia menjelaskan bahwa model AI saat ini sering berhalusinasi, artinya model tersebut menghasilkan keluaran yang tidak akurat dengan melihat pola atau objek yang tidak ada. Reflection-Tuning bertujuan untuk mengatasi hal ini dengan memungkinkan AI mengenali dan mengoreksi kesalahannya sebelum menyelesaikan jawaban.

Penyetelan refleksi melibatkan pemberian respons AI kembali ke dalam model, yang memintanya untuk mengevaluasi output-nya sendiri guna mengidentifikasi kekuatan, kelemahan, dan area yang perlu ditingkatkan. Proses berulang ini membantu AI terus menyempurnakan kemampuannya, membuatnya lebih sadar diri dan lebih baik dalam mengkritik dan meningkatkan kinerjanya. Shumer mencatat bahwa dengan dorongan yang tepat, model baru ini sangat efektif untuk berbagai kasus penggunaan.

Pada tahun 2023, OpenAI yang didukung Microsoft merilis makalah penelitian yang membahas metode untuk mencegah halusinasi AI. Salah satu ide yang diusulkan adalah 'pengawasan proses', yang melibatkan pelatihan model AI untuk memberi penghargaan kepada diri mereka sendiri untuk setiap langkah penalaran yang benar, bukan hanya kesimpulan akhir yang benar. Karl Cobbe, seorang peneliti di OpenAI, menekankan pentingnya mendeteksi dan mengurangi kesalahan logika atau halusinasi sebagai langkah penting menuju pembangunan kecerdasan umum buatan (AGI) yang selaras.