Ada lagi chatbot kecerdasan buatan baru yang memasuki ruang yang sudah ramai, tetapi yang ini tampaknya dapat melakukan apa yang tidak dapat dilakukan kebanyakan orang — belajar dari kesalahannya.

Dalam postingan pada tanggal 5 September di X, CEO HyperWrite AI Matt Shumer mengumumkan pengembangan ‘Reflection 70B’, mengklaimnya sebagai “model sumber terbuka terbaik di dunia.”

Ia menambahkan bahwa AI baru ini dilatih menggunakan “Reflection-Tuning,” yaitu sebuah teknik yang dikembangkan untuk memungkinkan LLM memperbaiki kesalahan mereka sendiri.

Reflection Llama-3.1 70B dapat "bersaing" bahkan dengan model sumber tertutup teratas seperti Claude 3.5 Sonnet milik Anthropic, dan GPT-4o milik OpenAI dalam beberapa benchmark yang ia klaim. Llama 3.1 adalah AI sumber terbuka milik Meta yang diluncurkan pada bulan Juli.

Ia mengatakan bahwa model AI saat ini sering kali berhalusinasi tetapi Reflection-Tuning memungkinkan mereka mengenali kesalahan dan memperbaikinya sebelum memberikan jawaban.

“LLM saat ini memiliki kecenderungan berhalusinasi, dan tidak dapat mengenali saat mereka berhalusinasi.”

Halusinasi AI merupakan fenomena saat chatbot AI generatif mempersepsi pola atau objek yang tidak ada atau tidak dapat diamati oleh pengamat manusia, sehingga menghasilkan keluaran yang tidak akurat.

Contoh penyetelan refleksi. Sumber: Matt Shumer

Penyetelan refleksi adalah teknik yang digunakan untuk meningkatkan model AI dengan meminta mereka menganalisis dan belajar dari keluarannya sendiri.

Respons AI dapat dimasukkan kembali ke AI dan AI dapat diminta untuk mengevaluasi responsnya sendiri, mengidentifikasi kekuatan, kelemahan, dan area yang perlu ditingkatkan, misalnya.

Proses ini diulang berkali-kali, yang memungkinkan AI untuk terus menyempurnakan kemampuannya dengan tujuan membuatnya lebih sadar diri terhadap keluarannya dan lebih baik dalam mengkritik dan meningkatkan kinerjanya sendiri.

Shumer menambahkan bahwa “dengan dorongan yang tepat, ini adalah hal yang sangat hebat untuk banyak kasus penggunaan,” dengan memberikan tautan demo untuk model baru tersebut.

OpenAI yang didukung Microsoft merilis makalah penelitian pada tahun 2023 dengan ide-ide tentang cara membantu mencegah halusinasi AI.

Salah satu idenya adalah “pengawasan proses”, yang melibatkan pelatihan model AI untuk memberi penghargaan kepada diri mereka sendiri atas setiap langkah penalaran yang benar ketika mereka sampai pada sebuah jawaban, alih-alih hanya memberi penghargaan atas kesimpulan akhir yang benar.

“Mendeteksi dan mengurangi kesalahan logika atau halusinasi suatu model adalah langkah krusial menuju pembangunan AGI [kecerdasan umum buatan] yang selaras,” ujar Karl Cobbe, seorang peneliti di OpenAI, kepada CNBC saat itu.

Majalah: Rencana ‘neraka’ drone AI untuk Taiwan, LLM terlalu bodoh untuk menghancurkan umat manusia: AI Eye