Artikel ini tentang.
Studi terbaru, berjudul “Model bahasa yang lebih besar dan lebih mudah diajarkan menjadi kurang dapat diandalkan,” yang diterbitkan dalam Nature Scientific Journal, menemukan bahwa chatbot AI membuat lebih banyak kesalahan saat model baru dirilis. Lexin Zhou, salah satu penulis studi tersebut, menyatakan bahwa model AI selalu berfokus pada memberikan jawaban yang meyakinkan, dan oleh karena itu jawaban yang tampaknya benar tetapi salah disajikan kepada pengguna.
Halusinasi AI ini meningkat seiring berjalannya waktu, menyebabkan “keruntuhan pola”. Editor Mathieu Roy memperingatkan pengguna untuk tidak terlalu bergantung pada alat ini dan selalu memeriksa hasil yang dihasilkan oleh AI.
Platform AI Google mendapat kecaman pada Februari 2024 karena menghasilkan gambar yang secara historis tidak akurat. Untuk mengurangi halusinasi AI, para pemimpin industri seperti CEO Nvidia Jensen Huang menyarankan agar model melakukan penelitian dan menyediakan sumber daya untuk setiap respons.
CEO HyperWrite AI Matt Shumer mengumumkan bahwa model 70B baru perusahaan menggunakan "Reflection-Tuning" untuk menganalisis kesalahan bot AI itu sendiri dan menyesuaikan responsnya seiring waktu.
Apa pendapat Anda tentang ini? Bagikan di komentar.