
LintasFakta.info – Riset OpenAI Ungkap Penyebab Chatbot Sering Halusinasi Istilah “halusinasi” dalam konteks AI (Artificial Intelligence) merujuk pada kejadian ketika model bahasa seperti ChatGPT menghasilkan informasi yang tidak akurat, tidak benar, atau sama sekali tidak berdasar dalam kenyataan. Ini adalah salah satu tantangan terbesar dalam pengembangan AI generatif.
Berikut adalah penyebab utama dan temuan dari berbagai riset mereka:
- Akar Masalah: Cara AI Bekerja
Pertama, penting untuk memahami bahwa model bahasa seperti ChatGPT tidak “mengetahui” kebenaran dalam arti manusiawi. Mereka adalah mesin prediksi statistik yang canggih. Tugas mereka adalah memprediksi kata atau token mana yang paling mungkin muncul berikutnya dalam sebuah urutan, berdasarkan pada data pelatihan yang masif.
- Penyebab Utama Halusinasi Menurut Riset
- Data Pelatihan yang Tidak Sempurna
Informasi yang Bertentangan: Dataset pelatihan AI berisi miliaran dokumen dari internet, yang di dalamnya terdapat banyak informasi yang salah, bias, atau sudah kedaluwarsa. AI mempelajari semua pola ini, termasuk pola yang salah.
- Desain dan Pelatihan Model
Mengutamakan Koherensi daripada Kebenaran: Model AI sangat hebat dalam menghasilkan teks yang terdengar koheren dan gramatikal. Terkadang, untuk menjaga alur kalimat yang mulus, model lebih memilih untuk menghasilkan informasi yang salah tetapi yang “cocok” dengan konteks di bandingkan mencari fakta yang benar tetapi mengganggu kelancaran.
- Apa yang Di lakukan OpenAI untuk Mengurangi Halusinasi?
OpenAI tidak tinggal diam. Mereka menggunakan beberapa pendekatan canggih melalui Reinforcement Learning from Human Feedback (RLHF) dan teknik lainnya:
a. Reinforcement Learning from Human Feedback (RLHF)
- Memberi Peringkat: Memberi peringkat pada beberapa jawaban yang di hasilkan AI dari yang terburuk hingga terbaik.
- Membuat Data Perbandingan: Membantu menciptakan dataset yang mengajarkan model mana jawaban yang lebih di inginkan (akurat, helpful, dan aman).
- Model Belajar dari Peringkat: Model kemudian belajar untuk menghasilkan jawaban yang lebih mirip dengan yang di peringkat tinggi oleh manusia, sehingga mengurangi kemungkinan halusinasi.
b. Process Supervision vs. Outcome Supervision
- Outcome Supervision: Hanya memberi reward (hadiah) pada model jika hasil akhir jawabannya benar. Ini seperti hanya memberi nilai pada jawaban ujian tanpa melihat cara murid menyelesaikannya.
- Process Supervision: Memberi reward pada model untuk setiap langkah penalaran yang benar menuju jawaban akhir. Ini seperti memberi nilai pada setiap langkah pengerjaan soal matematika. Metode ini terbukti jauh lebih efektif dalam mengurangi halusinasi karena membimbing model untuk bernalar dengan lebih struktural dan dapat di pertanggungjawabkan.
Kesimpulan
OpenAI, melalui riset terus-menerus (terutama dengan RLHF dan Process Supervision), berusaha keras untuk “membimbing” model ini agar lebih mengutamakan kebenaran dan keakuratan. Namun, penting untuk diingat bahwa halusinasi tidak akan pernah bisa di hilangkan 100%.