OpenAI Ungkap Penyebab Halusinasi Chatbot AI dan Cara Mengatasinya

foto/ilustrasi

OpenAI disebut telah menemukan penyebab masalah halusinasi pada chatbot kecerdasan buatan (AI) sekaligus menawarkan solusi untuk membuat teknologi ini lebih dapat dipercaya.

Meskipun kini banyak digunakan dalam berbagai pekerjaan, chatbot AI masih memiliki kelemahan serius, yaitu kecenderungan memberikan jawaban salah yang terdengar meyakinkan, yang disebut sebagai halusinasi.

Baca juga:

Dilansir dari Gizmochina pada Jumat, dalam makalah setebal 36 halaman yang ditulis bersama peneliti Georgia Tech, Santosh Vempala, OpenAI menilai halusinasi bukan semata mata akibat desain model yang buruk, melainkan juga cara sistem AI diuji dan diperingkat.

Tolok ukur saat ini, menurut mereka, justru mendorong chatbot menjawab semua pertanyaan meski salah dan “menghukum” model yang memilih menahan diri saat tidak yakin. Kondisi ini diibaratkan seperti ujian pilihan ganda yang lebih menghargai tebakan daripada meninggalkan jawaban kosong.

Sebagai alternatif, OpenAI mengusulkan sistem penilaian baru yang memberikan hukuman besar pada jawaban yang percaya diri tapi salah, serta memberi penghargaan pada model yang berhati hati atau berani mengakui ketidaktahuan.

Dalam sebuah uji coba, model yang berhati-hati hanya menjawab setengah pertanyaan, namun 74 persen jawabannya benar, sementara model lain menjawab hampir semuanya tetapi memiliki tingkat halusinasi dan kesalahan lebih tinggi.

Jika pendekatan ini diterapkan, asisten AI di masa depan akan lebih sering mengatakan “saya tidak tahu” daripada mengarang sumber atau data.

Meskipun terdengar kurang mengesankan, langkah ini diyakini dapat menyelamatkan pengguna dari keharusan terus-menerus memverifikasi jawaban. OpenAI menyebut riset ini sebagai langkah menuju AI yang lebih mengutamakan akurasi dan kepercayaan daripada kepercayaan diri yang menyesatkan.

Artikel Terkait