Genel
Yapay zekâ neden “uyduruyor”? Çünkü yanlış cevap verse bile ödüllendiriliyor
Mevcut yöntem, “bilmiyorum” demek yerine uydurmayı ödüllendiriyor. Ancak bu sorunu düzeltmek, ChatGPT gibi sohbet robotlarının iş modelini bile riske atabilir.
Son dönemdeki dev yatırımlara ve OpenAI’nin yeniden yapılanmasına rağmen, yapay zekâdaki en büyük sorun hâlâ çözülemedi: halüsinasyonlar — yani gerçek olmayan bilgileri özgüvenle söylemesi. Bilim insanlarına göre sorun veride değil, sistemin nasıl eğitildiğinde. Mevcut yöntem, “bilmiyorum” demek yerine uydurmayı ödüllendiriyor. Ancak bu sorunu düzeltmek, ChatGPT gibi sohbet robotlarının iş modelini bile riske atabilir.
“Bilmiyorum” demek neden bu kadar zor?
OpenAI ve Georgia Tech’ten araştırmacılar, geçtiğimiz ay yayımlanan bir makalede kritik bir gerçeği ortaya koydu:
👉 LLM’ler (büyük dil modelleri), eğitimleri gereği uydurmaya programlanıyor.
Modeller, eğitim aşamasında şu mantıkla ödüllendiriliyor:
| Cevap | Puan |
|---|---|
| Doğru cevap | 1 |
| Yanlış cevap | 0 |
| “Bilmiyorum” | 0 |
Yani model bilmiyorum dese de yanlış cevap verse de aynı puanı alıyor.
Bu yüzden sistem, şansını deniyor: “Bilmiyorsam uydurayım, belki tutar.”
AI araştırmacısı Wei Xing bunu şöyle özetliyor:
“Halüsinasyonları düzeltmek, ürünü öldürür.”
Çünkü bir sohbet robotu sürekli “Bilmiyorum” derse kullanıcı başka platforma gider.
İş modeli — kullanıcıyı tutma üzerine kurulu — zarar görür.
Sorun kötü veri değil, “nasıl ölçüldüğü”
LLM’ler önce büyük bir metin yığını üzerinde eğitiliyor. Bu aşamada model temelde sadece bir otomatik tamamlama motoru.
Profesör Subbarao Kambhampati bunu şöyle açıklıyor:
“Bu modeller steroid basılmış otomatik tamamlama araçlarıdır.”
Ardından ikinci aşama geliyor:
✅ İnsan geri bildirimi
✅ İnce ayar
✅ Benchmark testleri (sınavlar)
İşte asıl problem burada:
Bu sınavlar yanlış cevabı neredeyse hiç cezalandırmıyor.
Sonuç:
📌 Model doğru bildiğinde kazanıyor, yanlış bildiğinde kaybetmiyor.
📌 “Doğru bilene kadar uydur” davranışı yerleşiyor.
Bazı soruların cevabı yok — model yine de cevap üretmek zorunda hissediyor
Araştırma ekibi ilginç bir matematiksel bulguya ulaştı:
“Mükemmel veri kullansanız bile, bazı sorular cevaplanamaz. Model bunu kabul etmek yerine cevap uyduruyor.”
Bu şu örnekle açıklanıyor:
“50 öğrencinin doğum gününü biliyorsanız, 51.si hakkında hiçbir çıkarım yapamazsınız.”
Aynı şekilde model, öğrenmediği bilgiyi tahmin edemez — ama yine de tahmin eder.
Çözüm var: Modeller “bilmiyorum” demeyi öğrenmeli
Araştırmacılar yeni bir sistem öneriyor:
👉 Yanlış cevabı daha ağır cezalandıran benchmarklar
Ama bu değişiklik sektörün mevcut iş modelini tehdit ediyor:
-
Kullanıcılar uzun cevap ister
-
Platformlar kullanıcıyı elde tutmak ister
-
“Bilmiyorum” = kısa etkileşim = daha az gelir
Bu yüzden bazı uzmanlar şüpheli:
“Modeller neye ödül verirseniz onu optimize eder. ‘Bilmiyorum’u ödüllendirseniz bile, yine sistemi kandırmanın yolunu bulurlar.”
Sektörün korkusu: Kullanıcı kaçışı
❗ OpenAI kullanıcılarının sadece %5’i ücretli abonelik kullanıyor.
❗ Maliyetler (enerji, donanım, GPU) hızla artıyor.
❗ Kârlılık hâlâ yok.
Bu nedenle şirketler temkinli:
“Eğer fazla ‘bilmiyorum’ derse, kullanıcı gider.”
Bu, halüsinasyonun neden hâlâ çözülemediğinin cevabı.
SONUÇ
Yapay zekâ yanlış bilgi verdiği için değil, yanlış bilgi verdiğinde ödüllendirildiği için uyduruyor.
Ve şu ikilem hâlâ masada:
| Seçenek | Sonuç |
|---|---|
| “Bilmiyorum” desin | Daha güvenilir model, daha az kullanıcı |
| Uydurmaya devam etsin | Daha fazla kullanıcı, daha az doğruluk |
Princeton Üniversitesi’nden Carlos Jimenez’in yorumuyla:
“Doğruluk kadar tevazu da öğretilmeli — ama bu, bugünkü sistemle çelişiyor.”
Kaynak: Science
Atilla Yeşilada ve Güldem Atabay tarafından kaleme alınan özel raporlarımıza abone olmak ister misiniz? Raporlarımız kurumsal müşterilere yöneliktir. Abonelik ücretlidir. Koşulları öğrenmek için bize e-mail atın: [email protected]
