iToverDose/Yapay Zeka· 22 NISAN 2026 · 19:30

Yapay Zeka Modellerini 'Bilmiyorum' Demeye Öğretmek

Yapay zeka sistemleri her cevabı aynı şekilde kesin bir şekilde verir, ancak bu kesinlik her zaman doğru değildir. Araştırmacılar, bu aşırı güvenin nedenini buldu ve bunu düzeltmek için bir yöntem geliştirdi.

MIT AI News1 dk okuma0 Yorumlar

Güven, ikna edicidir. Yapay zeka sistemlerinde ise často aldatıcıdır. Bugün kullanılan en yetenekli akıl yürütme modelleri, en gürültülü sesle aynı özelliği paylaşırlar: Her cevabı aynı şekilde kesin bir şekilde verir, doğru olsun ya da yanlış olsun. MIT'nin Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı'ndaki (CSAIL) araştırmacılar, bu aşırı güvenin nedenini belirli bir eğitim hatasına bağladı ve bu hatayı düzeltmek için bir yöntem geliştirdi. Bu teknik, RLCR (Takviye Öğrenimi ile Kalibrasyon Ödülleri) olarak adlandırılmaktadır ve dil modellerini yanlarında güvenirlik tahminleri üretmelerini sağlar. Deneylerde, RLCR kalibrasyon hatasını %90'a kadar azaltırken, Modelin eğitildiği görevlerde ve tamamen yeni görevlerde Accuracy'yi korudu veya geliştirdi. Bu çalışma, bu ay International Conference on Learning Representations'da sunulacak.

RLCR Tekniği

RLCR tekniği, dil modellerini yanlarında güvenirlik tahminleri üretmelerini sağlar. Model, cevaba ek olarak, cevabının güvenirliğini de hesaplar ve bir güvenirlik puanı üretir. Bu teknik, modelin aşırı güvenini azaltırken, accuracy'yi korur veya geliştirir.

Araştırma Bulguları

Araştırmacılar, RLCR teknığini 7 milyar parametreli bir model üzerinde test ettiler ve çeşitli soru-cevap ve matematik görevlerinde erfolgreich olduğunu gösterdiler. Sonuçlar, standard RL eğitiminin kalibrasyonu bozduğunu, ancak RLCR'nin bu etkiyi tersine çevirdiğini ve kalibrasyonu önemli ölçüde geliştirdiğini gösterdi.

Gelecek

Yapay zeka sistemlerinin, kullanıcıların kararlarını etkileyen alanlarda kullanılacağı düşünülürse, bu sistemlerin güvenirliğini değerlendirebilmeleri çok önemlidir. RLCR tekniği, bu konuda önemli bir adım olarak görünmektedir. Gelecek çalışmalar, bu tekniğin daha da geliştirilmesi ve farklı alanda kullanılmasına odaklanabilir.

Yapay zeka özeti

MIT CSAIL’s RLCR trains AI models to assess uncertainty alongside answers, reducing calibration errors by 90% without sacrificing accuracy. Learn how this breakthrough improves reliability.

Yorumlar

00
YORUM BIRAK
ID #56513O

0 / 1200 KARAKTER

İnsan doğrulaması

3 + 8 = ?

Editör onayı sonrası yayına girer

Moderasyon · Spam koruması aktif

Henüz onaylı yorum yok. İlk yorumu sen bırak.