Güven, ikna edicidir. Yapay zeka sistemlerinde ise často aldatıcıdır. Bugün kullanılan en yetenekli akıl yürütme modelleri, en gürültülü sesle aynı özelliği paylaşırlar: Her cevabı aynı şekilde kesin bir şekilde verir, doğru olsun ya da yanlış olsun. MIT'nin Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı'ndaki (CSAIL) araştırmacılar, bu aşırı güvenin nedenini belirli bir eğitim hatasına bağladı ve bu hatayı düzeltmek için bir yöntem geliştirdi. Bu teknik, RLCR (Takviye Öğrenimi ile Kalibrasyon Ödülleri) olarak adlandırılmaktadır ve dil modellerini yanlarında güvenirlik tahminleri üretmelerini sağlar. Deneylerde, RLCR kalibrasyon hatasını %90'a kadar azaltırken, Modelin eğitildiği görevlerde ve tamamen yeni görevlerde Accuracy'yi korudu veya geliştirdi. Bu çalışma, bu ay International Conference on Learning Representations'da sunulacak.
RLCR Tekniği
RLCR tekniği, dil modellerini yanlarında güvenirlik tahminleri üretmelerini sağlar. Model, cevaba ek olarak, cevabının güvenirliğini de hesaplar ve bir güvenirlik puanı üretir. Bu teknik, modelin aşırı güvenini azaltırken, accuracy'yi korur veya geliştirir.
Araştırma Bulguları
Araştırmacılar, RLCR teknığini 7 milyar parametreli bir model üzerinde test ettiler ve çeşitli soru-cevap ve matematik görevlerinde erfolgreich olduğunu gösterdiler. Sonuçlar, standard RL eğitiminin kalibrasyonu bozduğunu, ancak RLCR'nin bu etkiyi tersine çevirdiğini ve kalibrasyonu önemli ölçüde geliştirdiğini gösterdi.
Gelecek
Yapay zeka sistemlerinin, kullanıcıların kararlarını etkileyen alanlarda kullanılacağı düşünülürse, bu sistemlerin güvenirliğini değerlendirebilmeleri çok önemlidir. RLCR tekniği, bu konuda önemli bir adım olarak görünmektedir. Gelecek çalışmalar, bu tekniğin daha da geliştirilmesi ve farklı alanda kullanılmasına odaklanabilir.
Yapay zeka özeti
MIT CSAIL’s RLCR trains AI models to assess uncertainty alongside answers, reducing calibration errors by 90% without sacrificing accuracy. Learn how this breakthrough improves reliability.
Etiketler