13:43
5 Eylül tarihli bir Pinwan raporuna göre Nous Research, EleutherAI Laboratuvarı ve İsviçre'deki Cenevre Üniversitesi'nden araştırmacılarla bir araya gelerek bir makale yayınladı ve büyük modellerin bağlam penceresini genişletebilecek YaRN adlı bir yöntemi duyurdu. Makale, YaRN'nin geleneksel yöntemlere göre daha az etiketleme ve eğitim adımı gerektirdiğini gösteriyor. Bu yaklaşımı kullanan LLaMA modelleri, geçmiş pencere uzantılarının en son teknolojilerini aşarken, orijinal ön eğitimlerinin izin verdiğinden daha uzun bağlamlardan verimli bir şekilde yararlanabilir ve bu bağlamlara tahminde bulunabilir. GitHub sayfasına göre, YaRN kullanılarak ince ayar yapılan LLaMA 2 7B/13B bağlam pencereleri sırasıyla 64k ve 128k'ye ulaşabiliyor.

