Sıkıştırma

Yandex Araştırmaları LLM’leri Sıkıştırmak İçin Yeni Yöntemler Geliştirerek Yapay Zeka Dağıtım Maliyetlerini 8 Kata Kadar Azalttı

admin

Yandex Research, IST Austria, NeuralMagic ve KAUST, yanıt kalitesini %95 oranında korurken model boyutunu 8 kata kadar azaltan iki büyük dil modeli (LLM) sıkıştırma yöntemi AQLM ve PV-Tuning'i geliştirerek açık kaynak kodlu hale getirdi.