Low Rank Adaption (LoRA), büyük ölçekli dil modellerinin özelleştirilmesi veya ayarlanmasını kolaylaştıran bir tekniktir. Bu teknik, daha az bellek ve kaynak tüketen modellerin daha hızlı ve uygun maliyetli bir şekilde ayarlanmasına olanak tanıyan bir ince ayar yöntemidir

İlgili Terimler