Dikkat ( attention) terimi, bir modelin metin veya veri içeriğini işlerken belirli özelliklere veya ilişkilere daha fazla önem atadığı bir kavramı ifade eder. Özellikle, dikkat, bir metindeki veya verideki farklı bileşenlerin arasındaki bağlantıları anlamak ve bu bağlantılara göre daha doğru sonuçlar üretmek için kullanılır. Bu yaklaşım, bir metin veya veri dizisi verildiğinde, modele metindeki farklı kelimeler veya özellikler arasındaki ilişkileri anlama yeteneği kazandırır. Yani, bir kelimenin veya özelliğin anlamını belirlerken, diğer kelimelerin veya özelliklerin ne kadar önemli olduğunu değerlendirebilir.