Bağlamı anlıyor: Model, her token’ı yalnız başına değil, önündeki ve arkasındaki tokenlarla birlikte değerlendiriyor.
Örneğin:
“yüz” + “meye” = yüzmek eylemine işaret ediyor. (spor anlamı)
“yüz” + “lira” = para birimiyle ilgili. (miktar anlamı)
Yani yanındaki kelimelere bakarak “yüz”ün anlamını tahmin ediyor.
Öğrenilmiş örüntüler devreye giriyor: Model eğitilirken milyarlarca cümle okudu. Bu cümlelerde “yüzmek” fiilinin hep hareket, spor, aktivite bağlamında kullanıldığını, “yüz lira” gibi ifadelerin ise hep para, sayı, alışveriş bağlamında kullanıldığını istatistiksel olarak öğrendi.
Matematiksel temsil: Modelin içinde her token bir vektör (bir dizi sayı) olarak temsil ediliyor. Bu vektörler, bağlama göre kayıyor.
Örneğin:
“yüz” kelimesinin vektörü, “yüzmeye” yakınsa spor anlamına yaklaşır.
“yüz” kelimesinin vektörü, “lira”ya yakınsa para anlamına yaklaşır.
Bu yüzden model yanlış anlamaz.
🎯 Özetle:
LLM, bir kelimenin anlamını, yanındaki kelimelerle birlikte değerlendirir ve matematiksel olarak en olası anlamı seçer.
Bu yüzden “yüz” kelimesini bir yerde “spor”, bir yerde “para” anlamında doğru anlar.
Basitleştirirsek:
Bir kelime yalnız başına değil, cümledeki komşularıyla birlikte yaşar. LLM bunu öğrenmiştir.