2017 yılında araştırmacılar, "İlgi İhtiyacınız Olan Tek Şeydir" adlı çalışmada Transformer modelini tanıttı ve doğal dil işlemeyi (DDİ) devrim yarattı. RNN'ler ve LSTM'ler gibi önceki modeller, kelimeleri sıralı olarak işledi ve bu da uzun cümlelerle başa çıkma becerilerini sınırlayarak eğitimi yavaşlattı ve paralel işlemeyi engelledi. Transformer, kendi kendine dikkat kullanarak bu sorunları çözdü ve modelin bir cümledeki konumlarından bağımsız olarak önemli kelimelere odaklanmasını sağladı. Bu, özellikle paralel işlemeyi kullanarak Transformer'ı daha hızlı ve daha ölçeklenebilir hale getirdi. Sıralı kelime işlemeye olan ihtiyacı ortadan kaldırdı ve kelimeler arasındaki karmaşık ilişkilerin anlaşılmasını geliştirdi. Modelin kodlayıcı-kod çözücü mimarisi, giriş sıralarını verimli bir şekilde çeviriler gibi çıktılara işler. Çok başlı dikkat gibi temel özellikler, modelin bir cümledeki anlamın farklı yönlerini aynı anda yakalamasına olanak tanır. Kod çözücü, yalnızca önceki kelimelere odaklanarak adım adım çeviriler üretir ve doğruluğu sağlar. Bu mimari, BERT ve GPT gibi birçok son teknoloji model için temel haline geldi ve çeşitli DDİ görevlerinde performansı büyük ölçüde iyileştirdi.
hackernoon.com
Transformers: Age of Attention
Create attached notes ...