Mõisted, mida peaksite teadma enne Transformersiga tutvumist

Mõisted, mida peaksite teadma enne Transformersiga tutvumist

Allikasõlm: 1894868

Närvivõrgud õpivad numbrite kaudu, nii et iga sõna kaardistatakse vektoritega, et esindada konkreetset sõna. Manustuskihti võib pidada otsingutabeliks, mis salvestab sõnade manuseid ja otsib need indeksite abil.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Sõnad, millel on sama tähendus, on eukleidilise kauguse/koosinuse sarnasuse poolest lähedased. Näiteks allolevas sõnaesituses on "laupäev", "pühapäev" ja "esmaspäev" seotud sama mõistega, nii et näeme, et sõnad on sarnased.
 

Mõisted, mida peaksite teadma enne Transformeri kasutamist

Sõna asukoha määramine, Miks on vaja sõna asukohta määrata? kuna trafo kodeerijal pole korduvust nagu korduvatel närvivõrkudel, peame sisendmanustesse lisama teavet positsioonide kohta. Seda tehakse asukohakodeeringu abil. Töö autorid kasutasid sõna asukoha modelleerimiseks järgmisi funktsioone.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Püüame selgitada positsioonikodeeringut.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Siin viitab "pos" sõna asukohale jadas. P0 viitab esimese sõna positsioonile; „d” tähendab sõna/märgi manustamise suurust. Selles näites d=5. Lõpuks viitab "i" igale manustamise viiest individuaalsest mõõtmest (st 5, 0, 1,2,3,4, XNUMX, XNUMX)

kui "i" on ülaltoodud võrrandis erinev, saate hunniku erineva sagedusega kõveraid. Asendi manustamise väärtuste lugemine erinevate sageduste suhtes, erinevate väärtuste andmine erinevatel manustamismõõtmetel P0 ja P4 jaoks.

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Selle päring, Q tähistab vektorsõna võtmed K on kõik teised sõnad lauses ja väärtus V tähistab sõna vektorit.

Tähelepanu eesmärk on arvutada välja võtmetermini olulisus võrreldes sama isiku/asja või mõistega seotud päringuterminiga.

Meie puhul on V võrdne Q-ga.

Tähelepanumehhanism annab meile sõna tähtsuse lauses.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Kui arvutame päringu ja võtmete vahelise normaliseeritud punktkorrutise, saame tensori, mis tähistab üksteise sõnade suhtelist tähtsust päringu jaoks.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Punktkorrutise Q ja K.T arvutamisel proovime hinnata, kuidas vektorid (st päringu ja võtmete vahelised sõnad) on joondatud, ja tagastame lause iga sõna kaalu.

Seejärel normaliseerime tulemuse d_k ruudus ja funktsioon softmax reguleerib terminid ja skaleerib need ümber 0 ja 1 vahel.

Lõpuks korrutame tulemuse (st kaalud) väärtusega (st kõigi sõnadega), et vähendada ebaoluliste sõnade tähtsust ja keskenduda ainult kõige olulisematele sõnadele.

Mitme peaga tähelepanu väljundvektor lisatakse algsele positsioonilisele sisendile. Seda nimetatakse jääkühenduseks / vahelejätmiseks. Jääkühenduse väljund läbib kihi normaliseerimise. Normaliseeritud jääkväljund suunatakse edasiseks töötlemiseks läbi punktsuunalise edasisaatmisvõrgu.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist

Mask on maatriks, mis on sama suur kui tähelepanu skoorid, mis on täidetud nullide ja negatiivsete lõpmatustega.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist
 

Maski põhjuseks on see, et kui võtate maskeeritud skooride pehme maksimumi, muutuvad negatiivsed lõpmatused nulliks, jättes tulevaste märkide jaoks nulli tähelepanu.

See käsib mudelil nendele sõnadele mitte keskenduda.

Funktsiooni Softmax eesmärk on haarata reaalarvud (positiivsed ja negatiivsed) ja muuta need positiivseteks arvudeks, mille summa on 1.

 

Mõisted, mida peaksite teadma enne Transformeri kasutamist

 
 
Ravikumar Naduvin on hõivatud PyTorchi abil NLP-ülesannete loomise ja mõistmisega.

 
Originaal. Loaga uuesti postitatud.
 

Ajatempel:

Veel alates KDnuggets