Forstå Forskjellige Tapsfunksjoner for Nevrale Nettverk

MSE-tap brukes til regresjonsoppgaver. Som navnet antyder, beregnes dette tapet ved å ta gjennomsnittet av kvadrerte forskjeller mellom faktiske (mål) og forventede verdier.

Eksempel

for Eksempel har Vi et nevralt nettverk som tar husdata og forutsier boligpris. I dette tilfellet kan du bruke tapet MSE. I utgangspunktet, i tilfelle hvor utgangen er et reelt tall, bør du bruke denne tapsfunksjonen.

Gjennomsnittlig Kvadrert Feil

Binær Crossentropi

F. kr. tap brukes for binære klassifiseringsoppgaver. Hvis du bruker BCE tapsfunksjon, trenger du bare en utgangsnode for å klassifisere dataene i to klasser. Utgangsverdien skal føres gjennom en sigmoid aktiveringsfunksjon og utgangsområdet er (0 – 1).

Eksempel

for eksempel har Vi et nevralt nettverk som tar atmosfæredata og forutsier om det vil regne eller ikke. Hvis utdataene er større enn 0,5, klassifiserer nettverket det som rain, og hvis utdataene er mindre enn 0,5, klassifiserer nettverket det som not rain. (det kan være motsatt avhengig av hvordan du trener nettverket). Mer sannsynligheten score verdi, jo mer er sjansen for å regne.

Binary Crossentropy

mens du trener nettverket, bør målverdien matet til nettverket være 1 hvis det regner ellers 0.

Merk 1

En viktig ting, hvis du bruker BCE tap funksjon utgangen av noden skal være mellom (0-1). Det betyr at du må bruke en sigmoid aktiveringsfunksjon på den endelige utgangen. Siden sigmoid konverterer noen reell verdi i området mellom (0-1).

Merk 2

Hva om du ikke bruker sigmoid-aktivering på det siste laget? Deretter kan du sende et argument kalt from logits som true til tap-funksjonen, og det vil internt bruke sigmoid til utgangsverdien.

Kategorisk Crossentropy

når vi har en klassifiseringsoppgave i flere klasser, er en av tapsfunksjonen du kan gå videre, denne. Hvis du bruker CCE tap-funksjonen, må det være samme antall utgangsnoder som klassene. Og den endelige lagutgangen skal sendes gjennom en softmax-aktivering slik at hver node gir en sannsynlighetsverdi mellom (0-1).

Eksempel

for eksempel har vi et nevralt nettverk som tar et bilde og klassifiserer det i en katt eller hund. Hvis katten node har en høy sannsynlighet score da bildet er klassifisert i en katt ellers hund. I utgangspunktet, uansett hvilken klasse node har høyest sannsynlighet score, er bildet klassifisert i den klassen.

Kategorisk Crossentropi

for å mate målverdien på treningstidspunktet må vi kode dem en-varm. Hvis bildet er av katt, vil målvektoren være (1, 0), og hvis bildet er av hund, vil målvektoren være (0, 1). I utgangspunktet vil målvektoren være av samme størrelse som antall klasser, og indeksposisjonen som svarer til den faktiske klassen vil være 1 og alle andre vil være null.

Merk

Hva om vi ikke bruker softmax-aktivering på det endelige laget? Deretter kan du sende et argument kalt from logits som true til tap-funksjonen, og det vil internt bruke softmax til utgangsverdien. Samme som i ovennevnte tilfelle.

Sparsom Kategorisk Crossentropi

denne tapsfunksjonen er nesten lik CCE bortsett fra en endring.

når vi bruker SCCE tap funksjon, trenger du ikke å en varm kode målvektoren. Hvis målbildet er av en katt, passerer du bare 0, ellers 1. I utgangspunktet, uansett hvilken klasse du er, passerer du bare indeksen for den klassen.

Sparsom Kategorisk Crossentropi

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.

Previous post Kinnforstørrelse: Din Guide til Kinnimplantatkirurgi
Next post Enkel Mississippi Mudslide Oppskrift For Voksne