megértése különböző veszteség funkciók neurális hálózatok

MSE veszteség használják regressziós feladatokat. Ahogy a neve is sugallja, ezt a veszteséget úgy számítják ki, hogy a tényleges(cél) és az előre jelzett értékek közötti négyzetes különbségek átlagát veszik figyelembe.

példa

például van egy neurális hálózatunk, amely házadatokat vesz fel és megjósolja a ház árát. Ebben az esetben használhatja a MSE veszteséget. Alapvetően abban az esetben, ha a kimenet valós szám, akkor ezt a veszteség funkciót kell használnia.

átlagos négyzet hiba

bináris Kereszttrópia

BCE veszteség használják a bináris osztályozási feladatokat. Ha BCE veszteségfüggvényt használ, akkor csak egy kimeneti csomópontra van szüksége az adatok két osztályba sorolásához. A kimeneti értéket szigmoid aktiválási funkción keresztül kell átadni, a kimeneti tartomány pedig (0 – 1).

példa

például van egy neurális hálózatunk, amely légköri adatokat vesz fel, és megjósolja, hogy esni fog-e vagy sem. Ha a kimenet nagyobb, mint 0,5, akkor a hálózat rain, ha pedig kevesebb, mint 0,5, akkor a hálózat not rainkategóriába sorolja. (ez ellentétes lehet attól függően, hogy hogyan edzi a hálózatot). Több a valószínűsége pontszám értéke, annál nagyobb az esélye az eső.

bináris Kereszttrópia

a hálózat kiképzése közben a hálózatba betáplált célértéknek 1-nek kell lennie, ha egyébként esik az eső 0.

1.Megjegyzés

egy fontos dolog, ha BCE veszteségfüggvényt használ, a csomópont kimenetének (0-1) között kell lennie. Ez azt jelenti, hogy szigmoid aktiválási funkciót kell használnia a végső kimeneten. Mivel a szigmoid bármilyen valós értéket átalakít a (0-1) közötti tartományban.

2. megjegyzés

mi van, ha nem szigmoid aktiválást használ a végső rétegen? Ezután átadhat egy from logits true nevű argumentumot a veszteségfüggvénynek, és belsőleg alkalmazza a szigmoidot a kimeneti értékre.

kategorikus Crossentropia

ha több osztályú osztályozási feladatunk van, akkor az egyik veszteségfüggvény, amelyet folytathat, ez. Ha CCE veszteségfüggvényt használ, akkor ugyanannyi kimeneti csomópontnak kell lennie, mint az osztályoknak. A végső réteg kimenetet pedig egy softmax aktiváláson kell átvezetni, hogy minden csomópont (0-1) közötti valószínűségi értéket adjon ki.

példa

például van egy neurális hálózatunk, amely egy képet vesz, és macskába vagy kutyába osztályozza. Ha a macska csomópont nagy valószínűséggel pontszám, akkor a kép van besorolva egy macska egyébként kutya. Alapvetően attól függően, hogy melyik osztálycsomópont rendelkezik a legmagasabb valószínűségi pontszámmal, a kép ebbe az osztályba tartozik.

kategorikus Crossentropy

a célérték betáplálásához a képzés idején egyet kell tennünk-forró kódolja őket. Ha a kép a macska, akkor a cél vektor lenne (1, 0), és ha a kép a kutya, a cél vektor lenne (0, 1). Alapvetően a célvektor ugyanolyan méretű lenne, mint az osztályok száma, a tényleges osztálynak megfelelő indexpozíció pedig 1, az összes többi pedig nulla lenne.

Megjegyzés

mi van, ha nem softmax aktiválást használunk a végső rétegen? Ezután átadhat egy from logits true nevű argumentumot a veszteségfüggvénynek, és a softmax-ot belsőleg alkalmazza a kimeneti értékre. Ugyanaz, mint a fenti esetben.

ritka kategorikus Kereszttrópia

ez a veszteségfüggvény szinte hasonló a CCE – hez, kivéve egy változást.

ha SCCE veszteségfüggvényt használunk, akkor nem kell egy forró kódolni a célvektort. Ha a cél kép egy macska, akkor egyszerűen át 0, egyébként 1. Alapvetően, bármelyik osztály is, csak adja át az osztály indexét.

Ritka Kategorikus Kereszttrópia

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.

Previous post Cheek Augmentation: Your Guide to Cheek Implantate Surgery
Next post Könnyű Mississippi Mudslide Recept felnőtteknek