MSE veszteség használják regressziós feladatokat. Ahogy a neve is sugallja, ezt a veszteséget úgy számítják ki, hogy a tényleges(cél) és az előre jelzett értékek közötti négyzetes különbségek átlagát veszik figyelembe.
példa
például van egy neurális hálózatunk, amely házadatokat vesz fel és megjósolja a ház árát. Ebben az esetben használhatja a MSE
veszteséget. Alapvetően abban az esetben, ha a kimenet valós szám, akkor ezt a veszteség funkciót kell használnia.
bináris Kereszttrópia
BCE veszteség használják a bináris osztályozási feladatokat. Ha BCE
veszteségfüggvényt használ, akkor csak egy kimeneti csomópontra van szüksége az adatok két osztályba sorolásához. A kimeneti értéket szigmoid aktiválási funkción keresztül kell átadni, a kimeneti tartomány pedig (0 – 1).
példa
például van egy neurális hálózatunk, amely légköri adatokat vesz fel, és megjósolja, hogy esni fog-e vagy sem. Ha a kimenet nagyobb, mint 0,5, akkor a hálózat rain
, ha pedig kevesebb, mint 0,5, akkor a hálózat not rain
kategóriába sorolja. (ez ellentétes lehet attól függően, hogy hogyan edzi a hálózatot). Több a valószínűsége pontszám értéke, annál nagyobb az esélye az eső.
a hálózat kiképzése közben a hálózatba betáplált célértéknek 1-nek kell lennie, ha egyébként esik az eső 0.
1.Megjegyzés
egy fontos dolog, ha BCE
veszteségfüggvényt használ, a csomópont kimenetének (0-1) között kell lennie. Ez azt jelenti, hogy szigmoid aktiválási funkciót kell használnia a végső kimeneten. Mivel a szigmoid bármilyen valós értéket átalakít a (0-1) közötti tartományban.
2. megjegyzés
mi van, ha nem szigmoid aktiválást használ a végső rétegen? Ezután átadhat egy from logits
true
nevű argumentumot a veszteségfüggvénynek, és belsőleg alkalmazza a szigmoidot a kimeneti értékre.
kategorikus Crossentropia
ha több osztályú osztályozási feladatunk van, akkor az egyik veszteségfüggvény, amelyet folytathat, ez. Ha CCE
veszteségfüggvényt használ, akkor ugyanannyi kimeneti csomópontnak kell lennie, mint az osztályoknak. A végső réteg kimenetet pedig egy softmax aktiváláson kell átvezetni, hogy minden csomópont (0-1) közötti valószínűségi értéket adjon ki.
példa
például van egy neurális hálózatunk, amely egy képet vesz, és macskába vagy kutyába osztályozza. Ha a macska csomópont nagy valószínűséggel pontszám, akkor a kép van besorolva egy macska egyébként kutya. Alapvetően attól függően, hogy melyik osztálycsomópont rendelkezik a legmagasabb valószínűségi pontszámmal, a kép ebbe az osztályba tartozik.
a célérték betáplálásához a képzés idején egyet kell tennünk-forró kódolja őket. Ha a kép a macska, akkor a cél vektor lenne (1, 0), és ha a kép a kutya, a cél vektor lenne (0, 1). Alapvetően a célvektor ugyanolyan méretű lenne, mint az osztályok száma, a tényleges osztálynak megfelelő indexpozíció pedig 1, az összes többi pedig nulla lenne.
Megjegyzés
mi van, ha nem softmax aktiválást használunk a végső rétegen? Ezután átadhat egy from logits
true
nevű argumentumot a veszteségfüggvénynek, és a softmax-ot belsőleg alkalmazza a kimeneti értékre. Ugyanaz, mint a fenti esetben.
ritka kategorikus Kereszttrópia
ez a veszteségfüggvény szinte hasonló a CCE
– hez, kivéve egy változást.
ha SCCE
veszteségfüggvényt használunk, akkor nem kell egy forró kódolni a célvektort. Ha a cél kép egy macska, akkor egyszerűen át 0, egyébként 1. Alapvetően, bármelyik osztály is, csak adja át az osztály indexét.