Page 10 - No30
P. 10

TANULÁS, MODELLEZÉS, MINTAFELISMERÉS







          paraméter szerinti gradiens értékét   A ráta értéke
          kivonjuk a paraméter előző értékéből,   befolyásolja a
          akkor a hibafüggvény értéke a minimum   minimum
          felé fog elmozdulni. Mivel a minimumhoz   megközelítési
          közeledve a gradiens értéke egyre   módját is.
          csökken, – a minimumpontban 0 lesz-, a   Összefoglalva az
          paraméterváltozás Δp is egyre kisebb lesz   algoritmus lépései
          közeledve a minimumhoz a további   a következők: Első
          iterációs ciklusokban. A ciklusok számát a   lépés a kezdeti
          kívánt pontosság elérése határozza meg.   paraméterek {wi,
          Használnak ún. tanulási sebességet is   bj} beállítása
          (rátát) η, amelynek beállításával lassítani,   véletlenszerűen.
          vagy gyorsítani lehet a minimum felé   Ezt követi a rejtett
          közeledés sebességét. A függvény   csomópontok
          minimumhelyéhez tartozó p min  pontban   értékeinek zj, és
          húzott érintő párhuzamos lesz a p   kimeneti
          tengellyel gradH=tgα=0. A p min   értékeinek aj
          paraméterérték, (vagy egy ehhez közeli   kiszámítása. Majd
          érték) amit a hálózat az iterációs ciklusok   a kimeneti réteg
          végén beállít a hálózat minden    csomópontjainak értékei és az elvárt
          paraméterének végső értékének.    címkézett adatok különbségei         Az adott neurális hálózat, a
           A hibafüggvény összetett függvény,   meghatározzák a hibafüggvényt és az   hibafüggvényt minimalizáló
          H(a(z(p))). Emiatt a p paraméterek   összes paraméter szerinti gradienseit. Az   paraméterkészlettel ellátva, más bemeneti
          szerinti gradiensek az egyes változók   algoritmus ezt követően módosítja az   adatokban is felismeri a tréningjéhez
          szerinti gradiensek szorzatai lesznek   összes paramétert a H függvény   megadott yc címkézett bináris
          (láncszabály:                     paraméterek szerinti gradienseivel, a   mintázatokat.
                                            hibafüggvény értékét csökkentő irányba.   Az alábbiakban részletesebben
                                            Az új paraméterkészlettel ismételten   érdeklődő olvasóink számára egy egyszerű
                                            kiszámítja az új kimenti hibafüggvényt.   példán illusztráljuk a neurális hálózatok
                                            Majd a lépéseket, addig ismétli, míg a   tanulási algoritmusát.
                                            hibafüggvény eléri a minimumát.
                                                                                             Pálinkás Gábor



                                                                                     IRODALOM

                                                                                Sajó Zsolt Attila gépi tanulás
                                                                                Sajó Zsolt Atila Gradiens-csökkentés
                                                                                H. Bommana, Introduction to Neural
                                                                                Networks
                                                                                What is a Neural Network? |
                                                                                GeeksforGeeks
                                                                                Charles Zaiontz, Neural Network Basic
                                                                                Concepts












          10   KÉMIAI PPANORÁMAANORÁMA  30. SZÁM, 2025. ÉVFOLAMAM
          10       KÉMIAI     30.  SZÁM,  2025.  ÉVFOL Y Y
   5   6   7   8   9   10   11   12   13   14   15