neural network learning rules perceptron hebbian learning
Aquest tutorial en profunditat sobre les regles d'aprenentatge de xarxes neuronals explica l'algorisme d'aprenentatge Hebbian i Perceptron amb exemples:
Al nostre tutorial anterior en vam parlar Xarxa de neurones artificials que és una arquitectura d’un gran nombre d’elements interconnectats anomenats neurones.
Aquestes neurones processen l'entrada rebuda per donar la sortida desitjada. Els nodes o neurones estan units per entrades, pesos de connexió i funcions d'activació.
La característica principal d’una xarxa neuronal és la seva capacitat d’aprenentatge. Les xarxes neuronals s’entrenen amb exemples coneguts. Un cop entrenada la xarxa, es pot utilitzar per resoldre els valors desconeguts del problema.
=> Llegiu la sèrie completa de formació sobre aprenentatge automàtic
La xarxa neuronal aprèn mitjançant diversos esquemes d’aprenentatge que es classifiquen com a aprenentatges supervisats o no supervisats.
En els algorismes d’aprenentatge supervisat, la xarxa coneix els valors objectiu. Intenta reduir l'error entre la sortida desitjada (objectiu) i la sortida real per obtenir un rendiment òptim. En algorismes d’aprenentatge no supervisats, els valors objectiu són desconeguts i la xarxa aprèn per si sola identificant els patrons ocults de l’entrada mitjançant la formació de clústers, etc.
Una ANN consta de 3 parts, és a dir, capa d’entrada, capa oculta i capa de sortida. Hi ha una sola capa d'entrada i de sortida, mentre que és possible que no hi hagi cap capa oculta o una o més capes ocultes que puguin estar presents a la xarxa. Basant-se en aquesta estructura, l’ANN es classifica en xarxes d’una sola capa, multicapa, feed-forward o recurrents.
Què aprendreu:
- Terminologia ANN important
- Comparació de regles d’aprenentatge de xarxes neuronals
- Conclusió
Terminologia ANN important
Abans de classificar les diferents regles d’aprenentatge a ANN, entenem algunes terminologies importants relacionades amb ANN.
# 1) Pesos: En una ANN, cada neurona està connectada a les altres neurones mitjançant enllaços de connexió. Aquests enllaços tenen un pes. El pes té informació sobre el senyal d’entrada a la neurona. Els pesos i el senyal d’entrada s’utilitzen per obtenir una sortida. Els pesos es poden denotar en una forma matricial que també s’anomena matriu de connexió.
Cada neurona està connectada a qualsevol altra neurona de la capa següent mitjançant pesos de connexió. Per tant, si hi ha nodes 'n' i cada node té pes 'm', la matriu de pes serà:
W1 representa el vector de pes a partir del node 1. W11 representa el vector de pes de l'1cnode de la capa anterior a l'1cnode de la següent capa. De la mateixa manera, wij representa el vector de pes des de l'element de processament 'ith' (neurona) fins a l'element de processament 'jth' de la següent capa.
# 2) Biaix : El biaix s'afegeix a la xarxa afegint un element d'entrada x (b) = 1 al vector d'entrada. El biaix també té un pes indicat per w (b).
El biaix té un paper important en el càlcul de la sortida de la neurona. El biaix pot ser positiu o negatiu. Un biaix positiu augmenta el pes net d’entrada mentre que el biaix negatiu redueix l’entrada neta.
# 3) Llindar: A la funció d’activació s’utilitza un valor llindar. Es compara l’entrada neta amb el llindar per obtenir la sortida. A NN, la funció d’activació es defineix en funció del valor llindar i es calcula la sortida.
El valor llindar és:
# 4) Taxa d'aprenentatge : Es denota amb alfa?. La taxa d'aprenentatge oscil·la entre 0 i 1. S'utilitza per ajustar el pes durant el procés d'aprenentatge de NN.
# 5) Factor d’impuls : S'afegeix per a una convergència més ràpida dels resultats. El factor impuls s’afegeix al pes i s’utilitza generalment a les xarxes de propagació inversa.
Comparació de regles d’aprenentatge de xarxes neuronals
Mètodes d'aprenentatge -> | Descens de gradient | Hebbian | Competitius | Estocàstic | |||||||
---|---|---|---|---|---|---|---|---|---|---|---|
EPOCH 2 | |||||||||||
Tipus d'Arquitectura || | |||||||||||
Avanç d'una sola capa | ADALINE Hopfield Perceptron | Associativa Memòria Hopfield | Vector lineal Quantització | ||||||||
Reenviament d'alimentació multicapa | Cascada Correlació Feed multicapa Endavant Biaix radial Funció | Neocognitró | |||||||||
Recurrent | Neural recurrent Xarxa | Automàtic bidireccional Associativa Memòria Brain- State- In-a- Box Hopfield | Adaptatiu Teoria de la ressonància | Boltzmann Màquina Cauchy Màquina |
A continuació es mostra la classificació de diversos tipus d’aprenentatge d’ANN.
Classificació d'algorismes d'aprenentatge supervisat
- Descens de gradient
- Estocàstic
# 1) Aprenentatge de descens de gradient
En aquest tipus d'aprenentatge, la reducció d'errors té lloc amb l'ajut de pesos i la funció d'activació de la xarxa. La funció d'activació hauria de ser diferenciable.
L'ajust de peses depèn del gradient d'error E en aquest aprenentatge. La regla de propagació inversa és un exemple d’aquest tipus d’aprenentatge. Per tant, l'ajust de pes es defineix com
# 2) Aprenentatge estocàstic
En aquest aprenentatge, els pesos s’ajusten de manera probabilística.
Classificació d'algorismes d'aprenentatge sense supervisió
- Hebbian
- Competitius
# 1) Aprenentatge Hebbian
Aquest aprenentatge va ser proposat per Hebb el 1949. Es basa en l’ajust correlatiu de peses. Els parells de patrons d’entrada i sortida s’associen a una matriu de pes, W.
La transposició de la sortida es pren per ajustar el pes.
# 2) Aprenentatge competitiu
És un guanyador que porta tota l'estratègia. En aquest tipus d’aprenentatge, quan s’envia un patró d’entrada a la xarxa, totes les neurones de la capa competeixen i només les neurones guanyadores tenen ajustos de pes.
Mc Culloch-Pitts Neuron
També coneguda com a neurona M-P, aquesta és la primera xarxa neuronal que es va descobrir el 1943. En aquest model, les neurones estan connectades mitjançant pesos de connexió i la funció d’activació s’utilitza en binari. El llindar s’utilitza per determinar si la neurona dispara o no.
La funció de la neurona M-P és:
Algorisme d'aprenentatge Hebbian
Xarxa Hebb va ser declarat per Donald Hebb el 1949. Segons la norma de Hebb, es constata que els pesos augmenten proporcionalment al producte d’entrada i sortida. Vol dir que en una xarxa Hebb si dues neurones estan interconnectades, els pesos associats a aquestes neurones poden augmentar-se mitjançant canvis en la bretxa sinàptica.
Aquesta xarxa és adequada per a dades bipolars. La regla d’aprenentatge Hebbian s’aplica generalment a les portes lògiques.
Els pesos s’actualitzen com:
W (nou) = w (antic) + x * y
Algorisme de formació per a la regla d'aprenentatge Hebbian
Els passos d'entrenament de l'algorisme són els següents:
- Inicialment, els pesos s’estableixen a zero, és a dir, w = 0 per a totes les entrades i = 1 a n i n és el nombre total de neurones d’entrada.
- Sigui s la sortida. La funció d'activació per a les entrades generalment s'estableix com a funció d'identitat.
- La funció d'activació de la sortida també s'estableix en y = t.
- Els ajustos de pes i el biaix s’ajusten a:
- Els passos 2 a 4 es repeteixen per a cada vector d'entrada i sortida.
Exemple de regla d'aprenentatge Hebbian
Implantem la funció lògica I amb entrades bipolars mitjançant l'aprenentatge Hebbian
X1 i X2 són entrades, b és el biaix considerat com a 1, el valor objectiu és la sortida de l'operació lògica I sobre les entrades.
Entrada | Entrada | Parcialitat | Objectiu |
---|---|---|---|
X1 | X2 | b | i |
1 | 1 | 1 | 1 |
1 | -1 | 1 | -1 |
-1 | 1 | 1 | -1 |
-1 | -1 | 1 | -1 |
# 1) Inicialment, els pesos s’estableixen a zero i el biaix també s’estableix com a zero.
com obriu un fitxer jar
W1 = w2 = b = 0
# 2) El primer vector d'entrada es pren com (x1 x2 b) = (1 1 1) i el valor objectiu és 1.
Els nous pesos seran:
# 3) Els pesos anteriors són els pesos nous finals. Quan es passa la segona entrada, es converteixen en els pesos inicials.
# 4) Preneu la segona entrada = (1 -1 1). L'objectiu és -1.
# 5) De la mateixa manera, es calculen les altres entrades i pesos.
La taula següent mostra totes les dades introduïdes:
Entrades | Parcialitat | Sortida objectiu | Canvis de pes | Canvis de biaix | Nous pesos | ||||
---|---|---|---|---|---|---|---|---|---|
X1 | X2 | b | i | ? w1 | ? w2 | ? b | W1 | W2 | b |
1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 |
1 | -1 | 1 | -1 | -1 | 1 | -1 | 0 | 2 | 0 |
-1 | 1 | 1 | -1 | 1 | -1 | -1 | 1 | 1 | -1 |
-1 | -1 | 1 | -1 | 1 | 1 | -1 | 2 | 2 | -2 |
Hebb Net per a la funció AND
Algorisme d'aprenentatge de Perceptron
Les xarxes Perceptron són xarxes de transmissió de flux d’una sola capa. També s’anomenen xarxes Single Perceptron. El Perceptron consta d’una capa d’entrada, una capa oculta i una capa de sortida.
La capa d'entrada està connectada a la capa oculta mitjançant pesos que poden ser inhibidors o excitadors o zero (-1, +1 o 0). La funció d’activació utilitzada és una funció de pas binari per a la capa d’entrada i la capa oculta.
La sortida és
I = f (i)
La funció d'activació és:
L'actualització del pes es realitza entre la capa oculta i la capa de sortida per coincidir amb la sortida objectiu. L'error es calcula en funció de la sortida real i la sortida desitjada.
Si la sortida coincideix amb l'objectiu, no tindrà lloc cap actualització de pes. Els pesos s’estableixen inicialment a 0 o 1 i s’ajusten successivament fins que es troba una solució òptima.
Els pesos de la xarxa es poden establir a qualsevol valor inicialment. L'aprenentatge de Perceptron convergirà en un vector de pes que proporciona una sortida correcta per a tots els patrons d'entrenament d'entrada i aquest aprenentatge es produeix en un nombre finit de passos.
La regla de Perceptron es pot utilitzar tant per a entrades binàries com bipolars.
Regla d’aprenentatge per a un perceptró de sortida única
# 1) Que hi hagi 'n' vectors d'entrada d'entrenament i x (n) i t (n) s'associen als valors objectiu.
# 2) Inicialitzeu els pesos i els biaixos. Estableix-los a zero per facilitar el càlcul.
# 3) Deixeu que la taxa d’aprenentatge sigui 1.
# 4) La capa d'entrada té una funció d'activació d'identitat, de manera que x (i) = s (i).
# 5) Per calcular la sortida de la xarxa:
# 6) La funció d’activació s’aplica sobre l’entrada neta per obtenir una sortida.
# 7) Ara, basat en la sortida, compareu el valor objectiu desitjat (t) i la sortida real.
# 8) Continueu la iteració fins que no hi hagi cap canvi de pes. Atureu-vos un cop s'aconsegueixi aquesta condició.
Regla d’aprenentatge per a Perceptron de sortida múltiple
# 1) Que hi hagi 'n' vectors d'entrada d'entrenament i x (n) i t (n) s'associen als valors objectiu.
# 2) Inicialitzeu els pesos i els biaixos. Estableix-los a zero per facilitar el càlcul.
# 3) Deixeu que la taxa d’aprenentatge sigui 1.
# 4) La capa d'entrada té una funció d'activació d'identitat, de manera que x (i) = s (i).
# 5) Per calcular la sortida de cada vector de sortida de j = 1 a m, l'entrada neta és:
# 6) La funció d’activació s’aplica sobre l’entrada neta per obtenir una sortida.
# 7) Ara, basat en el resultat, compareu el valor objectiu desitjat (t) i el resultat real i feu els ajustos de pes.
w és el vector de pes dels enllaços de connexió entre la neurona d'entrada i la jèsima sortida i t és la sortida objectiu de la unitat de sortida j.
# 8) Continueu la iteració fins que no hi hagi cap canvi de pes. Atureu-vos un cop s'aconsegueixi aquesta condició.
Exemple de regla d'aprenentatge del Perceptron
Implementació de la funció AND mitjançant una xarxa Perceptron per a entrades i sortides bipolars.
El patró d’entrada serà x1, x2 i bias b. Deixeu que els pesos inicials siguin 0 i el biaix 0. El llindar s’estableix a zero i el percentatge d’aprenentatge és 1.
I Porta
X1 | X2 | Objectiu |
---|---|---|
1 | 1 | 1 |
1 | -1 | -1 |
-1 | 1 | -1 |
-1 | -1 | -1 |
# 1) X1 = 1, X2 = 1 i sortida objectiu = 1
W1 = w2 = wb = 0 i x1 = x2 = b = 1, t = 1
Entrada neta = y = b + x1 * w1 + x2 * w2 = 0 + 1 * 0 + 1 * 0 = 0
Com que el llindar és zero, per tant:
A partir d’aquí obtenim, sortida = 0. Ara comproveu si sortida (y) = objectiu (t).
y = 0 però t = 1 el que significa que no són iguals, per tant, té lloc l'actualització de pes.
Els nous pesos són 1, 1 i 1 després de presentar el primer vector d'entrada.
# 2) X1 = 1 X2 = -1, b = 1 i objectiu = -1, W1 = 1, W2 = 2, Wb = 1
Entrada neta = y = b + x1 * w1 + x2 * w2 = 1 + 1 * 1 + (-1) * 1 = 1
La sortida neta de l'entrada = 1 serà 1 de:
Per tant, de nou, l'objectiu = -1 no coincideix amb la sortida real = 1. Es realitzen actualitzacions de pes.
Ara els nous pesos són w1 = 0 w2 = 2 i wb = 0
De la mateixa manera, en continuar amb el següent conjunt d’entrades, obtenim la taula següent:
Entrada | Parcialitat | Objectiu | Entrada neta | Sortida calculada | Canvis de pes | Nous pesos | |||||
---|---|---|---|---|---|---|---|---|---|---|---|
X1 | X2 | b | t | yin | I | ? w1 | ? w2 | ? b | W1 | W2 | wb |
EPOCH 1 | |||||||||||
1 | 1 | 1 | 1 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 |
1 | -1 | 1 | -1 | 1 | 1 | -1 | 1 | -1 | 0 | 2 | 0 |
-1 | 1 | 1 | -1 | 2 | 1 | 1 | -1 | -1 | 1 | 1 | -1 |
-1 | -1 | 1 | -1 | -3 | -1 | 0 | 0 | 0 | 1 | 1 | -1 |
1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 1 | 1 | -1 |
1 | -1 | 1 | -1 | -1 | -1 | 0 | 0 | 0 | 1 | 1 | -1 |
-1 | 1 | 1 | -1 | -1 | -1 | 0 | 0 | 0 | 1 | 1 | -1 |
-1 | -1 | 1 | -1 | -3 | -1 | 0 | 0 | 0 | 1 | 1 | -1 |
Els EPOCHS són el cicle de patrons d’entrada alimentats al sistema fins que no es necessita cap canvi de pes i la iteració s’atura.
Algorisme d'aprenentatge de Widrow Hoff
També conegut com Regla del Delta , segueix la regla de descens de gradient per a la regressió lineal.
Actualitza els pesos de connexió amb la diferència entre el valor objectiu i el de sortida. És l’algoritme d’aprenentatge quadrat de mitjana mínima que pertany a la categoria de l’algorisme d’aprenentatge supervisat.
Aquesta regla és seguida per ADALINE (Adaptive Linear Neural Networks) i MADALINE. A diferència de Perceptron, les iteracions de les xarxes Adaline no s'aturen, però convergeixen reduint l'error quadrat mitjà. MADALINE és una xarxa de més d’un ADALINE.
El motiu de la regla d’aprenentatge delta és minimitzar l’error entre la sortida i el vector objectiu.
Els pesos de les xarxes ADALINE s’actualitzen mitjançant:
Error quadrat mínim mitjà = (t- ydins)2, ADALINE convergeix quan s’arriba a l’error quadrat mínim.
Conclusió
En aquest tutorial, hem parlat dels dos algorismes, és a dir, la regla d’aprenentatge Hebbian i la regla d’aprenentatge de Perceptron. La regla Hebbian es basa en la regla que el vector de pes augmenta proporcionalment a l’entrada i al senyal d’aprenentatge, és a dir, a la sortida. Els pesos s’incrementen afegint el producte de l’entrada i la sortida al pes antic.
W (nou) = w (antic) + x * y
L’aplicació de les regles Hebb rau en problemes d’associació de patrons, classificació i categorització.
La regla d’aprenentatge de Perceptron es pot aplicar tant a la xarxa de classes de sortida única com de sortida múltiple. L’objectiu de la xarxa perceptron és classificar el patró d’entrada en una classe membre determinada. Les neurones d’entrada i la neurona de sortida es connecten mitjançant enllaços que tenen pes.
Els pesos s’ajusten perquè coincideixin amb la sortida real amb el valor objectiu. La taxa d’aprenentatge s’estableix de 0 a 1 i determina l’escalabilitat dels pesos.
Els pesos s’actualitzen segons:
A part d’aquestes regles d’aprenentatge, els algoritmes d’aprenentatge automàtic aprenen a través de molts altres mètodes, és a dir, de reforç supervisat, no supervisat. Alguns dels altres algoritmes de ML habituals són Propagació del darrere, ART, Mapes autoorganitzatius de Kohonen, etc.
Esperem que us hagin agradat tots els tutorials d’aquesta Sèrie d’Aprenentatge Automàtic !!
=> Visiteu aquí la sèrie exclusiva d’aprenentatge automàtic
Lectura recomanada
- Una guia completa sobre xarxes neuronals artificials en aprenentatge automàtic
- Tipus d’aprenentatge automàtic: supervisat contra aprenentatge no supervisat
- Mineria de dades contra aprenentatge automàtic contra intel·ligència artificial contra aprenentatge profund
- Proves de seguretat de xarxa i millors eines de seguretat de xarxa
- 11 eines de programari d'aprenentatge automàtic més populars el 2021
- Tutorial d'aprenentatge automàtic: Introducció a ML i les seves aplicacions
- 15 millors eines d’escaneig de xarxa (escàner de xarxa i IP) del 2021
- Top 30 eines de prova de xarxa (eines de diagnòstic del rendiment de la xarxa)