Sommario:
Definizione - Cosa significa Backpropagation?
La backpropagation è una tecnica utilizzata per addestrare alcune classi di reti neurali - è essenzialmente un principio che consente al programma di apprendimento automatico di adattarsi in base alle sue funzioni passate.
La backpropagation è talvolta chiamata la "backpropagation di errori".
Techopedia spiega Backpropagation
La backpropagation come tecnica utilizza la discesa del gradiente: calcola il gradiente della funzione di perdita in uscita e la distribuisce attraverso gli strati di una rete neurale profonda. Il risultato sono pesi adeguati per i neuroni. Sebbene la backpropagation possa essere utilizzata sia in reti supervisionate che non supervisionate, è vista come un metodo di apprendimento supervisionato.
Dopo l'emergere di semplici reti neurali feedforward, in cui i dati vanno in un solo modo, gli ingegneri hanno scoperto che potevano utilizzare la backpropagation per regolare i pesi di input neurali dopo il fatto. La backpropagation può essere pensata come un modo per addestrare un sistema in base alla sua attività, per regolare con precisione o precisione la rete neurale che elabora determinati input o come conduce verso qualche altro stato desiderato.
