freeCodeCamp/guide/spanish/machine-learning/backpropagation/index.md

2.9 KiB

title localeTitle
Backpropagation Backpropagation

Backpropagation

Backprogapation es un subtema de redes neuronales y es el proceso mediante el cual se calculan los gradientes de cada nodo en la red. Estos gradientes miden el "error" que cada nodo contribuye a la capa de salida, por lo que al entrenar una red neuronal, estos gradientes se minimizan.

Nota: La propagación hacia atrás y el aprendizaje automático en general requirieron una familiaridad significativa con el álgebra lineal y la manipulación de matrices. El trabajo de curso o la lectura sobre este tema es altamente recomendable antes de tratar de entender el contenido de este artículo.

Cálculo

El proceso de propagación hacia atrás puede explicarse en tres pasos.

Dado lo siguiente

  • m ejemplos de entrenamiento (x, y) en una red neuronal de capas L
  • g = la función sigmoide
  • Theta (i) = la matriz de transición de la i a la capa i + 1
  • a (l) = g (z (l)); una matriz de los valores de los nodos en la capa l basada en un ejemplo de entrenamiento
  • z (l) = Theta (l-1) a (l-1)
  • Delta un conjunto de matrices L que representan transiciones entre las capas ith e i + 1 ª
  • d (l) = la matriz de los gradientes para la capa l para un ejemplo de entrenamiento
  • D un conjunto de L matricias con los gradientes finales para cada nodo
  • lambda el término de regulación para la red

En este caso, para la matriz M, M 'denotará la transposición de la matriz M

  1. Asigne todas las entradas del Delta (i), para i de 1 a L, cero.
  2. Para cada ejemplo de entrenamiento t de 1 a m, realice lo siguiente:
  • realice una propagación hacia adelante en cada ejemplo para calcular a (l) yz (l) para cada capa
  • calcular d (L) = a (L) - y (t)
  • calcular d (l) = (Theta (l) '• d (l + 1)) • g (z (l)) para l de L-1 a 1
  • incrementa Delta (l) por delta (l + 1) • a (l) '
  1. Conecte las matrices delta en nuestras matrices derivadas parciales D (l) = 1 \ m (Delta (l) + lambda • Theta (l)); si l ≠ 0 D (l) = 1 \ m • Delta (l); si l = 0

Por supuesto, el simple hecho de ver este artículo parece enormemente complicado y solo debería entenderse en los contextos más amplios de las redes neuronales y el aprendizaje automático. Por favor, mire las referencias completas para una mejor comprensión del tema en su conjunto.

Más información: