Asignatura: Redes Neuronales
Artificiales
Alumno : Maquin Sotomayor
Alessandro Raul
Docente: Castañeda Samanamu
Miguel Angel
Huacho – Perú
2024
LA RED
BACKPROPAGATION
El funcionamiento de la red backpropagation consiste en el aprendizaje de un
conjunto predefinido de pares de entradas-salidas dados.
Primero se aplica un patrón de entrada como estímulo para la primera capa
de las neuronas de la red.
Se va propagando a través de todas las capas superiores hasta generar una
salida.
Se compara el resultado en las neuronas de salida con la salida que se desea
obtener y se calcula un valor de error para cada neurona de salida.
LA RED
BACKPROPAGATION
LA RED
BACKPROPAGATION
A continuación, estos errores se transmiten hacia atrás, partiendo de la capa de
salida hacia todas las neuronas de la capa intermedia que contribuyan directamente
a la salida.
Este proceso se repite, capa por capa, hasta que todas las neuronas de la red
hayan recibido un error que describa su aportación relativa al error total.
Basándose en el valor del error recibido, se reajustan los pesos de conexión de
cada neurona, de manera que en la siguiente vez que se presente el mismo patrón,
la salida esté más cercana a la deseada.
ALGORITMO
Inicialice los pesos de la red con valores pequeños aleatorios.
Presentar un patrón de entrada y especificar la salida deseada.
Calcule los valores de ajuste de las unidades de salida en base al error
observado.
Empezando por el nivel de salida, repita lo siguiente por cada nivel de la
red, hasta llegar al primero de los niveles ocultos:
 Propague los valores de ajuste de regreso al nivel anterior.
 Actualice los pesos que hay entre los dos niveles.
El proceso se repite hasta que el error resulta aceptablemente pequeño para
cada uno de los patrones aprendidos.
GRADIENTE
DESCENDENTE
Después que se calcula el error, cada peso
se ajusta en proporción al gradiente del
error, retro propagado de la salidas a las
entradas.
El cambio en los pesos reduce el error
total.
MÍNIMO LOCAL
Entre mas unidades ocultas se tengan en red,
menor es la probabilidad de encontrar un
mínimo local
RAZÓN DE
APRENDIZAJE
Entre mas grande es la razón de aprendizaje (a) mayor es el cambio en los
valores de los pesos cada época, y mas rápido aprende la red.
Si la a es demasiado grande, entonces el cambio en los pesos no se
aproxima al gradiente descendente, dando como resultado una oscilación en
los pesos.
Se desea usar una a lo mas grande posible sin llegar a la oscilación.
APLICACIÓN DE BLACK
PROPAGATION
Hoy en día, la delincuencia y la inseguridad se han incrementado en las grandes
ciudades, es por eso que son necesarias medidas de seguridad eficientes.
Por tal motivo se ha buscado en la tecnología alternativas de seguridad, donde se
utilizan los rasgos físicos propios de cada persona, por ejemplo, huellas dactilares,
la retina y la voz .
De un conjunto de 120 patrones de voz con una longitud de 34 muestras cada
patrón, previamente procesados, se llevo a cabo el entrenamiento de la red
neuronal tipo “Back Propagation” con una capa oculta y 6 neuronas
Se realizo un programa en Matlab, para realizar el calculo de error generado
por cada uno de los patrones de prueba.
Se enviara una señal de salida cada vez que el patrón entrenado arroje un
promedio de error menor a 0.1
La variable que almacena el promedio es la variable suma como lo muestra la
siguiente figura
LA RED backpropagation que nos enseña como funciona una red
Una vez que la variable suma almacene un valor menor a 0.1, o mayor , se
enviara por medio del puerto serie del ordenador un carácter al
microcontrolador ATMEGA48, como se muestra en la siguiente figura
Dentro del microcontrolador se encuentra un programa que simulara la
apertura de una puerta. Si el valor fue menor a 0.1 se prendera el led color
verde, como lo muestra la figura, en caso contrario , es decir el valor del
error promedio es mayor a 0.1 el microcontrolador no realizará ninguna
acción.

Más contenido relacionado

PPT
RED De Retro-propagación Neuronal
PPT
Algoritmo de Retropropagación
PPT
Perceptron parte 2
PPT
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
PPTX
Inteligencia artificial avanzada
PPT
backpropagation teoria como programar.ppt
PPT
RED NEURONAL Backpropagation
PDF
Utp ia_2014-2_s6_backpropagation
RED De Retro-propagación Neuronal
Algoritmo de Retropropagación
Perceptron parte 2
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Inteligencia artificial avanzada
backpropagation teoria como programar.ppt
RED NEURONAL Backpropagation
Utp ia_2014-2_s6_backpropagation

Similar a LA RED backpropagation que nos enseña como funciona una red (20)

PPT
Diseño de Redes Neuronales Multicapa y Entrenamiento
PPT
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes Neuronales
PPTX
presentación de una REDneuronal de tipo radial.pptx
PPTX
Red neuronal en el siglo XXI para alumnos.pptx
PDF
Clase redes neuronales 3
PPTX
Clasificacion mediante Redes Neuronales.pptx
PDF
Algoritmo de enrutamiento por inundación
DOCX
Sesgo BacoProgpagation
PPT
REDES NEURONALES Mapas con Características Autoorganizativas Som
PPT
Redes neuronales artificiales
PPTX
Redes neuronales multicapa y monocapa
PDF
Utp 2015-2_sirn_s6_adaline y backpropagation
DOCX
Sesgo en una Red Neuronal Artificial
Diseño de Redes Neuronales Multicapa y Entrenamiento
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
Redes Neuronales
presentación de una REDneuronal de tipo radial.pptx
Red neuronal en el siglo XXI para alumnos.pptx
Clase redes neuronales 3
Clasificacion mediante Redes Neuronales.pptx
Algoritmo de enrutamiento por inundación
Sesgo BacoProgpagation
REDES NEURONALES Mapas con Características Autoorganizativas Som
Redes neuronales artificiales
Redes neuronales multicapa y monocapa
Utp 2015-2_sirn_s6_adaline y backpropagation
Sesgo en una Red Neuronal Artificial
Publicidad

Último (20)

PPTX
aeronáutica.pptx. Civil Cali Colombia q
PPTX
Sindrome nefroticooooooooooooooooooooooooo
PPTX
PROYECTO PARA ADMINISTRTACION DE PROYECTOS.pptx
PDF
ABORDAJE TERAPEUTICO PROBLEMAS ALIMENTICIOS TCA
PDF
libreta_70940031201560_2024.pdfhvvbhjhmnmn
PPTX
PPT-7-PLANIFICACION A CORTO PLAZO-1.pptx
PDF
jnkjnjknjknkjnjknkjnkjnDS C1 02.08.23.pdf
PPTX
Estas zonas estarían integradas de la siguiente manera.pptx
PDF
EL INTERNET DEL CURSO DE HERRAMIENTAS INFORMÁTICAS
PPTX
La Guerra de los pastelesssssssssssssssss.pptx
PPTX
S07_s1 - Análisis de sensibilidad y Regla del 100_.pptx
DOCX
DOC-20250819-WA0002.hoy juan 3011.docx000
PDF
ElectrocardiogramadcncsjnvcjKMmvjvjj.pdf
PPTX
01Clase Eva Nut 2023.pptxfhcvbvgnbnfvgjhb
PPTX
presentación plataforma de elvacion y equipos
DOCX
trabajo de tecnologia 10-3.docx2025-08-18
PPTX
Soporte Técnico-Electrónica Básica-Herramientas
PPTX
1 Salud Ocupacional en la parte informatica.pptx
PDF
ADICCIONES FOBIAS TERAPEUTICO ABORDAJE ENTRE OTRAS
PPTX
DerAdmI.UV.2025.1.2.3.Unidades (1).pptxhbbbbbbbb
aeronáutica.pptx. Civil Cali Colombia q
Sindrome nefroticooooooooooooooooooooooooo
PROYECTO PARA ADMINISTRTACION DE PROYECTOS.pptx
ABORDAJE TERAPEUTICO PROBLEMAS ALIMENTICIOS TCA
libreta_70940031201560_2024.pdfhvvbhjhmnmn
PPT-7-PLANIFICACION A CORTO PLAZO-1.pptx
jnkjnjknjknkjnjknkjnkjnDS C1 02.08.23.pdf
Estas zonas estarían integradas de la siguiente manera.pptx
EL INTERNET DEL CURSO DE HERRAMIENTAS INFORMÁTICAS
La Guerra de los pastelesssssssssssssssss.pptx
S07_s1 - Análisis de sensibilidad y Regla del 100_.pptx
DOC-20250819-WA0002.hoy juan 3011.docx000
ElectrocardiogramadcncsjnvcjKMmvjvjj.pdf
01Clase Eva Nut 2023.pptxfhcvbvgnbnfvgjhb
presentación plataforma de elvacion y equipos
trabajo de tecnologia 10-3.docx2025-08-18
Soporte Técnico-Electrónica Básica-Herramientas
1 Salud Ocupacional en la parte informatica.pptx
ADICCIONES FOBIAS TERAPEUTICO ABORDAJE ENTRE OTRAS
DerAdmI.UV.2025.1.2.3.Unidades (1).pptxhbbbbbbbb
Publicidad

LA RED backpropagation que nos enseña como funciona una red

  • 1. Asignatura: Redes Neuronales Artificiales Alumno : Maquin Sotomayor Alessandro Raul Docente: Castañeda Samanamu Miguel Angel Huacho – Perú 2024 LA RED BACKPROPAGATION
  • 2. El funcionamiento de la red backpropagation consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados. Primero se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red. Se va propagando a través de todas las capas superiores hasta generar una salida. Se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida. LA RED BACKPROPAGATION
  • 3. LA RED BACKPROPAGATION A continuación, estos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. Basándose en el valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que en la siguiente vez que se presente el mismo patrón, la salida esté más cercana a la deseada.
  • 4. ALGORITMO Inicialice los pesos de la red con valores pequeños aleatorios. Presentar un patrón de entrada y especificar la salida deseada. Calcule los valores de ajuste de las unidades de salida en base al error observado. Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos:  Propague los valores de ajuste de regreso al nivel anterior.  Actualice los pesos que hay entre los dos niveles. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.
  • 5. GRADIENTE DESCENDENTE Después que se calcula el error, cada peso se ajusta en proporción al gradiente del error, retro propagado de la salidas a las entradas. El cambio en los pesos reduce el error total.
  • 6. MÍNIMO LOCAL Entre mas unidades ocultas se tengan en red, menor es la probabilidad de encontrar un mínimo local
  • 7. RAZÓN DE APRENDIZAJE Entre mas grande es la razón de aprendizaje (a) mayor es el cambio en los valores de los pesos cada época, y mas rápido aprende la red. Si la a es demasiado grande, entonces el cambio en los pesos no se aproxima al gradiente descendente, dando como resultado una oscilación en los pesos. Se desea usar una a lo mas grande posible sin llegar a la oscilación.
  • 8. APLICACIÓN DE BLACK PROPAGATION Hoy en día, la delincuencia y la inseguridad se han incrementado en las grandes ciudades, es por eso que son necesarias medidas de seguridad eficientes. Por tal motivo se ha buscado en la tecnología alternativas de seguridad, donde se utilizan los rasgos físicos propios de cada persona, por ejemplo, huellas dactilares, la retina y la voz .
  • 9. De un conjunto de 120 patrones de voz con una longitud de 34 muestras cada patrón, previamente procesados, se llevo a cabo el entrenamiento de la red neuronal tipo “Back Propagation” con una capa oculta y 6 neuronas
  • 10. Se realizo un programa en Matlab, para realizar el calculo de error generado por cada uno de los patrones de prueba. Se enviara una señal de salida cada vez que el patrón entrenado arroje un promedio de error menor a 0.1 La variable que almacena el promedio es la variable suma como lo muestra la siguiente figura
  • 12. Una vez que la variable suma almacene un valor menor a 0.1, o mayor , se enviara por medio del puerto serie del ordenador un carácter al microcontrolador ATMEGA48, como se muestra en la siguiente figura
  • 13. Dentro del microcontrolador se encuentra un programa que simulara la apertura de una puerta. Si el valor fue menor a 0.1 se prendera el led color verde, como lo muestra la figura, en caso contrario , es decir el valor del error promedio es mayor a 0.1 el microcontrolador no realizará ninguna acción.