SlideShare una empresa de Scribd logo
4
Lo más leído
6
Lo más leído
7
Lo más leído
MATLAB MAYO 5 DEL 2005
DIRECTOR: JAIRO PERTUZ CAMPO
EXPOSITORES: ANDRES FELIPE RESTREPO LONDOÑO
BIBIANA JANETH GALLEGO MORA
FACULTAD DE INGENIERIA DE SISTEMAS
IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL
Y EL ALGORITMO BACKPROPAGATION
UNIVERSIDAD DE MEDELLIN
MEDELLIN, MAYO DE 2005
OBJETIVO
Ilustrar el proceso de entrenamiento de
una red neuronal con el algoritmo
Backpropagation, mediante la
implementación de la función lógica XOR.
Demostrar que la velocidad de
entrenamiento para una representación
bipolar es mucho más rápida que una
representación binaria
Las interacciones son siempre hacia adelante
Se suele hablar de:
Redes de una sola capa (cuando no hay capas ocultas),
Ejemplo: El perceptrón simple
REDES FEEDFORWARD
Ejemplo: El perceptrón simple
Redes de múltiples capas (cuando hay capas ocultas): Ejemplos: el
perceptrón multicapa
REDES FEEDFORWARD
Procedimiento para encontrar el vector gradiente de una
función error asociada a la salida de la red con respecto
a los parámetros de la misma.
El nombre backpropagation surge pues del cálculo que
se hace en el sentido inverso de la red, propagándose
BACKPROPAGATION
se hace en el sentido inverso de la red, propagándose
desde los nodos de salida hacia los nodos de entrada
Esto permite poder aplicar a posteriori alguno de los
muchos métodos de optimización con gradiente para
obtener el comportamiento deseado de la red
El Backpropagation Standard es el algoritmo de descenso
del gradiente donde los pesos de la red son movidos a lo
largo de la dirección negativa del gradiente (Es donde se
minimiza para obtener T).
Existen varias técnicas como lo son:
• El algoritmo del gradiente conjugado.
• El algoritmo de Newton.
En ultima instancia lo que busca este algoritmo del
Backporgation es el entrenamiento de Redes Neuronales
Feedforward, con las cuales podemos resolver problemas
específicos como: Aproximación de Funciones,
clasificación, asociación de vectores, etc.
Las funciones de transferencia utilizadas para este algoritmo son:
• Log – sigmoid transfer function.
• Tan - sigmoid transfer function.
ELEMENTOS ESENCIALES DE LA RED
ENTRADAS: P
CONEXIONES SINAPTICAS PONDERADAS: Matriz peso (W)
BIAS: Sesgo (b)
SUMADOR: +
• Tan - sigmoid transfer function.
• Linear transfer function.
SALIDA DE LA RED: a
SALIDA DESEADA: T
Cuando hablamos de gradiente de una función, como requisito ésta debe ser
derivable, por ende estas funciones antes mencionadas tienen derivada.
El proceso de entrenamiento:
Agrupa los datos, entrena la red y posteriormente permite simular la respuesta
de la red para nuevas entradas.
P1 P2 XOR
0 0 0
P1 P2 XOR
-1 -1 -1
Representación Binaria Representación Bipolar
0 1 1
1 0 1
1 1 0
-1 1 1
1 -1 1
1 1 -1
EJERCICIO 1 DE APLICACIÓN CON BACKPROPAGATION
UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BINARIA Y SALIDA
BINARIA: 2 - 4 - 1
“Entrada y T deseado
>> p= [0 0 1 1; 0 1 0 1];
>> T= [0 1 1 0];
“Creacion de la red
>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');
“Entrenamiento
>> net.trainParam.show = 25;
>> net.trainParam.lr =0.02;
>> net.trainParam.epochs = 400;
>> net.trainParam.goal = 1e-8;
>> [net,tr] = train(net,p,T);
“Simulación
>> a = sim (net,p);
>> e = T -round(a)
EJERCICIO 2 DE APLICACIÓN CON BACKPROPAGATION
UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BIPOLAR Y
SALIDA BIPOLAR: 2 - 4 - 1:
“Entradas y T deseado
>> p= [-1 -1 1 1; -1 1 -1 1];
>> T= [-1 1 1 -1];
“ Creación de la red
>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');
“Entrenamiento
>> net.trainParam.show = 25;
>> net.trainParam.lr =0.02;
>> net.trainParam.epochs = 400;
>> net.trainParam.goal = 1e-8;
>> [net,tr] = train(net,p,T);
“Simulación
>> a = sim (net,p);
>> e = T -round(a)
COMENTARIOS FINALES
• La arquitectura neuronal (Red Feedforward) y el algoritmo de entrenamiento
empleado (Backpropagation), resultaron ser muy eficientes en la ejecución del
problema planteado.
• Pudimos comprobar que en esta aplicación, la velocidad de entrenamiento
correspondiente a la representación bipolar, resulta ser mucho más rápida que lacorrespondiente a la representación bipolar, resulta ser mucho más rápida que la
correspondiente a la representación binaria.

Más contenido relacionado

PPTX
Capas de la ingenieria de software
PPTX
VLSM y CIDR (características, implementación torres gamarra
PDF
Ingeniería de requisitos e ingeniería de requerimientos
PDF
Direccionamiento Ip Y Subredes Ejercicios Resueltos
PPTX
Diseño de sistemas
PDF
Detección y Corrección de errores
DOCX
Unidad 4 graficación
PDF
Direccionamiento ip-y-subredes-ejercicios-resueltos-1194346207489436-2
Capas de la ingenieria de software
VLSM y CIDR (características, implementación torres gamarra
Ingeniería de requisitos e ingeniería de requerimientos
Direccionamiento Ip Y Subredes Ejercicios Resueltos
Diseño de sistemas
Detección y Corrección de errores
Unidad 4 graficación
Direccionamiento ip-y-subredes-ejercicios-resueltos-1194346207489436-2

La actualidad más candente (20)

PPT
Unidad 1.2 A IntroduccióN A Los Proceso De Software Modelos Tradicionales
PPTX
Tipos de búsqueda en Inteligencia Artificial
PPTX
Campos de acción Ingenieria de Software
PPT
REDES NEURONALES ADALINE
PPTX
Tipos de redes satelitales
PPTX
Conceptos basicos de redes
PPTX
Modelo evolutivo
PPSX
Presentacion herramientas CASE
PPTX
Ventajas y desventajas de moprosoft
PDF
Principios diseño del software
PPT
Sesion 5 1 diagrama de secuencia
DOC
Taller de redes i
PPTX
Caracteristicas De Una Red De Area Local (
PPTX
Metodologías emergentes
PPTX
Métodos para la detección y corrección de errores
PDF
Prueba de corridas arriba y abajo de la media
PPTX
NORMA ISO 90003
PDF
UNIDAD IV - Mapa conceptual metodos de busqueda
PPTX
3. conceptos de calidad del software
PDF
LINEA DE TIEMPO DE INTELIGENCIA ARTIFICIAL.pdf
Unidad 1.2 A IntroduccióN A Los Proceso De Software Modelos Tradicionales
Tipos de búsqueda en Inteligencia Artificial
Campos de acción Ingenieria de Software
REDES NEURONALES ADALINE
Tipos de redes satelitales
Conceptos basicos de redes
Modelo evolutivo
Presentacion herramientas CASE
Ventajas y desventajas de moprosoft
Principios diseño del software
Sesion 5 1 diagrama de secuencia
Taller de redes i
Caracteristicas De Una Red De Area Local (
Metodologías emergentes
Métodos para la detección y corrección de errores
Prueba de corridas arriba y abajo de la media
NORMA ISO 90003
UNIDAD IV - Mapa conceptual metodos de busqueda
3. conceptos de calidad del software
LINEA DE TIEMPO DE INTELIGENCIA ARTIFICIAL.pdf
Publicidad

Destacado (20)

PPTX
RED NEURONAL ARTIFICIAL . I.A
PPT
Perceptron parte 2
PPTX
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificial
PDF
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
PDF
Redes semanticas
PPTX
Fernando Echeverria(Que son las redes semánticas)
PPTX
Redes semanticas evaluaciòn
PPT
17 evaluacion heuristica basica
 
PPTX
Nancy romero IA
PDF
Búsquedas heurísticas
DOC
Inteligencia artificial isc
PPT
Los Mapas Conceptuales
PPT
6inteligenciaartificial
PPT
REDES NEURONALES
PPT
RPC - LLAMADAS REMOTAS
PPT
Redes Neuronales
PPT
Redes neuronales artificiales
PPTX
Equipo Redes Neuronales Artificiales
PPTX
PPT
Perceptron Simple y Regla Aprendizaje
RED NEURONAL ARTIFICIAL . I.A
Perceptron parte 2
Tipos de búsquedas inteligentes redes semánticas en inteligencia artificial
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes semanticas
Fernando Echeverria(Que son las redes semánticas)
Redes semanticas evaluaciòn
17 evaluacion heuristica basica
 
Nancy romero IA
Búsquedas heurísticas
Inteligencia artificial isc
Los Mapas Conceptuales
6inteligenciaartificial
REDES NEURONALES
RPC - LLAMADAS REMOTAS
Redes Neuronales
Redes neuronales artificiales
Equipo Redes Neuronales Artificiales
Perceptron Simple y Regla Aprendizaje
Publicidad

Similar a Implementacion de la funcion logica xor, mediante un modelo neuronal y el algoritmo backpropagation (20)

PDF
Clasificador Caracteres Logsig Tansig
PDF
Utp ia_2014-2 lab2
PDF
Utp ia_2014-2 lab2
PDF
Utp sirn_2014-2 lab2
PDF
Utp sirn_2014-2 lab2
PPT
Algoritmo de Retropropagación
PDF
Utp sirn_2014-2 lab2
PDF
Utp 2015-1_ia lab2
PDF
Utp 2015-2_sirn lab2
PDF
Utp 2015-1_sirn lab2
PDF
Boletin3
PDF
Utp 2015-2_sirn lab2
PDF
Utp 2015-2_ia lab2
PDF
Utp 2015-2_ia_s6_adaline y backpropagation
DOCX
Actividad no13 y_14_de_2do_parcial
PDF
Utp 2015-2_sirn_s6_adaline y backpropagation
PPT
Redes Neuronales
PPT
Redes Neuronales
PDF
Utp sirn_s6_adaline y backpropagation
PDF
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Clasificador Caracteres Logsig Tansig
Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
Algoritmo de Retropropagación
Utp sirn_2014-2 lab2
Utp 2015-1_ia lab2
Utp 2015-2_sirn lab2
Utp 2015-1_sirn lab2
Boletin3
Utp 2015-2_sirn lab2
Utp 2015-2_ia lab2
Utp 2015-2_ia_s6_adaline y backpropagation
Actividad no13 y_14_de_2do_parcial
Utp 2015-2_sirn_s6_adaline y backpropagation
Redes Neuronales
Redes Neuronales
Utp sirn_s6_adaline y backpropagation
Actividad no13 y_14_de_1er_parcial_lema_evelyn

Implementacion de la funcion logica xor, mediante un modelo neuronal y el algoritmo backpropagation

  • 1. MATLAB MAYO 5 DEL 2005 DIRECTOR: JAIRO PERTUZ CAMPO EXPOSITORES: ANDRES FELIPE RESTREPO LONDOÑO BIBIANA JANETH GALLEGO MORA FACULTAD DE INGENIERIA DE SISTEMAS IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION UNIVERSIDAD DE MEDELLIN MEDELLIN, MAYO DE 2005
  • 2. OBJETIVO Ilustrar el proceso de entrenamiento de una red neuronal con el algoritmo Backpropagation, mediante la implementación de la función lógica XOR. Demostrar que la velocidad de entrenamiento para una representación bipolar es mucho más rápida que una representación binaria
  • 3. Las interacciones son siempre hacia adelante Se suele hablar de: Redes de una sola capa (cuando no hay capas ocultas), Ejemplo: El perceptrón simple REDES FEEDFORWARD Ejemplo: El perceptrón simple
  • 4. Redes de múltiples capas (cuando hay capas ocultas): Ejemplos: el perceptrón multicapa REDES FEEDFORWARD
  • 5. Procedimiento para encontrar el vector gradiente de una función error asociada a la salida de la red con respecto a los parámetros de la misma. El nombre backpropagation surge pues del cálculo que se hace en el sentido inverso de la red, propagándose BACKPROPAGATION se hace en el sentido inverso de la red, propagándose desde los nodos de salida hacia los nodos de entrada Esto permite poder aplicar a posteriori alguno de los muchos métodos de optimización con gradiente para obtener el comportamiento deseado de la red
  • 6. El Backpropagation Standard es el algoritmo de descenso del gradiente donde los pesos de la red son movidos a lo largo de la dirección negativa del gradiente (Es donde se minimiza para obtener T). Existen varias técnicas como lo son: • El algoritmo del gradiente conjugado. • El algoritmo de Newton. En ultima instancia lo que busca este algoritmo del Backporgation es el entrenamiento de Redes Neuronales Feedforward, con las cuales podemos resolver problemas específicos como: Aproximación de Funciones, clasificación, asociación de vectores, etc.
  • 7. Las funciones de transferencia utilizadas para este algoritmo son: • Log – sigmoid transfer function. • Tan - sigmoid transfer function. ELEMENTOS ESENCIALES DE LA RED ENTRADAS: P CONEXIONES SINAPTICAS PONDERADAS: Matriz peso (W) BIAS: Sesgo (b) SUMADOR: + • Tan - sigmoid transfer function. • Linear transfer function. SALIDA DE LA RED: a SALIDA DESEADA: T Cuando hablamos de gradiente de una función, como requisito ésta debe ser derivable, por ende estas funciones antes mencionadas tienen derivada. El proceso de entrenamiento: Agrupa los datos, entrena la red y posteriormente permite simular la respuesta de la red para nuevas entradas.
  • 8. P1 P2 XOR 0 0 0 P1 P2 XOR -1 -1 -1 Representación Binaria Representación Bipolar 0 1 1 1 0 1 1 1 0 -1 1 1 1 -1 1 1 1 -1
  • 9. EJERCICIO 1 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BINARIA Y SALIDA BINARIA: 2 - 4 - 1 “Entrada y T deseado >> p= [0 0 1 1; 0 1 0 1]; >> T= [0 1 1 0]; “Creacion de la red >> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)
  • 10. EJERCICIO 2 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BIPOLAR Y SALIDA BIPOLAR: 2 - 4 - 1: “Entradas y T deseado >> p= [-1 -1 1 1; -1 1 -1 1]; >> T= [-1 1 1 -1]; “ Creación de la red >> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm');>> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)
  • 11. COMENTARIOS FINALES • La arquitectura neuronal (Red Feedforward) y el algoritmo de entrenamiento empleado (Backpropagation), resultaron ser muy eficientes en la ejecución del problema planteado. • Pudimos comprobar que en esta aplicación, la velocidad de entrenamiento correspondiente a la representación bipolar, resulta ser mucho más rápida que lacorrespondiente a la representación bipolar, resulta ser mucho más rápida que la correspondiente a la representación binaria.