SlideShare una empresa de Scribd logo
Counterpropagation
Robert Hecht-Nielsen Co-fundador y Cientifico en jefe, de HNC Software, y profesor adjunto en el departamento de Ingenieria electrica y en computacion en la universidad de San Diego, California.
Antecedentes
Al utilizar una combinación del aprendizaje no supervisado con el supervisado, se puede reducir el tiempo total de aprendizaje, en redes con mas de una capa oculta. Counterpropagation fue desarrollada por Robert Hecht Nielsen en 1987. Fue estudiada por Huang y Lippman en 1988.
La Counterpropagation se clasifica en: Counterpropagation en un solo sentido (Forward only) Pi  ti Counterpropagation Completa (Full) Pi  ti
Counterpropagation en un solo sentido   (Forward only)
Características
La red Counterpropagation es una red competitiva, diseñada para funcionar como una tabla de busqueda auto-programada con la habilidad adicional para interpolar  entre entradas.
Utiliza el modelo de Kohonen para acelerar el proceso de aprendizaje. Se le conoce también como: “Clasificador Jerárquico de Mapas de Características”. La red Global se le puede imaginar como una Tabla de Búsqueda.
Combina el aprendizaje no supervisado (Competitivo) y supervisado (Regla delta). Tiene un aprendizaje OFF LINE. Se utilizan valores numéricos reales. Su entrenamiento ocurre mas rápido que la Backpropagation
Arquitectura
Esta constituida por 3 capas: entrada, oculta y salida; las cuales están completamente conectadas Es una red compuesta de dos subredes: Red de Kohonen (Winner-Take-all):Esta formada por la capa de entrada y la intermedia u oculta. La capa oculta tiene un aprendizaje competivo. OUTSTAR: Capas oculta y de salida, la capa de salida no tiene conexiones laterales.
Red de Kohonen “ Winner-Take-all”
Arquitectura de CPP
 
Algoritmo de aprendizaje
Entrenamiento Consiste de 2 fases, con una razón de aprendizaje separada variante en el tiempo. Primera Fase:   Los nodos de la capa oculta se utilizan para dividir el conjunto de entrenamiento en “Clusters” con patrones similares.
Usa un aprendizaje competitivo simple, con una razón de aprendizaje que se reduce conforme se estabiliza la red. Los pesos cambian muy poco en las ultimas fases del entrenamiento. Al final cada nodo oculto representa un centroide de un cluster o vector correspondiente a una región de Voronoi en el espacio de entrada.
Segunda Fase:  La tarea principal es ajustar los pesos de las conexiones de los nodos ocultos a los de salida; usando la regla de gradiente descendente y disminuyendo su razón de aprendizaje. Se lleva acabo usando una variante de la regla delta : La regla de  aprendizaje OUTSTAR.
Con la cual todos los pesos salientes de un nodo ganador en la capa competitiva son modificados simultáneamente. El cambio en cada peso es proporcional a la diferencia entre la salida deseada y el peso en el nodo. Donde j* es el nodo oculto ganador
Una vez entrenada la Counterpropagation Se proporciona un vector de entrada. La red encuentra el nodo oculto cuyo vector de pesos se “iguale” mejor con el de entrada. El patrón de salida generado por la red es idéntico al vector de pesos conducido por el nodo culto ganador.
Este método es como una tabla de búsqueda. La diferencia con una tabla de búsqueda es que los vectores de pesos son obtenidos por el algoritmo de entrenamiento en vez de manera “ad hoc”.
Aplicaciones
Procesamiento de imágenes Clasificación de patrones Reconocimiento de Voz Codificación y compresión de datos Aproximación de funciones matemáticas Análisis estadístico. Visión   Determinación del Angulo de Rotación
Conclusiones
El modelo Counterpropagation permite acelerar el proceso de aprendizaje del orden de 10  a 100 veces respecto al algoritmo de Backpropagation  en redes multicapa. No es un algoritmo optimo.
Solo se deberá utilizar cuando se trabaje con pocos patrones de entrenamiento; menor o igual al numero de neuronas ocultas, o con un numero mayor si los mas parecidos generan salidas también parecidas.
Counterpropagation completa (Full Counterpropagation)
Características Tanto counterpropagation completa y en un solo sentido funcionan similarmente en  encontrar un nodo ganador “cluster” de la capa oculta.  La diferencia principal entre las dos variantes, es que, Full counterpropagation  trata a Pi y ti indistintamente.
Full counterpropagation se diseña para trabajar en ambas direcciones. 1.- Para predecir Ti dado Pi. 2.- Para predecir Pi dado Ti.
Funcionamiento La red consiste de un conjunto de entrenamiento con muchos patrones; la red se entrena en 2 fases: Se inicializan los cuatro conjuntos de pesos con valores aleatorios comprendidos entre cero y uno.
Primera fase: ajusta los pesos W1 y W2, asociados con las conexiones conducidas hacia los nodos ocultos. Esta parte es similar a la primera fase del algoritmo Forward-only , excepto que Pi y Ti son usados ambos en este proceso.
La segunda fase tiene el propósito principal de ajustar los pesos V1 y V2, asociado con las conexiones conducidas afuera de los nodos ocultos. Cuando se completa el entrenamiento, la red puede ser usada en cualquier dirección para predecir Pi a partir de Ti, o Ti a partir de Pi.
Arquitectura Full CPP Patrón de Salida Predicho Patrón de Entrada Predicho Capa oculta con Conex inhibit.
Red counterpropagation
Full counterpropagation
Feeforward  counterpropagation
Bibliografía
Bibliografía Hecht-Nielsen Robert. Counterpropagation Networks. Applied Optics, 26(23): 4979-4984, diciembre de 1987. Hecht-Nielsen Robert. Counterpropagation Networks Proceedings of the IEEE International Conference on Neural Networks, II, IEEE Press, New York, NY, pp. 19-32, 1987
Bibliografía (2) Hecht-Nielsen Robert. Applications  of Counterpropagation Networks. Neural Networks, 1(2): 131-139,1988. Hecht-Nielsen Robert. Neurocomputing. Addison Wesley, Reading MA. 1990
Simulación  en Matlab / NNT
El Modelo para Counterpropagation no esta disponible actualmente.
Dudas ???
Hasta la próxima !!!
Ejercicios
Ejemplo
 

Más contenido relacionado

PDF
“Introduction to Simultaneous Localization and Mapping (SLAM),” a Presentatio...
PDF
Temporal difference learning
PPTX
Optimization in Deep Learning
PDF
Locality Sensitive Hashing By Spark
PDF
Ai 03 solving_problems_by_searching
PPTX
State Space Search and Control Strategies in Artificial Intelligence.pptx
PDF
Reinforcement learning, Q-Learning
PPT
Data Mining Concepts and Techniques, Chapter 10. Cluster Analysis: Basic Conc...
“Introduction to Simultaneous Localization and Mapping (SLAM),” a Presentatio...
Temporal difference learning
Optimization in Deep Learning
Locality Sensitive Hashing By Spark
Ai 03 solving_problems_by_searching
State Space Search and Control Strategies in Artificial Intelligence.pptx
Reinforcement learning, Q-Learning
Data Mining Concepts and Techniques, Chapter 10. Cluster Analysis: Basic Conc...

La actualidad más candente (20)

PPTX
Reinforcement Learning : A Beginners Tutorial
PPTX
Bag the model with bagging
PDF
Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM)
PDF
An introduction to deep reinforcement learning
PDF
Deep Reinforcement Learning: Q-Learning
PPTX
Genetic algorithms in Data Mining
PDF
=SLAM ppt.pdf
PPTX
An introduction to reinforcement learning
PDF
How to become a data scientist in 6 months
DOC
K-MEDOIDS CLUSTERING USING PARTITIONING AROUND MEDOIDS FOR PERFORMING FACE R...
PPTX
Introduction to ROS (Robot Operating System)
PDF
PDF
Identification Of Alzheimer's Disease Using A Deep Learning Method Based O...
PDF
Linear time sorting algorithms
PPTX
Line Following Robot
PPT
Machine Learning and Inductive Inference
PDF
Understanding Bagging and Boosting
PPTX
Computational Intelligence: concepts and applications using Athena
PPTX
Radial basis function network ppt bySheetal,Samreen and Dhanashri
PDF
AI local search
Reinforcement Learning : A Beginners Tutorial
Bag the model with bagging
Analyse de données fonctionnelles par Machines à Vecteurs de Support (SVM)
An introduction to deep reinforcement learning
Deep Reinforcement Learning: Q-Learning
Genetic algorithms in Data Mining
=SLAM ppt.pdf
An introduction to reinforcement learning
How to become a data scientist in 6 months
K-MEDOIDS CLUSTERING USING PARTITIONING AROUND MEDOIDS FOR PERFORMING FACE R...
Introduction to ROS (Robot Operating System)
Identification Of Alzheimer's Disease Using A Deep Learning Method Based O...
Linear time sorting algorithms
Line Following Robot
Machine Learning and Inductive Inference
Understanding Bagging and Boosting
Computational Intelligence: concepts and applications using Athena
Radial basis function network ppt bySheetal,Samreen and Dhanashri
AI local search
Publicidad

Similar a Counterpropagation (20)

PPT
Redes neuronales artificiales
PPTX
redes competitivas
PPT
Paradigma Gral. De Aprendizaje En El Conexionismo.
PPT
Paradigma Gral. De Aprendizaje En El Conexionismo.
PDF
Ap acompet
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PDF
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
PPT
Red NEURONAL de Hamming
PPT
PPTX
Red neuronal en el siglo XXI para alumnos.pptx
PPTX
presentación de una REDneuronal de tipo radial.pptx
PDF
Función de transferencia compet
PPT
Redes Neuronales
PPT
Algoritmo de Retropropagación
PPT
backpropagation teoria como programar.ppt
Redes neuronales artificiales
redes competitivas
Paradigma Gral. De Aprendizaje En El Conexionismo.
Paradigma Gral. De Aprendizaje En El Conexionismo.
Ap acompet
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
Red NEURONAL de Hamming
Red neuronal en el siglo XXI para alumnos.pptx
presentación de una REDneuronal de tipo radial.pptx
Función de transferencia compet
Redes Neuronales
Algoritmo de Retropropagación
backpropagation teoria como programar.ppt
Publicidad

Más de ESCOM (20)

PDF
redes neuronales tipo Som
DOC
redes neuronales Som
PDF
redes neuronales Som Slides
PDF
red neuronal Som Net
PDF
Self Organinising neural networks
DOC
redes neuronales Kohonen
DOC
Teoria Resonancia Adaptativa
DOC
ejemplo red neuronal Art1
DOC
redes neuronales tipo Art3
DOC
Art2
DOC
Redes neuronales tipo Art
DOC
Neocognitron
PPT
Neocognitron
PPT
Neocognitron
PPT
Fukushima Cognitron
PPT
Counterpropagation NETWORK
PPT
Counterpropagation NETWORK
PPT
Teoría de Resonancia Adaptativa Art2 ARTMAP
PPT
Teoría de Resonancia Adaptativa ART1
PPT
Teoría de Resonancia Adaptativa ART
redes neuronales tipo Som
redes neuronales Som
redes neuronales Som Slides
red neuronal Som Net
Self Organinising neural networks
redes neuronales Kohonen
Teoria Resonancia Adaptativa
ejemplo red neuronal Art1
redes neuronales tipo Art3
Art2
Redes neuronales tipo Art
Neocognitron
Neocognitron
Neocognitron
Fukushima Cognitron
Counterpropagation NETWORK
Counterpropagation NETWORK
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART

Último (20)

PDF
Metodologías Activas con herramientas IAG
PDF
Tomo 1 de biologia gratis ultra plusenmas
PDF
CONFERENCIA-Deep Research en el aula universitaria-UPeU-EduTech360.pdf
DOCX
V UNIDAD - PRIMER GRADO. del mes de agosto
DOCX
Tarea De El Colegio Coding For Kids 1 y 2
PDF
Educación Artística y Desarrollo Humano - Howard Gardner Ccesa007.pdf
PDF
Crear o Morir - Andres Oppenheimer Ccesa007.pdf
PDF
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
PDF
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
PDF
DI, TEA, TDAH.pdf guía se secuencias didacticas
PDF
Escuelas Desarmando una mirada subjetiva a la educación
PPT
Cosacos y hombres del Este en el Heer.ppt
PDF
benveniste-problemas-de-linguistica-general-i-cap-6 (1)_compressed.pdf
PDF
Lección 6 Escuela Sab. A través del mar rojo.pdf
PDF
biología es un libro sobre casi todo el tema de biología
PDF
TRAUMA_Y_RECUPERACION consecuencias de la violencia JUDITH HERMAN
PDF
GUIA DE: CANVA + INTELIGENCIA ARTIFICIAL
PDF
Híper Mega Repaso Histológico Bloque 3.pdf
DOCX
2 GRADO UNIDAD 5 - 2025.docx para primaria
PDF
Fundamentos_Educacion_a_Distancia_ABC.pdf
Metodologías Activas con herramientas IAG
Tomo 1 de biologia gratis ultra plusenmas
CONFERENCIA-Deep Research en el aula universitaria-UPeU-EduTech360.pdf
V UNIDAD - PRIMER GRADO. del mes de agosto
Tarea De El Colegio Coding For Kids 1 y 2
Educación Artística y Desarrollo Humano - Howard Gardner Ccesa007.pdf
Crear o Morir - Andres Oppenheimer Ccesa007.pdf
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
DI, TEA, TDAH.pdf guía se secuencias didacticas
Escuelas Desarmando una mirada subjetiva a la educación
Cosacos y hombres del Este en el Heer.ppt
benveniste-problemas-de-linguistica-general-i-cap-6 (1)_compressed.pdf
Lección 6 Escuela Sab. A través del mar rojo.pdf
biología es un libro sobre casi todo el tema de biología
TRAUMA_Y_RECUPERACION consecuencias de la violencia JUDITH HERMAN
GUIA DE: CANVA + INTELIGENCIA ARTIFICIAL
Híper Mega Repaso Histológico Bloque 3.pdf
2 GRADO UNIDAD 5 - 2025.docx para primaria
Fundamentos_Educacion_a_Distancia_ABC.pdf

Counterpropagation

  • 2. Robert Hecht-Nielsen Co-fundador y Cientifico en jefe, de HNC Software, y profesor adjunto en el departamento de Ingenieria electrica y en computacion en la universidad de San Diego, California.
  • 4. Al utilizar una combinación del aprendizaje no supervisado con el supervisado, se puede reducir el tiempo total de aprendizaje, en redes con mas de una capa oculta. Counterpropagation fue desarrollada por Robert Hecht Nielsen en 1987. Fue estudiada por Huang y Lippman en 1988.
  • 5. La Counterpropagation se clasifica en: Counterpropagation en un solo sentido (Forward only) Pi ti Counterpropagation Completa (Full) Pi ti
  • 6. Counterpropagation en un solo sentido (Forward only)
  • 8. La red Counterpropagation es una red competitiva, diseñada para funcionar como una tabla de busqueda auto-programada con la habilidad adicional para interpolar entre entradas.
  • 9. Utiliza el modelo de Kohonen para acelerar el proceso de aprendizaje. Se le conoce también como: “Clasificador Jerárquico de Mapas de Características”. La red Global se le puede imaginar como una Tabla de Búsqueda.
  • 10. Combina el aprendizaje no supervisado (Competitivo) y supervisado (Regla delta). Tiene un aprendizaje OFF LINE. Se utilizan valores numéricos reales. Su entrenamiento ocurre mas rápido que la Backpropagation
  • 12. Esta constituida por 3 capas: entrada, oculta y salida; las cuales están completamente conectadas Es una red compuesta de dos subredes: Red de Kohonen (Winner-Take-all):Esta formada por la capa de entrada y la intermedia u oculta. La capa oculta tiene un aprendizaje competivo. OUTSTAR: Capas oculta y de salida, la capa de salida no tiene conexiones laterales.
  • 13. Red de Kohonen “ Winner-Take-all”
  • 15.  
  • 17. Entrenamiento Consiste de 2 fases, con una razón de aprendizaje separada variante en el tiempo. Primera Fase: Los nodos de la capa oculta se utilizan para dividir el conjunto de entrenamiento en “Clusters” con patrones similares.
  • 18. Usa un aprendizaje competitivo simple, con una razón de aprendizaje que se reduce conforme se estabiliza la red. Los pesos cambian muy poco en las ultimas fases del entrenamiento. Al final cada nodo oculto representa un centroide de un cluster o vector correspondiente a una región de Voronoi en el espacio de entrada.
  • 19. Segunda Fase: La tarea principal es ajustar los pesos de las conexiones de los nodos ocultos a los de salida; usando la regla de gradiente descendente y disminuyendo su razón de aprendizaje. Se lleva acabo usando una variante de la regla delta : La regla de aprendizaje OUTSTAR.
  • 20. Con la cual todos los pesos salientes de un nodo ganador en la capa competitiva son modificados simultáneamente. El cambio en cada peso es proporcional a la diferencia entre la salida deseada y el peso en el nodo. Donde j* es el nodo oculto ganador
  • 21. Una vez entrenada la Counterpropagation Se proporciona un vector de entrada. La red encuentra el nodo oculto cuyo vector de pesos se “iguale” mejor con el de entrada. El patrón de salida generado por la red es idéntico al vector de pesos conducido por el nodo culto ganador.
  • 22. Este método es como una tabla de búsqueda. La diferencia con una tabla de búsqueda es que los vectores de pesos son obtenidos por el algoritmo de entrenamiento en vez de manera “ad hoc”.
  • 24. Procesamiento de imágenes Clasificación de patrones Reconocimiento de Voz Codificación y compresión de datos Aproximación de funciones matemáticas Análisis estadístico. Visión Determinación del Angulo de Rotación
  • 26. El modelo Counterpropagation permite acelerar el proceso de aprendizaje del orden de 10 a 100 veces respecto al algoritmo de Backpropagation en redes multicapa. No es un algoritmo optimo.
  • 27. Solo se deberá utilizar cuando se trabaje con pocos patrones de entrenamiento; menor o igual al numero de neuronas ocultas, o con un numero mayor si los mas parecidos generan salidas también parecidas.
  • 28. Counterpropagation completa (Full Counterpropagation)
  • 29. Características Tanto counterpropagation completa y en un solo sentido funcionan similarmente en encontrar un nodo ganador “cluster” de la capa oculta. La diferencia principal entre las dos variantes, es que, Full counterpropagation trata a Pi y ti indistintamente.
  • 30. Full counterpropagation se diseña para trabajar en ambas direcciones. 1.- Para predecir Ti dado Pi. 2.- Para predecir Pi dado Ti.
  • 31. Funcionamiento La red consiste de un conjunto de entrenamiento con muchos patrones; la red se entrena en 2 fases: Se inicializan los cuatro conjuntos de pesos con valores aleatorios comprendidos entre cero y uno.
  • 32. Primera fase: ajusta los pesos W1 y W2, asociados con las conexiones conducidas hacia los nodos ocultos. Esta parte es similar a la primera fase del algoritmo Forward-only , excepto que Pi y Ti son usados ambos en este proceso.
  • 33. La segunda fase tiene el propósito principal de ajustar los pesos V1 y V2, asociado con las conexiones conducidas afuera de los nodos ocultos. Cuando se completa el entrenamiento, la red puede ser usada en cualquier dirección para predecir Pi a partir de Ti, o Ti a partir de Pi.
  • 34. Arquitectura Full CPP Patrón de Salida Predicho Patrón de Entrada Predicho Capa oculta con Conex inhibit.
  • 39. Bibliografía Hecht-Nielsen Robert. Counterpropagation Networks. Applied Optics, 26(23): 4979-4984, diciembre de 1987. Hecht-Nielsen Robert. Counterpropagation Networks Proceedings of the IEEE International Conference on Neural Networks, II, IEEE Press, New York, NY, pp. 19-32, 1987
  • 40. Bibliografía (2) Hecht-Nielsen Robert. Applications of Counterpropagation Networks. Neural Networks, 1(2): 131-139,1988. Hecht-Nielsen Robert. Neurocomputing. Addison Wesley, Reading MA. 1990
  • 41. Simulación en Matlab / NNT
  • 42. El Modelo para Counterpropagation no esta disponible actualmente.
  • 47.