SlideShare una empresa de Scribd logo
Red Adaline B. Widrow  & M. Hoff (Adaptive  Linear  Element)
REDES ADALINE Y MADALINE Desarrolladas en 1960 por Bernie Widrow y  Marcian Hoff en la Universidad de Stanford. ADALINE: ADAptive LINear Element ADALINE: Una única Neurona de Salida. MADALINE: Varias Neuronas de Salida. MADALINE  (Multiple ADALINE)
Bernard Widrow Professor Adaptive Systems. Widrow concentrates on adaptive signal processing, adaptive control systems, and adaptive neural networks. Adaptive systems have the ability to learn and improve their behavior through contact with their environments. Applications include signal processing, control systems, and pattern recognition. Sc.D. MIT 1956   Department of Electrical Engineering  Durand Bldg., Rm. 139  723-4949  [email_address]
Marcian E. Hoff Marcian E. Hoff was born in 1937 in Rochester N.Y. and graduated with a degree in Electrical Engineering from Rensselaer Polytechnic Institute in 1958. He received his Ph.D. from Stanford University in 1962 and stayed on as a research associate in computer area until 1968. Hoff joined Intel as Manager of Application Research in 1968, became an Intel fellow in 1980 and remained in this position until 1983. After a year at Atari, Marcian E. Hoff became a consultant with time for independent technical projects. Dr. M. E. Hoff is a recipient of the Stuart Ballantine award of the Franklin Institute, the Cledo Brunetti Award and holds an IEEE Centennial Medal. Dr. Hoff is a member of Sigma Xi and is an IEEE Fellow.
Características
Diferencias con  el PERCEPTRON Algoritmo de aprendizaje:  Regla del Mínimo Error Cuadrado Medio (LMS), o regla Delta, o regla de Widrow-Hoff Su función de transferencia es lineal, (pureline ) Procesamiento de información analógica, tanto de entrada como de salida, utilizando una función de Activación Lineal o Sigmoidal. También puede resolver problemas linealmente separables.
Diferencias con   el PERCEPTRON El algoritmo  LMS  minimiza el error cuadrático medio y trata de mover la frontera de decisión  tan lejos como sea posible de los patrones de entrenamiento La red ADALINE es menos sensible al ruido  Las redes ADALINE y MADALINE tiene usos prácticos en el procesamiento de señales digitales.
Arquitectura
Arquitectura de ADALINE X 0 =1 X 1 W 0 X N X 2 X 3 W 1 W 2 W 3 W N S s S alida Lineal S alida binaria y Combinador Adaptativo Lineal Conmutador Bipolar s y -1 1
Arquitectura de ADALINE Formada por un elemento denominado: Combinador Adaptativo Lineal (ALC). La salida lineal obtenida del ALC se aplica a un Conmutador Bipolar. El Umbral de la F. de T. se representa a través de una conexión ficticia de peso Wo (b)
Arquitectura de ADALINE
Aplicaciones
Aplicaciones de ADALINE Procesamiento de Señales. Filtros que eliminen el ruido en señales portadoras de información. Filtros de ecualización adaptativos en Módems de alta  velocidad. Cancelación del ruido materno de grabaciones  ECG  del latido del feto humano.
Aplicaciones (continuación) Eliminación de ecos en circuitos telefónicos. Canceladores adaptativos del eco para el filtrado de señales en comunicaciones telefónicas de larga distancia y comunicaciones vía satélite.
Filtros Adaptativos Tapped Delay Line Adaptive Filter
Ejem. : Cancelación  de Ruido
Cancelación de ruido, Filtro Adaptativo
Algoritmo de Aprendizaje
Aprendizaje en la Red ADALINE Aprendizaje OFF-LINE con Supervisión  LMS LMS trata de minimizar una diferencia entre el valor obtenido y el deseado; como en el PERCEPTRON, sólo que ahora la salida considerada es la salida obtenida al aplicar una función de activación lineal.
Aprendizaje en ADALINE (continuación) El entrenamiento de la red consiste en adaptar los pesos a medida que se vayan presentando los patrones de entrenamiento y salidas deseadas para cada uno de ellos. Para cada combinación E/S se realiza un proceso automático de pequeños ajustes en los valores de los pesos hasta que se obtienen las salidas correctas.
Ecuaciones  Principales En forma de Matriz :    es la velocidad  de aprendizaje determinada por Donde :     max : es el eigenvalor más grande de la matriz Hessiana R
Algoritmo de Aprendizaje  en ADALINE 1.  Se aplica un patrón de entrada  P. 2. Se obtiene la salida del ALC y se calcula la diferencia con respecto a la deseada (error). 3. Se actualizan los pesos. 4. Se repiten pasos 1 a 3 con todos los vectores de entrada. 5. Si el Error es un valor aceptable, detenerse, si no repetir algoritmo.
Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con su correspondiente valor de salida correcto o deseado. La regla minimiza el error cuadrático medio definido como: donde: es la función de error
La derivada de la suma del error cuadrático  con respecto a un peso W(i,j) (de la entrada j a la neurona i) para un solo vector de entrada p y vector objetivo t, es:
La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está incrementando y absorbiendo la constante -2 en  lr . En forma de matriz:   Transformando a la expresión del umbral (considerando que en el umbral es un peso con entradas de 1):
Superficie  de Error
Superficies de error a) ADALINE     b) PERCEPTRÓN
Superficies de Error Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Widrow-Hoff busca el punto de este  espacio donde se encuentra el mínimo global.   Con función de activación lineal  Con función de activación sigmoidal
Función de error . |Para un ALC con solo dos pesos, la superficie de error es un paraboloide. Los pesos que minimizan el error se tienen en el fondo de la superficie paraboloidal
Ejercicios
Ejemplo 1 Banana Manzana
Iteración Uno Banana
Iteración dos Manzana
Iteración Tres
Simulación de ADALINE en Neural Network Toolbox de Matlab
Modelo de una neurona  lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a a b/w b/w p n a = purelin(n)
ADALINE Network  w i w i 1  w i 2  w i R  =
[W,b]=initlin(P,T) crea un conjunto de pesos y umbrales aleatorios iniciales positivos y negativos para una red Adaline. Toma una matriz de de vectores de entrada P, y de salida TS , regresando los valores de W y b correspondientes a las dimensiones de la red.
[W,b]=solvelin(P,T); W=solvelin(P,T); Diseña redes Adaline directamente si se conocen sus vectores de entrada y objetivo,  calculando los valores de los pesos y el bias sin necesidad de entrenamiento.
[W,b,ep,tr]= trainwh(W,b,P,T,tp) tp=[disp_freq max-epoch err-goal lr] Entrena  una red Adaline, hasta alcanzar el minimo error eepecificado en sus parametros iniciales.
A=simulin(P,W,b) Simula la red Adaline con los parametros calculados en el entrenamiento y prueba cada uno de los patrones clasificandolos.
Entrenamiento Paso a Paso A = simulin (P,W,b) E = T - A [dW,db] = learnwh (P,E,lr) W = W + dW b = b + dW
    E = T - A; [ dW, db ] = learnwh( P, E, lr ) lr   es la tasa de aprendizaje. Si es grande, el aprendizaje es rápido, pero si es demasiado grande, el aprendizaje es inestable y puede incrementarse el error.   lr = maxlinlr( P );  % si se utiliza bias   lr = maxlinlr( P, ‘bias’ );  %si no se utiliza bias   W = W + dW;  b = b + db;
Ejemplo  de  Codificación P =  [ 1  1; 1  -1 ]; T=  [ 1  0]; [W,b] = initlin ( P,T ) [W,b] = solvelin ( P,T ) plotpv ( P,T )  plotpc ( W,b )
Dudas ???
Hasta la próxima !!!

Más contenido relacionado

PPT
RED NEURONAL ADALINE
PPT
Notación infija postfija
DOC
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
PDF
Árboles Multicamino, B y B+
PPTX
Tipos de atributos y tipos de relaciones
PDF
Arboles M-Way, 2-3 y 2-3-4
PPT
Arboles Binarios
DOCX
Arboles En Estructura de Datos
RED NEURONAL ADALINE
Notación infija postfija
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
Árboles Multicamino, B y B+
Tipos de atributos y tipos de relaciones
Arboles M-Way, 2-3 y 2-3-4
Arboles Binarios
Arboles En Estructura de Datos

La actualidad más candente (20)

DOCX
base
PPTX
Método de Búsqueda Hash
PPT
Cableado horizontal y vertical
PPTX
Estructura de Datos - Unidad 5 metodos de ordenamiento
PPTX
Medios de transmision de datos
PPTX
Ordenamiento QuickSort
PPTX
Ejercicio de subneteo vlsm y cidr
PPT
Ejercicios
PDF
Taller Practico 2 Base de Datos
PPTX
Arboles - estructura de datos
PPTX
Estructura de Datos - Unidad 6 Metodos de busqueda
PPTX
Listas,pilas y colas Estructura de Datos
PPTX
3. algoritmos de ordenamiento interno
PPTX
Tipos de listas en estructura de datos
DOCX
Perceptrón simple y multicapa
PDF
Busquedas a Heuristicas
PPTX
Presentación poo
DOCX
Informe laboratorio 4 ospf rip
PPTX
Sistemas lineales invariantes en el tiempo
PDF
Algoritmos de busqueda
base
Método de Búsqueda Hash
Cableado horizontal y vertical
Estructura de Datos - Unidad 5 metodos de ordenamiento
Medios de transmision de datos
Ordenamiento QuickSort
Ejercicio de subneteo vlsm y cidr
Ejercicios
Taller Practico 2 Base de Datos
Arboles - estructura de datos
Estructura de Datos - Unidad 6 Metodos de busqueda
Listas,pilas y colas Estructura de Datos
3. algoritmos de ordenamiento interno
Tipos de listas en estructura de datos
Perceptrón simple y multicapa
Busquedas a Heuristicas
Presentación poo
Informe laboratorio 4 ospf rip
Sistemas lineales invariantes en el tiempo
Algoritmos de busqueda
Publicidad

Destacado (20)

PPT
Red NEURONAL MADALINE
PPT
Generalidades De Las Redes Neuronales Artificiales (RNA)
PPTX
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
DOC
Reconocimiento de caracteres atravez de redes neuronales
PPT
RED NEURONAL Backpropagation
PPT
REDES NEURONALES Base Radial
PPT
Árboles de Decisión en Weka
PPT
Neural tool box
PPTX
4. estadística descriptiva
PPT
Matlab Neural Network Toolbox MATLAB
PPT
Regla de aprendizaje del perceptrón simple
PDF
101: Convolutional Neural Networks
PDF
Neural network in matlab
PPT
REDES NEURONALES Algoritmos de Aprendizaje
PPT
Diseño de Redes Neuronales Multicapa y Entrenamiento
PPT
Adaline madaline
DOCX
Algoritmos para matlab
PPTX
Convolutional Neural Network for Alzheimer’s disease diagnosis with Neuroim...
PDF
Convolutional Neural Networks (CNN)
PPTX
Lecture 29 Convolutional Neural Networks - Computer Vision Spring2015
Red NEURONAL MADALINE
Generalidades De Las Redes Neuronales Artificiales (RNA)
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Reconocimiento de caracteres atravez de redes neuronales
RED NEURONAL Backpropagation
REDES NEURONALES Base Radial
Árboles de Decisión en Weka
Neural tool box
4. estadística descriptiva
Matlab Neural Network Toolbox MATLAB
Regla de aprendizaje del perceptrón simple
101: Convolutional Neural Networks
Neural network in matlab
REDES NEURONALES Algoritmos de Aprendizaje
Diseño de Redes Neuronales Multicapa y Entrenamiento
Adaline madaline
Algoritmos para matlab
Convolutional Neural Network for Alzheimer’s disease diagnosis with Neuroim...
Convolutional Neural Networks (CNN)
Lecture 29 Convolutional Neural Networks - Computer Vision Spring2015
Publicidad

Similar a REDES NEURONALES ADALINE (20)

PDF
Utp ia_2014-2_s5_adaline
PDF
Utp 2015-2_ia_s6_adaline y backpropagation
PDF
Utp 2015-2_sirn_s6_adaline y backpropagation
PDF
Utp sirn_s6_adaline y backpropagation
PPT
Red Neuronal Adaline
PPT
Algoritmo de Retropropagación
PPT
RED NERONAL ADALINE
PDF
Utp ia_s5_adaline
PDF
Utp sirn_s7_adaline y perceptron
PDF
Adaline Inteligencia Artificial
PPT
Perceptron parte 2
PPT
RED De Retro-propagación Neuronal
PPT
Redes Neuronales
PDF
Boletin3
PPT
Razón de Aprendizaje Variable lvbp
PDF
Perceptron y Adaline
PPT
REDES NEURONALES Mapas con Características Autoorganizativas Som
PPT
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
PPT
Redes neuronales artificiales
PPTX
Clasificacion mediante Redes Neuronales.pptx
Utp ia_2014-2_s5_adaline
Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
Red Neuronal Adaline
Algoritmo de Retropropagación
RED NERONAL ADALINE
Utp ia_s5_adaline
Utp sirn_s7_adaline y perceptron
Adaline Inteligencia Artificial
Perceptron parte 2
RED De Retro-propagación Neuronal
Redes Neuronales
Boletin3
Razón de Aprendizaje Variable lvbp
Perceptron y Adaline
REDES NEURONALES Mapas con Características Autoorganizativas Som
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
Redes neuronales artificiales
Clasificacion mediante Redes Neuronales.pptx

Más de ESCOM (20)

PDF
redes neuronales tipo Som
DOC
redes neuronales Som
PDF
redes neuronales Som Slides
PDF
red neuronal Som Net
PDF
Self Organinising neural networks
DOC
redes neuronales Kohonen
DOC
Teoria Resonancia Adaptativa
DOC
ejemplo red neuronal Art1
DOC
redes neuronales tipo Art3
DOC
Art2
DOC
Redes neuronales tipo Art
DOC
Neocognitron
PPT
Neocognitron
PPT
Neocognitron
PPT
Fukushima Cognitron
PPT
Counterpropagation NETWORK
PPT
Counterpropagation NETWORK
PPT
Counterpropagation
PPT
Teoría de Resonancia Adaptativa Art2 ARTMAP
PPT
Teoría de Resonancia Adaptativa ART1
redes neuronales tipo Som
redes neuronales Som
redes neuronales Som Slides
red neuronal Som Net
Self Organinising neural networks
redes neuronales Kohonen
Teoria Resonancia Adaptativa
ejemplo red neuronal Art1
redes neuronales tipo Art3
Art2
Redes neuronales tipo Art
Neocognitron
Neocognitron
Neocognitron
Fukushima Cognitron
Counterpropagation NETWORK
Counterpropagation NETWORK
Counterpropagation
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa ART1

Último (20)

PDF
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
DOCX
Informe_practica pre Final.docxddadssasdddddddddddddddddddddddddddddddddddddddd
DOC
Manual de Convivencia 2025 actualizado a las normas vigentes
PDF
Escuelas Desarmando una mirada subjetiva a la educación
PDF
1. Intrdoduccion y criterios de seleccion de Farm 2024.pdf
PDF
PFB-MANUAL-PRUEBA-FUNCIONES-BASICAS-pdf.pdf
PDF
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
PDF
Los hombres son de Marte - Las mujeres de Venus Ccesa007.pdf
DOCX
Programa_Sintetico_Fase_4.docx 3° Y 4°..
PDF
Mi Primer Millon - Poissant - Godefroy Ccesa007.pdf
PDF
TOMO II - LITERATURA.pd plusenmas ultras
DOCX
V UNIDAD - PRIMER GRADO. del mes de agosto
PPTX
Doctrina 1 Soteriologuia y sus diferente
PDF
Ernst Cassirer - Antropologia Filosofica.pdf
PDF
Tomo 1 de biologia gratis ultra plusenmas
PPTX
MATEMATICAS GEOMETRICA USO TRANSPORTADOR
PDF
Nadie puede salvarte excepto Tú - Madame Rouge Ccesa007.pdf
PDF
La Evaluacion Formativa en Nuevos Escenarios de Aprendizaje UGEL03 Ccesa007.pdf
PDF
Integrando la Inteligencia Artificial Generativa (IAG) en el Aula
PDF
Iniciación Al Aprendizaje Basado En Proyectos ABP Ccesa007.pdf
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
Informe_practica pre Final.docxddadssasdddddddddddddddddddddddddddddddddddddddd
Manual de Convivencia 2025 actualizado a las normas vigentes
Escuelas Desarmando una mirada subjetiva a la educación
1. Intrdoduccion y criterios de seleccion de Farm 2024.pdf
PFB-MANUAL-PRUEBA-FUNCIONES-BASICAS-pdf.pdf
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
Los hombres son de Marte - Las mujeres de Venus Ccesa007.pdf
Programa_Sintetico_Fase_4.docx 3° Y 4°..
Mi Primer Millon - Poissant - Godefroy Ccesa007.pdf
TOMO II - LITERATURA.pd plusenmas ultras
V UNIDAD - PRIMER GRADO. del mes de agosto
Doctrina 1 Soteriologuia y sus diferente
Ernst Cassirer - Antropologia Filosofica.pdf
Tomo 1 de biologia gratis ultra plusenmas
MATEMATICAS GEOMETRICA USO TRANSPORTADOR
Nadie puede salvarte excepto Tú - Madame Rouge Ccesa007.pdf
La Evaluacion Formativa en Nuevos Escenarios de Aprendizaje UGEL03 Ccesa007.pdf
Integrando la Inteligencia Artificial Generativa (IAG) en el Aula
Iniciación Al Aprendizaje Basado En Proyectos ABP Ccesa007.pdf

REDES NEURONALES ADALINE

  • 1. Red Adaline B. Widrow & M. Hoff (Adaptive Linear Element)
  • 2. REDES ADALINE Y MADALINE Desarrolladas en 1960 por Bernie Widrow y Marcian Hoff en la Universidad de Stanford. ADALINE: ADAptive LINear Element ADALINE: Una única Neurona de Salida. MADALINE: Varias Neuronas de Salida. MADALINE (Multiple ADALINE)
  • 3. Bernard Widrow Professor Adaptive Systems. Widrow concentrates on adaptive signal processing, adaptive control systems, and adaptive neural networks. Adaptive systems have the ability to learn and improve their behavior through contact with their environments. Applications include signal processing, control systems, and pattern recognition. Sc.D. MIT 1956 Department of Electrical Engineering Durand Bldg., Rm. 139 723-4949 [email_address]
  • 4. Marcian E. Hoff Marcian E. Hoff was born in 1937 in Rochester N.Y. and graduated with a degree in Electrical Engineering from Rensselaer Polytechnic Institute in 1958. He received his Ph.D. from Stanford University in 1962 and stayed on as a research associate in computer area until 1968. Hoff joined Intel as Manager of Application Research in 1968, became an Intel fellow in 1980 and remained in this position until 1983. After a year at Atari, Marcian E. Hoff became a consultant with time for independent technical projects. Dr. M. E. Hoff is a recipient of the Stuart Ballantine award of the Franklin Institute, the Cledo Brunetti Award and holds an IEEE Centennial Medal. Dr. Hoff is a member of Sigma Xi and is an IEEE Fellow.
  • 6. Diferencias con el PERCEPTRON Algoritmo de aprendizaje: Regla del Mínimo Error Cuadrado Medio (LMS), o regla Delta, o regla de Widrow-Hoff Su función de transferencia es lineal, (pureline ) Procesamiento de información analógica, tanto de entrada como de salida, utilizando una función de Activación Lineal o Sigmoidal. También puede resolver problemas linealmente separables.
  • 7. Diferencias con el PERCEPTRON El algoritmo LMS minimiza el error cuadrático medio y trata de mover la frontera de decisión tan lejos como sea posible de los patrones de entrenamiento La red ADALINE es menos sensible al ruido Las redes ADALINE y MADALINE tiene usos prácticos en el procesamiento de señales digitales.
  • 9. Arquitectura de ADALINE X 0 =1 X 1 W 0 X N X 2 X 3 W 1 W 2 W 3 W N S s S alida Lineal S alida binaria y Combinador Adaptativo Lineal Conmutador Bipolar s y -1 1
  • 10. Arquitectura de ADALINE Formada por un elemento denominado: Combinador Adaptativo Lineal (ALC). La salida lineal obtenida del ALC se aplica a un Conmutador Bipolar. El Umbral de la F. de T. se representa a través de una conexión ficticia de peso Wo (b)
  • 13. Aplicaciones de ADALINE Procesamiento de Señales. Filtros que eliminen el ruido en señales portadoras de información. Filtros de ecualización adaptativos en Módems de alta velocidad. Cancelación del ruido materno de grabaciones ECG del latido del feto humano.
  • 14. Aplicaciones (continuación) Eliminación de ecos en circuitos telefónicos. Canceladores adaptativos del eco para el filtrado de señales en comunicaciones telefónicas de larga distancia y comunicaciones vía satélite.
  • 15. Filtros Adaptativos Tapped Delay Line Adaptive Filter
  • 17. Cancelación de ruido, Filtro Adaptativo
  • 19. Aprendizaje en la Red ADALINE Aprendizaje OFF-LINE con Supervisión LMS LMS trata de minimizar una diferencia entre el valor obtenido y el deseado; como en el PERCEPTRON, sólo que ahora la salida considerada es la salida obtenida al aplicar una función de activación lineal.
  • 20. Aprendizaje en ADALINE (continuación) El entrenamiento de la red consiste en adaptar los pesos a medida que se vayan presentando los patrones de entrenamiento y salidas deseadas para cada uno de ellos. Para cada combinación E/S se realiza un proceso automático de pequeños ajustes en los valores de los pesos hasta que se obtienen las salidas correctas.
  • 21. Ecuaciones Principales En forma de Matriz :  es la velocidad de aprendizaje determinada por Donde :  max : es el eigenvalor más grande de la matriz Hessiana R
  • 22. Algoritmo de Aprendizaje en ADALINE 1. Se aplica un patrón de entrada P. 2. Se obtiene la salida del ALC y se calcula la diferencia con respecto a la deseada (error). 3. Se actualizan los pesos. 4. Se repiten pasos 1 a 3 con todos los vectores de entrada. 5. Si el Error es un valor aceptable, detenerse, si no repetir algoritmo.
  • 23. Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con su correspondiente valor de salida correcto o deseado. La regla minimiza el error cuadrático medio definido como: donde: es la función de error
  • 24. La derivada de la suma del error cuadrático con respecto a un peso W(i,j) (de la entrada j a la neurona i) para un solo vector de entrada p y vector objetivo t, es:
  • 25. La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está incrementando y absorbiendo la constante -2 en lr . En forma de matriz: Transformando a la expresión del umbral (considerando que en el umbral es un peso con entradas de 1):
  • 26. Superficie de Error
  • 27. Superficies de error a) ADALINE b) PERCEPTRÓN
  • 28. Superficies de Error Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Widrow-Hoff busca el punto de este espacio donde se encuentra el mínimo global. Con función de activación lineal Con función de activación sigmoidal
  • 29. Función de error . |Para un ALC con solo dos pesos, la superficie de error es un paraboloide. Los pesos que minimizan el error se tienen en el fondo de la superficie paraboloidal
  • 31. Ejemplo 1 Banana Manzana
  • 35. Simulación de ADALINE en Neural Network Toolbox de Matlab
  • 36. Modelo de una neurona lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a a b/w b/w p n a = purelin(n)
  • 37. ADALINE Network  w i w i 1  w i 2  w i R  =
  • 38. [W,b]=initlin(P,T) crea un conjunto de pesos y umbrales aleatorios iniciales positivos y negativos para una red Adaline. Toma una matriz de de vectores de entrada P, y de salida TS , regresando los valores de W y b correspondientes a las dimensiones de la red.
  • 39. [W,b]=solvelin(P,T); W=solvelin(P,T); Diseña redes Adaline directamente si se conocen sus vectores de entrada y objetivo, calculando los valores de los pesos y el bias sin necesidad de entrenamiento.
  • 40. [W,b,ep,tr]= trainwh(W,b,P,T,tp) tp=[disp_freq max-epoch err-goal lr] Entrena una red Adaline, hasta alcanzar el minimo error eepecificado en sus parametros iniciales.
  • 41. A=simulin(P,W,b) Simula la red Adaline con los parametros calculados en el entrenamiento y prueba cada uno de los patrones clasificandolos.
  • 42. Entrenamiento Paso a Paso A = simulin (P,W,b) E = T - A [dW,db] = learnwh (P,E,lr) W = W + dW b = b + dW
  • 43. E = T - A; [ dW, db ] = learnwh( P, E, lr ) lr es la tasa de aprendizaje. Si es grande, el aprendizaje es rápido, pero si es demasiado grande, el aprendizaje es inestable y puede incrementarse el error. lr = maxlinlr( P ); % si se utiliza bias lr = maxlinlr( P, ‘bias’ ); %si no se utiliza bias W = W + dW; b = b + db;
  • 44. Ejemplo de Codificación P = [ 1 1; 1 -1 ]; T= [ 1 0]; [W,b] = initlin ( P,T ) [W,b] = solvelin ( P,T ) plotpv ( P,T ) plotpc ( W,b )