En el proceso de dividir el razonamiento basado en casos en diferentes subprocesos nos encontramos el ciclo que lo conforman puede ser dividido en 4 procesos claramente diferenciados: RECUPERAR  los casos similares al que analizamos. REUTILIZAR  la información y el conocimiento que tenemos en este caso para resolver el problema. REVISAR  la solución propuesta. RETENER o RECORDAR  las partes de esta experiencia que nos puedan ser útiles para la resolución de futuros problemas.
Cuando nos encontramos delante de un nuevo problema para el cual tenemos que dar una solución lo que primeramente tenemos que hacer es dado ese determinado problema recordar los casos relevantes que pueden solucionarlo. Estos casos relevantes tendrá que ser una selección de aquellos casos de los que disponemos en la base de conocimiento del sistema experto. Por ejemplo, supongamos que Los Leones del Caracas quiere preparar el siguiente partido de la Liga Nacional de Beisbol Profesional Venezolano. Y la experiencia más relevante que él puede recordar es aquella en la cual Los Leones ganaron la liga PBV (2009-2010). El caso de recuerdo del Manager de los Leones estaría compuesto por todo lo que se hizo en aquel momento para ganar la liga (táctica, equipos contrarios) que hicieron que ganases, así como las decisiones que fue tomando a medida que iban avanzando en la eliminatoria. Sistemas Basado en casos
 
Redes Neuronales Artificiales
Primer modelo formal de una neurona (McCulloch y Pits, 1943) Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949) Construcción y prueba de las primeras neurocomputadoras (1954) Perceptron (Rosenblatt, 1958 )
Modelación del cerebro humano. El cerebro humano contiene alrededor de 15 billones de células llamadas neuronas. Una neurona se conecta con cientos de otras neuronas, formando una red neuronal.
Sinapsis: conexión entre neuronas. Dendritas: para recibir las señales eléctricas. Axon: Envía señales de salida. Núcleo: Se ejecutan las funciones principales.
Una  red neuronal  es un modelo computacional que pretende simular el funcionamiento del cerebro a partir del desarrollo de una arquitectura  que toma rasgos del funcionamiento de este órgano sin llegar a desarrollar una réplica del mismo.
Primer modelo formal de una neurona (McCulloch y Pits, 1943) Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949) Construcción y prueba de las primeras neurocomputadoras (1954) Perceptron (Rosenblatt, 1958 )
Entrada Pesos Suma Pesada Función de Transferencia Salida
Un conjunto de elementos computacionales simples  unidos por arcos dirigidos.  Cada arco tiene asociado un peso numérico W ij  que indica la significación de la información que llega por este arco. Cada celda Ui calcula una activación.
Toda unidad  u j  (excepto las de entradas) calcula una nueva activación  u ' j S j  representa el nivel de voltaje que excita la neurona u ' j  denota la intensidad de la salida resultante de la neurona. j 1 2 n . . . w 1 j w 2 j w nj
Por convenio existe una unidad  U 0  con  activación siempre igual a 1  que está conectada al resto de los elementos de procesamiento y el peso  W 0j  es una constante  que representa un valor inicial añadido al calcularse el nivel de actividad del elemento.
Entre la unidades o neuronas que forman una red neuronal artificial existe un conjunto de conexiones que las unen. Cada unidad transmite señales a aquellas que están conectadas a su salida. Asociada con cada unidad Uj hay una función de activación (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran información, en el valor de salida Yj.
Trapezoide   Signo   Sigmoide
Aprendizaje se puede definir como: La modificación del comportamiento inducido por la interacción con el entorno y como resultado de experiencias conducentes al establecimiento de nuevos modelos de respuestas ante estímulos externos.  Biológicamente, se suele aceptar que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas; es decir, el conocimiento se encuentra en las sinapsis. En el caso de las redes neuronales artificiales, se puede considerar que el conocimiento se encuentra representado en los pesos de las conexiones entre las neuronas. Todo proceso de aprendizaje implica cierto número de cambios en estas conexiones. En realidad se puede decir que se aprende modificando los pesos de la red.
 
 
Un programa tradicional es un conjunto de instrucciones que representan objetos del mundo real que codifican el conocimiento; ejecutará siempre lo que está codificado en las instrucciones. En una RN ningún conocimiento está codificado; es necesario enseñar presentando ejemplos. Básicamente, el conocimiento, al ser enseñado, se almacena en forma de pesos (valores) que darán a la red el comportamiento deseado.  Simulando un comportamiento parecido al del ser humano
Redes analógicas   Procesan datos de entrada de naturaleza analógica, valores reales continuos, para dar respuestas también continuas.  Redes discretas  (binarias)  Procesan datos de naturaleza discreta, habitualmente {0,1}, para acabar emitiendo una respuesta discreta.  Redes híbridas   Procesan entradas analógicas para dar respuestas binarias.
Organización o arquitectura del conjunto de neuronas que la forman; comprende - la distribución espacial de las mismas y  - los enlaces entre ellas.
Neurona Simple
Red Simple
Red con elementos de asociación
Red Multicapa
Modelo Interactivo
Las  redes Monocapa   sólo cuentan con una capa de neuronas, que intercambian señales con el exterior y que constituyen a un tiempo la entrada y salida del sistema.  En las redes Monocapa, se establecen conexiones laterales entre las neuronas, pudiendo existir, también conexiones autorrecurrentes (la salida de una neurona se conecta con su propia entrada).
Conexiones Recurrentes
Las  redes Multicapa   Disponen de conjuntos de neuronas jerarquizadas en distintos niveles o capas, con al menos una capa de entrada y otra de salida, y, eventualmente una o varias capas intermedias (ocultas).
Red Feedforward  Una red que sólo dispone de conexiones hacia delante o feedforward, en ella las neuronas de una capa reciben señales de otra capa anterior y envían señales a la capa posterior (en el sentido Entrada - Salida).
Red Feedback o interactiva   Algunas de sus neuronas presentan conexiones con neuronas de capas anteriores, conexiones hacia atrás o feedback.   Redes FeedForward-FeedBack
Qué es aprendizaje en nuestras vidas: Adquisición de conocimientos nuevos  Reforzamiento de ciertas  habilidades. Conceptos Vectores  de Entrenamiento Matriz de Entrenamiento Conjunto de Entrenamiento
Aprendizaje Supervisado Aprendizaje no Supervisado
Etapa de Entrenamiento Etapa de Prueba Etapa de Utilización
Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general.  Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible  Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático  Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel).  Neuro-fisiólogos utilizan redes neuronales para describir y explorar función cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz).  Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas.  Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleotide.  Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones.
Modelos de RNA Redes de Clasificación
En 1957  Frank Rosenblatt presentó el  Perceptron , una red neuronal con aprendizaje supervisado.  El Perceptron trabaja con patrones de entrada binarios.
Consta de dos niveles o capas. Nivel de unidades de entrada, denominadas unidades sensoriales.  Nivel de unidades de salida, denominadas unidades de asociación, cuyas entradas son las salidas pesadas de las unidades de entrada.  x = S1 w1 + S2 w2 y = { 1 si x > h ; 0 si x<= h }
 
Para que el Perceptron aprenda una función XOR deben cumplirse las siguientes cuatro desigualdades:  0 w1 + 0 w2 < h => 0 < h  1 w1 + 0 w2 < h => w1 > h  0 w1 + 1 w2 < h => w2 > h  1 w1 + 1 w2 < h => w1 + w2 < h  Espacios Linealmente Separables
El principal aporte del Perceptron es que la adaptación de los pesos se realiza teniendo en cuenta el error entre la salida que da la red y la salida que se desea (Hebb).  Se crearon grandes expectativas sobre sus aplicaciones, que posteriormente se tornaron en gran decepción cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red.
 
Paso hacia delante Cálculo del Error cuadrático Medio Diferencia Cuadrática entre la salida Deseada Real y la calculada por la Red. Paso hacia atrás. Actualización de los pesos  para disminuir el error en la próxima ejecución Algoritmo Backpropagation
Modificación de los pesos utilizando método de gradiente descendente.
Inicializar los pesos y los umbrales iniciales de cada neurona. Hay varias posibilidades de inicialización siendo las más comunes las que introducen valores aleatorios pequeños.  Para cada patrón del conjunto de los datos de entrenamiento  Obtener la respuesta de la red ante ese patrón. Esta parte se consigue propagando la entrada hacia delante. Las salidas de una capa sirven como entrada a las neuronas de la capa siguiente.  Calcular los errores asociados según la ecuación Calcular el incremento total, para todos los patrones, de los pesos y los umbrales Actualizar pesos y umbrales  Calcular el error actual y volver al paso 2 si no es satisfactorio
Un desarrollo semejante al modelo desarrollado por Rosemblatt a partir del modelo de McCulloch y Pitts fue realizado por Bernard Widrow para obtener el modelo ADALINE (ADAptive LInear NEuron) - MADALINE (Many ADALINE). Las diferencias entre un perceptron y una ADALINE no son significativas.
Una ADALINE está formada por dos elementos. El primer elemento constitutivo se conoce como dispositivo de combinación lineal adaptativa (Adaptive Linear Combiner, ALC). En él se realiza la suma ponderada de los componentes del vector de entrada para formar la salida.  Esta salida del ALC sirve de entrada a la otra parte, la cual es un clasificador lineal que es el que produce la salida binaria.
Red Adaline
La función que describe el funcionamiento de la ADALINE completa es la siguiente:
El proceso de aprendizaje de la ADALINE se realiza de la forma siguiente: La salida del ALC se compara con la respuesta esperada.  La diferencia es realimentada a un bloque de corrección de los pesos en el que se lleva a cabo la adaptación de éstos, de forma que se disminuya el valor de  hasta anularse a lo largo de sucesivas aproximaciones. La ecuación que define la manera de cambiar el valor de los pesos Wi asociados a las distintas entradas Xi es la siguiente:
Las MADALINES  de los años 60 (llamadas MADALINE I) estaban formadas por dos capas. En la primera tenían ADALINES y en la segunda funciones lógicas fijas como AND, OR y MAJ (Majority- Vote-Taker).  Un ejemplo de MADALINE con dos entradas y formada por dos ADALINES para la función NOR
Las MADALINE de los años 80 tienen muchas capas y todas son adaptativas.  El procedimiento de aprendizaje para esta clase de Madaline se conoce por Madaline Rule II (MRII).  Una consideración importante que se debe tener en cuenta al comparar varias topologías de redes neuronales es la cantidad de ejemplos de entrenamientos que ellas pueden almacenar (aprender).
La cantidad promedio de patrones que una red Madaline I puede aprender a clasificar es igual a la capacidad promedio de las Adaline multiplicada por la cantidad de Adalines, lo que es aproximadamente igual a dos veces la cantidad de pesos adaptativos. Aunque las Adaline y las Madaline tienen aproximadamente la misma capacidad por peso adaptativo, las primeras sólo pueden separar conjuntos separables linealmente.
Otros modelos de RNA Redes Autoorganizativas
Existen evidencias que demuestran que en el cerebro existen neuronas que se organizan en muchas zonas, de forma que las informaciones se representan internamente en forma de capas bidimensionales. Aunque en gran medida esta organización neuronal está predeterminada genéticamente, es probable que ella se origine mediante el aprendizaje.  Esto sugiere, que el cerebro podría poseer la capacidad inherente de formar mapas topológicos de las informaciones recibidas del exterior.
Teuvo Kohonen presentó en 1982 un modelo de red neuronal con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro.  Los algoritmos de aprendizaje no supervisado no necesitan de un supervisor externo que juzgue (a priori o sobre la marcha) los resultados del proceso de aprendizaje. No se presentan las salidas objetivo que se quieren asociar al patrón de entrada Los algoritmos de aprendizaje solo manejan patrones de entrada
Aprendizaje no supervisado.  Poseen una arquitectura de dos capas (entrada-salida) (una sola capa de conexiones), funciones de activación lineales y flujo de información unidireccional (son redes en cascada).  Las unidades de entrada reciben datos continuos normalizados, se normalizan así mismo los pesos de las conexiones con la capa de salida. Tras el aprendizaje de la red, cada patrón de entrada activará una única unidad de salida.
Aprender a categorizar/ agrupar los datos de entrada Se persigue que datos parecidos hagan reaccionar a las mismas neuronas Se consigue haciendo que cada neurona se especialice en determinado &quot;tipo&quot; de patrones de entrada Las neuronas juegan el papel de &quot;prototipos&quot; de los datos de entrada La unidad de salida ganadora para cada grupo de entradas no se conoce previamente, es necesario averiguarlo después de entrenar a la red.
 
Capa de entrada recibe la señal de entrada a la red (no hay procesamiento) Su dimensión, n, depende del problema Será un vector X = (x1; x2; :::; xn)
Capa de competición: formada por m neuronas Cada neurona de competición esta conectada con todas la neuronas de entrada Los pesos de la neurona i formarán un vector de n dimensiones: ~Wi = (w1i;w2i; :::;wni) No hay conexión entre las neuronas de competición Existe una relación de vecindad usada en el aprendizaje
En el modo de  operación normal  permanecen  fijos los pesos. Cada neurona i calcula la similitud entre el vector de entrada X  y su vector de pesos Wi Vence aquella con mayor similitud.
En la fase de aprendizaje, la neurona vencedora ajusta sus pesos aproximándose cada vez más a los de X. Por la función de vecindad también actualizan sus pesos neuronas vecinas a la vencedora
Inicialmente los pesos de cada neurona se establecen aleatoriamente Durante el entrenamiento, se elige al azar un vector de entrada con el que se realizan 2 tareas  Determinar neurona ganadora modificación de pesos
Al recibir un patrón X cada neurona compara su vector de pesos con el vector de entrada distintas funciones de distancia posible la más usual es la distancia euclidea La única neurona ganadora es aquella con los pesos mas parecidos al patrón solo se activará la neurona cuya distancia sea la menor
Solo se realizara ajuste de pesos en la neurona ganadora y sus &quot;vecinas&quot; La idea es que dicha neurona se &quot;especialice“ en patrones similares Se ajustan los pesos para hacerlos más parecidos al patrón de entrada que provocó la activación Idea base: acercar vector de pesos al vector de entrada Ajuste de pesos controlado por dos parámetros que varían con el tiempo (num. patrones procesados) función de vecindad y amplitud del &quot;vecindario“ tasa de aprendizaje
Nuevos pesos después de la iteración t para la neurona i Con alpha(t + 1) el valor de la tasa de aprendizaje para la presente iteración Con Hg(t; i - G) una media que indica el grado de vecindad entre la neurona i y la neurona ganadora G
Acercar los pesos al patrón de entrada El nuevo peso es el resultado de sumar al antiguo una fracción de la diferencia entre el peso antiguo y su componente correspondiente del vector de entrada.
Qué se entiende por vecinos?
Regulado por tres parámetros: radio de vecindad (d) tipo de relación de vecindad (topología) función de vecindad (Hg) Radio de vecindad (d) Amplitud del alcance de las neuronas afectadas por la vecindad
Determina qué neuronas se consideran vecinas inmediatas de una dada No es una conexión real física entre neuronas
 
 
 
 
Cuantifican numéricamente el grado de vecindad en función de la distancia a la ganadora El efecto del aprendizaje debe ser proporcional a la distancia respecto a la neurona ganadora Multitud de posibles funciones (con centro en la neurona ganadora)
 
 
Inicializar pesos Asignar a los pesos valores aleatorios pequeños Presentar una entrada El conjunto de aprendizaje se presenta repetidas veces hasta llegar a la convergencia de la red Actualizar alpha (reducir su valor) Propagar el patrón de entrada hasta la capa de competición Obtener los valores de salida (distancias) de las neuronas de dicha capa Seleccionar la neurona ganadora G La de menor distancia al patrón Actualizar conexiones entre capa de entrada y la neurona C Actualizar también los pesos de sus vecinas según el grado de vecindad Si alpha se mantiene por encima del umbral de parada, volver a 2, en caso contrario FIN
Cuando un dato se presenta a la red, solamente resulta activada una neurona del conjunto de salida; por lo tanto,  lo que se hace es una clasificación Después de entrenada, los datos similares presentados a la red estimularán siempre la misma neurona.  Por lo tanto es una red indicada para establecer  relaciones,  desconocidas previamente, entre datos.
Una de las principales aplicaciones de las SOM están en algoritmos de clusterización, debido a su capacidad para formar grupos.
Una de las posibles aplicaciones del mapa de Kohonen es a la clasificación de conjuntos de documentos.  Genéricamente, a esta aplicación se le llama  WEBSOM . Lo que se persigue con esta aplicación no es solo la clasificación de documentos, sino también el crear un mapa de un corpus de documentos, de forma que se pueda navegar por él entre documentos similares, y, además, ver la estructura a gran escala del grupo de documentos, con el objetivo de detectar grupos naturales (los  clusters  de los que hemos hablado anteriormente).
Otros modelos de RNA Búsqueda Asociativa de Información
La red está constituida de N neuronas artificiales, cada neurona se conecta con las N-1 restantes mediante caminos con pesos W ij .  La entrada y la salida de la red son vectores con N componentes binarias {+1,-1}.  Una vez creada la red cuando se presente un vector de entrada X la red realiza un proceso iterativo el cual la debe llevar hasta producir el vector de salida Y, que representa la clase a la cual pertenece el vector X. Modelo de Hopfield
Para calcular los pesos
Fase de Explotación
Reconocimiento de imágenes y de voz. El control de motores.  La resolución de problemas de optimización tales como la resolución de ecuaciones y del problema del viajero vendedor, manipulación de grafos, procesamiento de señales (ejemplo: conversores analógico-digitales) y de imágenes, reconocimiento de patrones.
Se aplica a las distintas expresiones que se pueden presentar en  un solo rostro.  Las investigaciones psicológicas indican que existen al menos 6 emociones universalmente asociadas con distintas expresiones faciales y son: alegría, tristeza, sorpresa, miedo, angustia y disgusto.  Una imagen de cada una de las emociones deben de ser almacenadas en la memoria de Hopfield como el conjunto de entrenamiento.
Este modelo de reconocimiento ha demostrado un funcionamiento aceptable utilizando imágenes de 30x30 píxeles, por lo tanto cada imagen está codificada en  900 unidades de patrón .   De una base de datos de imágenes se seleccionan aleatoriamente 50 imágenes y son la del patrón de prueba en el experimento.  Como resultado del experimento:  la angustia, disgusto y sorpresa con un 100%  de los casos reconocidos,  la alegría con un 93 de los casos reconocidos  y por último  la tristeza y el miedo con un 75% de los casos.
Resultados experimentales
El reconocimiento de los distintos tipos de signos que se pueden obtener con  el lenguaje de las manos, es una aplicación que es muy útil. Un actor fue filmado a una velocidad de 15 cuadros por segundo sobre un fondo negro, este actor representaba con signos manuales las distintas palabras que le eran preguntadas. Después de esto viene un trabajo llamado extracción de las características de la forma de la mano. La red de Hopfield empleada está constituida por 60 neuronas y en promedio cada neurona iteraría de 4 a 5 veces.
El modelo de esta red presenta en promedio un 87% de eficiencia en el reconocimiento de las imágenes y sus correspondientes símbolos, solo se presenta un problema serio con los símbolos que representa al número 7 y al símbolo que representa a una moneda. Resultados experimentales
El sistema de aprendizaje para el entrenamiento de la red de Hopfield incluye una base de datos con miles de imágenes de las flemas tanto de pacientes enfermos como de  sujetos normales.  La red se diseñó basándose en las técnicas de detección de células enfermas, para lo cual primeramente se extraen las imágenes de las células a tratar utilizando resonancia magnética y luego se buscan áreas oscuras dentro de las células. Para realizar esta tarea se recurre a una técnica llamada enmascaramiento,  la cual aplica una máscara de un color predeterminado (R.G.B, Rojo, Verde o Azul intenso) a las imágenes obtenidas por el escaneo. Los resultados arrojados por la imagen y su máscara aplicada son los parámetros a tomar en cuenta para la identificación de las células dañadas.
En la topología de este modelo las neuronas se distribuyen en grupos. Se establecen enlaces entre las neuronas de grupos diferentes y del mismo grupo. Las conexiones entre las neuronas de grupos diferentes son excitadoras, mientras que las conexiones dentro de los grupos son inhibitorias.
Las neuronas de grupos diferentes tratan de excitarse mutuamente de modo que cada unidad trata de incrementar el nivel de activación de sus unidades adyacentes en otros grupos. Mientras que dentro de cada grupo se establece una competencia en la cual cada neurona trata de disminuir el nivel de activación de sus compañeras de grupo.
Como en este modelo existe una estrecha identificación de qué significa o representa cada grupo y cada neurona, es posible asignar los pesos a cada enlace. Programar prescriptivamente la red asignando pesos negativos para los enlaces inhibitorios y pesos positivos a las conexiones excitadoras, o aplicar algunos de los algoritmos de aprendizaje presentados antes.
Modelo de Neurona en   IAC Donde: output(j) representa el nivel de activación de la neurona j (esta variable toma valor 0 si el nivel de activación es negativo).  j es índice que recorre a todas las unidades conectadas a la neurona i. extinput(i) es el valor de la entrada externa a la neurona,     y    son coeficientes que permiten llevar las entradas interna y externa a una escala deseada.
Las unidades con ligeras ventajas iniciales, en términos de sus entradas externas, amplían esta ventaja sobre sus competidoras. “El rico se vuelve más rico”, y está dado porque si dos neuronas  n1  y  n2  son mutuamente inhibidoras y  n1  recibe una mayor excitación externa que  n2 ,  n1  tendrá una activación inicial mayor que  n2 , permitiéndole inhibir a  n2  más que lo que  n2  puede inhibir a  n1 . Efecto resonancia. Si dos neuronas  n1  y  n2  son mutuamente excitadoras, entonces cuando una de ellas se vuelva activa tenderá a mantener activa la otra. De este modo las activaciones de las unidades que entran en tales interacciones mutuamente excitadoras son sostenidas por la red.
La magnitud de la entrada externa dada a ciertas unidades puede bloquear totalmente la entrada externa a otras unidades.
Está compuesta de dos subredes: La primera tiene  N  unidades sensoras que reciben los valores binarios de las  N  componentes del vector de entrada. Estas unidades sensoras están conectadas a  M  neuronas (una por cada clase) que producen los valores de salida que sirven de entrada a la segunda subred.
La segunda subred tiene  M  neuronas y realiza la clasificación.  Cada uno de las  N  unidades sensoras está conectada a todas las unidades de salida en la primera subred mediante caminos con pesos W ij . Estas  M  neuronas de salida se conectan biyectivamente (una a una) con las  M  neuronas de la segunda subred; en la segunda subred cada una de las  M  unidades está conectada con las  M-1  neuronas restantes (como en la red de Hopfield) a través de caminos con pesos T kl .
Formar 11 equipos para presentación de los siguientes seminarios.  Redes Reconocimiento y Clasificación de Patrones  Reconocimiento de olores “nariz electrónica” Detección de sustancias toxicas, emisiones de fabricas, monitoreo de calidad de aire, detección de derrames, etc. Categorización de Patrones (&quot;clustering&quot;)  Aproximación y seguimiento de funciones  Procesamiento de señales  Predicción  Optimización  Control  Medicina  Gestión financiera  Cada equipo debe indicar en que consiste la aplicación, tipos de redes empleadas, que tipo de entrenamiento reciben y cuales son los resultados. Debe tener un ejemplo de la aplicación. Máximo 15 minutos. Traer Laminas digitales. Entregar digital y un pequeño resumen escrito.

Más contenido relacionado

PDF
Introduccion a las redes neuronales
PPTX
PDF
Redes Neuronales
PPT
Redes Neuronales
PPT
Introduccion redes neuronales artificiales
PPTX
Redes neuronales
PPT
Redes Neuronales
PPT
REDES NEURONALES
Introduccion a las redes neuronales
Redes Neuronales
Redes Neuronales
Introduccion redes neuronales artificiales
Redes neuronales
Redes Neuronales
REDES NEURONALES

La actualidad más candente (20)

PPTX
RED NEURONAL ARTIFICIAL . I.A
PPT
Características de las Redes Neuronales
PPT
Redes Neuronales
PPT
Redes neuronales artificiales
PPT
48690471 redes-neuronales
DOC
Redes neuronales
PPTX
Redes Neuronales
PPTX
Equipo Redes Neuronales Artificiales
PPT
Redes Neuronales
PPT
Redes Neuronales
DOCX
Red Neuronal Artificial
PPTX
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
PDF
Funciones satlin satlins
PPTX
Redes Neuronales
PPT
REDES NEURONALES Mapas con Características Autoorganizativas Som
PPSX
Redes neuronales Luis Lozano CI 22.840.519
PPT
2º asignacion redes neuronales
PDF
Red neuronal kohonen (Clasificación de colores)
PPT
Sistemas neuronales
RED NEURONAL ARTIFICIAL . I.A
Características de las Redes Neuronales
Redes Neuronales
Redes neuronales artificiales
48690471 redes-neuronales
Redes neuronales
Redes Neuronales
Equipo Redes Neuronales Artificiales
Redes Neuronales
Redes Neuronales
Red Neuronal Artificial
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Funciones satlin satlins
Redes Neuronales
REDES NEURONALES Mapas con Características Autoorganizativas Som
Redes neuronales Luis Lozano CI 22.840.519
2º asignacion redes neuronales
Red neuronal kohonen (Clasificación de colores)
Sistemas neuronales
Publicidad

Similar a Sistemas Basados en Casos IUT (20)

PPT
Redes Neuronales
PPT
REDES NEURONALES
PPT
Inteligencia Artificial Clase 2
PPT
redes neuronales
PPT
Redes neuronales
PPT
Redes neuronales
PDF
Funcionamiento de las redes neuronales simples
PDF
Overview of Artificial Neural Networks and its Applications
DOCX
Redes neuronales
PPTX
Redes neuronales
DOCX
Redes neuronales
PPTX
Redes neuronales
PPSX
2024-T8-Redes_Neuronales_I.ppsx
PDF
Funciones de activacion Poslin y Purelin
PPTX
Redes Neuronales
PPT
Henrion poggi analytics - ann - 1
PDF
Redes neuronales
PDF
Redes neuronales maria jose paredes
PPT
Redes Neuronales
Redes Neuronales
REDES NEURONALES
Inteligencia Artificial Clase 2
redes neuronales
Redes neuronales
Redes neuronales
Funcionamiento de las redes neuronales simples
Overview of Artificial Neural Networks and its Applications
Redes neuronales
Redes neuronales
Redes neuronales
Redes neuronales
2024-T8-Redes_Neuronales_I.ppsx
Funciones de activacion Poslin y Purelin
Redes Neuronales
Henrion poggi analytics - ann - 1
Redes neuronales
Redes neuronales maria jose paredes
Redes Neuronales
Publicidad

Más de Luis Álamo (12)

PPT
Reglas y hechos IA
PPT
Sistemas basados en casos
PPT
Alojamiento de páginas web
PDF
Desarrollo de Páginas Web
PPT
Estandarización de paginas web
PDF
Horario laboratorio1oct2011 ene2012
PDF
Formato control asistencia sevicio comunitario
PDF
Búsquedas heurísticas
PPT
Introducción a la inteligencia artificial profesora iris albarran
PDF
PNF Informática
PDF
Polimorfismo
PDF
Polimorfismo
Reglas y hechos IA
Sistemas basados en casos
Alojamiento de páginas web
Desarrollo de Páginas Web
Estandarización de paginas web
Horario laboratorio1oct2011 ene2012
Formato control asistencia sevicio comunitario
Búsquedas heurísticas
Introducción a la inteligencia artificial profesora iris albarran
PNF Informática
Polimorfismo
Polimorfismo

Último (20)

PDF
Introduccion a la Investigacion Cualitativa FLICK Ccesa007.pdf
PPTX
RESUMENES JULIO - QUIRÓFANO HOSPITAL GENERAL PUYO.pptx
PDF
Ficha de Atencion a Padres de Familia IE Ccesa007.pdf
PDF
LIBRO 2-SALUD Y AMBIENTE-4TO CEBA avanzado.pdf
PDF
ciencia_tecnologia_sociedad Mitcham Carl. (1994)..pdf
PDF
Introducción a la historia de la filosofía
PDF
Nadie puede salvarte excepto Tú - Madame Rouge Ccesa007.pdf
PDF
El Genero y Nuestros Cerebros - Gina Ripon Ccesa007.pdf
PDF
Aqui No Hay Reglas Hastings-Meyer Ccesa007.pdf
PDF
La Inteligencia Emocional - Fabian Goleman TE4 Ccesa007.pdf
PDF
E1 Guía_Matemática_5°_grado.pdf paraguay
PPTX
BIZANCIO. EVOLUCIÓN HISTORICA, RAGOS POLÍTICOS, ECONOMICOS Y SOCIALES
PDF
Los hombres son de Marte - Las mujeres de Venus Ccesa007.pdf
PDF
Modelo Educativo SUB 2023versión final.pdf
PDF
Uso de la Inteligencia Artificial en la IE.pdf
PPTX
LAS MIGRACIONES E INVASIONES Y EL INICIO EDAD MEDIA
PDF
Lo que hacen los Mejores Profesores de la Universidad - Ken Bain Ccesa007.pdf
PDF
CURRICULAR DE PRIMARIA santa ursula..pdf
DOCX
Programa_Sintetico_Fase_4.docx 3° Y 4°..
PDF
Telos 127 Generacion Al fa Beta - fundaciontelefonica
Introduccion a la Investigacion Cualitativa FLICK Ccesa007.pdf
RESUMENES JULIO - QUIRÓFANO HOSPITAL GENERAL PUYO.pptx
Ficha de Atencion a Padres de Familia IE Ccesa007.pdf
LIBRO 2-SALUD Y AMBIENTE-4TO CEBA avanzado.pdf
ciencia_tecnologia_sociedad Mitcham Carl. (1994)..pdf
Introducción a la historia de la filosofía
Nadie puede salvarte excepto Tú - Madame Rouge Ccesa007.pdf
El Genero y Nuestros Cerebros - Gina Ripon Ccesa007.pdf
Aqui No Hay Reglas Hastings-Meyer Ccesa007.pdf
La Inteligencia Emocional - Fabian Goleman TE4 Ccesa007.pdf
E1 Guía_Matemática_5°_grado.pdf paraguay
BIZANCIO. EVOLUCIÓN HISTORICA, RAGOS POLÍTICOS, ECONOMICOS Y SOCIALES
Los hombres son de Marte - Las mujeres de Venus Ccesa007.pdf
Modelo Educativo SUB 2023versión final.pdf
Uso de la Inteligencia Artificial en la IE.pdf
LAS MIGRACIONES E INVASIONES Y EL INICIO EDAD MEDIA
Lo que hacen los Mejores Profesores de la Universidad - Ken Bain Ccesa007.pdf
CURRICULAR DE PRIMARIA santa ursula..pdf
Programa_Sintetico_Fase_4.docx 3° Y 4°..
Telos 127 Generacion Al fa Beta - fundaciontelefonica

Sistemas Basados en Casos IUT

  • 1.  
  • 2.  
  • 3. En el proceso de dividir el razonamiento basado en casos en diferentes subprocesos nos encontramos el ciclo que lo conforman puede ser dividido en 4 procesos claramente diferenciados: RECUPERAR los casos similares al que analizamos. REUTILIZAR la información y el conocimiento que tenemos en este caso para resolver el problema. REVISAR la solución propuesta. RETENER o RECORDAR las partes de esta experiencia que nos puedan ser útiles para la resolución de futuros problemas.
  • 4. Cuando nos encontramos delante de un nuevo problema para el cual tenemos que dar una solución lo que primeramente tenemos que hacer es dado ese determinado problema recordar los casos relevantes que pueden solucionarlo. Estos casos relevantes tendrá que ser una selección de aquellos casos de los que disponemos en la base de conocimiento del sistema experto. Por ejemplo, supongamos que Los Leones del Caracas quiere preparar el siguiente partido de la Liga Nacional de Beisbol Profesional Venezolano. Y la experiencia más relevante que él puede recordar es aquella en la cual Los Leones ganaron la liga PBV (2009-2010). El caso de recuerdo del Manager de los Leones estaría compuesto por todo lo que se hizo en aquel momento para ganar la liga (táctica, equipos contrarios) que hicieron que ganases, así como las decisiones que fue tomando a medida que iban avanzando en la eliminatoria. Sistemas Basado en casos
  • 5.  
  • 7. Primer modelo formal de una neurona (McCulloch y Pits, 1943) Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949) Construcción y prueba de las primeras neurocomputadoras (1954) Perceptron (Rosenblatt, 1958 )
  • 8. Modelación del cerebro humano. El cerebro humano contiene alrededor de 15 billones de células llamadas neuronas. Una neurona se conecta con cientos de otras neuronas, formando una red neuronal.
  • 9. Sinapsis: conexión entre neuronas. Dendritas: para recibir las señales eléctricas. Axon: Envía señales de salida. Núcleo: Se ejecutan las funciones principales.
  • 10. Una red neuronal es un modelo computacional que pretende simular el funcionamiento del cerebro a partir del desarrollo de una arquitectura que toma rasgos del funcionamiento de este órgano sin llegar a desarrollar una réplica del mismo.
  • 11. Primer modelo formal de una neurona (McCulloch y Pits, 1943) Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949) Construcción y prueba de las primeras neurocomputadoras (1954) Perceptron (Rosenblatt, 1958 )
  • 12. Entrada Pesos Suma Pesada Función de Transferencia Salida
  • 13. Un conjunto de elementos computacionales simples unidos por arcos dirigidos. Cada arco tiene asociado un peso numérico W ij que indica la significación de la información que llega por este arco. Cada celda Ui calcula una activación.
  • 14. Toda unidad u j (excepto las de entradas) calcula una nueva activación u ' j S j representa el nivel de voltaje que excita la neurona u ' j denota la intensidad de la salida resultante de la neurona. j 1 2 n . . . w 1 j w 2 j w nj
  • 15. Por convenio existe una unidad U 0 con activación siempre igual a 1 que está conectada al resto de los elementos de procesamiento y el peso W 0j es una constante que representa un valor inicial añadido al calcularse el nivel de actividad del elemento.
  • 16. Entre la unidades o neuronas que forman una red neuronal artificial existe un conjunto de conexiones que las unen. Cada unidad transmite señales a aquellas que están conectadas a su salida. Asociada con cada unidad Uj hay una función de activación (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran información, en el valor de salida Yj.
  • 17. Trapezoide Signo Sigmoide
  • 18. Aprendizaje se puede definir como: La modificación del comportamiento inducido por la interacción con el entorno y como resultado de experiencias conducentes al establecimiento de nuevos modelos de respuestas ante estímulos externos. Biológicamente, se suele aceptar que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas; es decir, el conocimiento se encuentra en las sinapsis. En el caso de las redes neuronales artificiales, se puede considerar que el conocimiento se encuentra representado en los pesos de las conexiones entre las neuronas. Todo proceso de aprendizaje implica cierto número de cambios en estas conexiones. En realidad se puede decir que se aprende modificando los pesos de la red.
  • 19.  
  • 20.  
  • 21. Un programa tradicional es un conjunto de instrucciones que representan objetos del mundo real que codifican el conocimiento; ejecutará siempre lo que está codificado en las instrucciones. En una RN ningún conocimiento está codificado; es necesario enseñar presentando ejemplos. Básicamente, el conocimiento, al ser enseñado, se almacena en forma de pesos (valores) que darán a la red el comportamiento deseado. Simulando un comportamiento parecido al del ser humano
  • 22. Redes analógicas Procesan datos de entrada de naturaleza analógica, valores reales continuos, para dar respuestas también continuas. Redes discretas (binarias) Procesan datos de naturaleza discreta, habitualmente {0,1}, para acabar emitiendo una respuesta discreta. Redes híbridas Procesan entradas analógicas para dar respuestas binarias.
  • 23. Organización o arquitectura del conjunto de neuronas que la forman; comprende - la distribución espacial de las mismas y - los enlaces entre ellas.
  • 26. Red con elementos de asociación
  • 29. Las redes Monocapa sólo cuentan con una capa de neuronas, que intercambian señales con el exterior y que constituyen a un tiempo la entrada y salida del sistema. En las redes Monocapa, se establecen conexiones laterales entre las neuronas, pudiendo existir, también conexiones autorrecurrentes (la salida de una neurona se conecta con su propia entrada).
  • 31. Las redes Multicapa Disponen de conjuntos de neuronas jerarquizadas en distintos niveles o capas, con al menos una capa de entrada y otra de salida, y, eventualmente una o varias capas intermedias (ocultas).
  • 32. Red Feedforward Una red que sólo dispone de conexiones hacia delante o feedforward, en ella las neuronas de una capa reciben señales de otra capa anterior y envían señales a la capa posterior (en el sentido Entrada - Salida).
  • 33. Red Feedback o interactiva Algunas de sus neuronas presentan conexiones con neuronas de capas anteriores, conexiones hacia atrás o feedback. Redes FeedForward-FeedBack
  • 34. Qué es aprendizaje en nuestras vidas: Adquisición de conocimientos nuevos Reforzamiento de ciertas habilidades. Conceptos Vectores de Entrenamiento Matriz de Entrenamiento Conjunto de Entrenamiento
  • 36. Etapa de Entrenamiento Etapa de Prueba Etapa de Utilización
  • 37. Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general. Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel). Neuro-fisiólogos utilizan redes neuronales para describir y explorar función cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz). Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas. Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleotide. Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones.
  • 38. Modelos de RNA Redes de Clasificación
  • 39. En 1957 Frank Rosenblatt presentó el Perceptron , una red neuronal con aprendizaje supervisado. El Perceptron trabaja con patrones de entrada binarios.
  • 40. Consta de dos niveles o capas. Nivel de unidades de entrada, denominadas unidades sensoriales. Nivel de unidades de salida, denominadas unidades de asociación, cuyas entradas son las salidas pesadas de las unidades de entrada. x = S1 w1 + S2 w2 y = { 1 si x > h ; 0 si x<= h }
  • 41.  
  • 42. Para que el Perceptron aprenda una función XOR deben cumplirse las siguientes cuatro desigualdades: 0 w1 + 0 w2 < h => 0 < h 1 w1 + 0 w2 < h => w1 > h 0 w1 + 1 w2 < h => w2 > h 1 w1 + 1 w2 < h => w1 + w2 < h Espacios Linealmente Separables
  • 43. El principal aporte del Perceptron es que la adaptación de los pesos se realiza teniendo en cuenta el error entre la salida que da la red y la salida que se desea (Hebb). Se crearon grandes expectativas sobre sus aplicaciones, que posteriormente se tornaron en gran decepción cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red.
  • 44.  
  • 45. Paso hacia delante Cálculo del Error cuadrático Medio Diferencia Cuadrática entre la salida Deseada Real y la calculada por la Red. Paso hacia atrás. Actualización de los pesos para disminuir el error en la próxima ejecución Algoritmo Backpropagation
  • 46. Modificación de los pesos utilizando método de gradiente descendente.
  • 47. Inicializar los pesos y los umbrales iniciales de cada neurona. Hay varias posibilidades de inicialización siendo las más comunes las que introducen valores aleatorios pequeños. Para cada patrón del conjunto de los datos de entrenamiento Obtener la respuesta de la red ante ese patrón. Esta parte se consigue propagando la entrada hacia delante. Las salidas de una capa sirven como entrada a las neuronas de la capa siguiente. Calcular los errores asociados según la ecuación Calcular el incremento total, para todos los patrones, de los pesos y los umbrales Actualizar pesos y umbrales Calcular el error actual y volver al paso 2 si no es satisfactorio
  • 48. Un desarrollo semejante al modelo desarrollado por Rosemblatt a partir del modelo de McCulloch y Pitts fue realizado por Bernard Widrow para obtener el modelo ADALINE (ADAptive LInear NEuron) - MADALINE (Many ADALINE). Las diferencias entre un perceptron y una ADALINE no son significativas.
  • 49. Una ADALINE está formada por dos elementos. El primer elemento constitutivo se conoce como dispositivo de combinación lineal adaptativa (Adaptive Linear Combiner, ALC). En él se realiza la suma ponderada de los componentes del vector de entrada para formar la salida. Esta salida del ALC sirve de entrada a la otra parte, la cual es un clasificador lineal que es el que produce la salida binaria.
  • 51. La función que describe el funcionamiento de la ADALINE completa es la siguiente:
  • 52. El proceso de aprendizaje de la ADALINE se realiza de la forma siguiente: La salida del ALC se compara con la respuesta esperada. La diferencia es realimentada a un bloque de corrección de los pesos en el que se lleva a cabo la adaptación de éstos, de forma que se disminuya el valor de hasta anularse a lo largo de sucesivas aproximaciones. La ecuación que define la manera de cambiar el valor de los pesos Wi asociados a las distintas entradas Xi es la siguiente:
  • 53. Las MADALINES de los años 60 (llamadas MADALINE I) estaban formadas por dos capas. En la primera tenían ADALINES y en la segunda funciones lógicas fijas como AND, OR y MAJ (Majority- Vote-Taker). Un ejemplo de MADALINE con dos entradas y formada por dos ADALINES para la función NOR
  • 54. Las MADALINE de los años 80 tienen muchas capas y todas son adaptativas. El procedimiento de aprendizaje para esta clase de Madaline se conoce por Madaline Rule II (MRII). Una consideración importante que se debe tener en cuenta al comparar varias topologías de redes neuronales es la cantidad de ejemplos de entrenamientos que ellas pueden almacenar (aprender).
  • 55. La cantidad promedio de patrones que una red Madaline I puede aprender a clasificar es igual a la capacidad promedio de las Adaline multiplicada por la cantidad de Adalines, lo que es aproximadamente igual a dos veces la cantidad de pesos adaptativos. Aunque las Adaline y las Madaline tienen aproximadamente la misma capacidad por peso adaptativo, las primeras sólo pueden separar conjuntos separables linealmente.
  • 56. Otros modelos de RNA Redes Autoorganizativas
  • 57. Existen evidencias que demuestran que en el cerebro existen neuronas que se organizan en muchas zonas, de forma que las informaciones se representan internamente en forma de capas bidimensionales. Aunque en gran medida esta organización neuronal está predeterminada genéticamente, es probable que ella se origine mediante el aprendizaje. Esto sugiere, que el cerebro podría poseer la capacidad inherente de formar mapas topológicos de las informaciones recibidas del exterior.
  • 58. Teuvo Kohonen presentó en 1982 un modelo de red neuronal con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro. Los algoritmos de aprendizaje no supervisado no necesitan de un supervisor externo que juzgue (a priori o sobre la marcha) los resultados del proceso de aprendizaje. No se presentan las salidas objetivo que se quieren asociar al patrón de entrada Los algoritmos de aprendizaje solo manejan patrones de entrada
  • 59. Aprendizaje no supervisado. Poseen una arquitectura de dos capas (entrada-salida) (una sola capa de conexiones), funciones de activación lineales y flujo de información unidireccional (son redes en cascada). Las unidades de entrada reciben datos continuos normalizados, se normalizan así mismo los pesos de las conexiones con la capa de salida. Tras el aprendizaje de la red, cada patrón de entrada activará una única unidad de salida.
  • 60. Aprender a categorizar/ agrupar los datos de entrada Se persigue que datos parecidos hagan reaccionar a las mismas neuronas Se consigue haciendo que cada neurona se especialice en determinado &quot;tipo&quot; de patrones de entrada Las neuronas juegan el papel de &quot;prototipos&quot; de los datos de entrada La unidad de salida ganadora para cada grupo de entradas no se conoce previamente, es necesario averiguarlo después de entrenar a la red.
  • 61.  
  • 62. Capa de entrada recibe la señal de entrada a la red (no hay procesamiento) Su dimensión, n, depende del problema Será un vector X = (x1; x2; :::; xn)
  • 63. Capa de competición: formada por m neuronas Cada neurona de competición esta conectada con todas la neuronas de entrada Los pesos de la neurona i formarán un vector de n dimensiones: ~Wi = (w1i;w2i; :::;wni) No hay conexión entre las neuronas de competición Existe una relación de vecindad usada en el aprendizaje
  • 64. En el modo de operación normal permanecen fijos los pesos. Cada neurona i calcula la similitud entre el vector de entrada X y su vector de pesos Wi Vence aquella con mayor similitud.
  • 65. En la fase de aprendizaje, la neurona vencedora ajusta sus pesos aproximándose cada vez más a los de X. Por la función de vecindad también actualizan sus pesos neuronas vecinas a la vencedora
  • 66. Inicialmente los pesos de cada neurona se establecen aleatoriamente Durante el entrenamiento, se elige al azar un vector de entrada con el que se realizan 2 tareas Determinar neurona ganadora modificación de pesos
  • 67. Al recibir un patrón X cada neurona compara su vector de pesos con el vector de entrada distintas funciones de distancia posible la más usual es la distancia euclidea La única neurona ganadora es aquella con los pesos mas parecidos al patrón solo se activará la neurona cuya distancia sea la menor
  • 68. Solo se realizara ajuste de pesos en la neurona ganadora y sus &quot;vecinas&quot; La idea es que dicha neurona se &quot;especialice“ en patrones similares Se ajustan los pesos para hacerlos más parecidos al patrón de entrada que provocó la activación Idea base: acercar vector de pesos al vector de entrada Ajuste de pesos controlado por dos parámetros que varían con el tiempo (num. patrones procesados) función de vecindad y amplitud del &quot;vecindario“ tasa de aprendizaje
  • 69. Nuevos pesos después de la iteración t para la neurona i Con alpha(t + 1) el valor de la tasa de aprendizaje para la presente iteración Con Hg(t; i - G) una media que indica el grado de vecindad entre la neurona i y la neurona ganadora G
  • 70. Acercar los pesos al patrón de entrada El nuevo peso es el resultado de sumar al antiguo una fracción de la diferencia entre el peso antiguo y su componente correspondiente del vector de entrada.
  • 71. Qué se entiende por vecinos?
  • 72. Regulado por tres parámetros: radio de vecindad (d) tipo de relación de vecindad (topología) función de vecindad (Hg) Radio de vecindad (d) Amplitud del alcance de las neuronas afectadas por la vecindad
  • 73. Determina qué neuronas se consideran vecinas inmediatas de una dada No es una conexión real física entre neuronas
  • 74.  
  • 75.  
  • 76.  
  • 77.  
  • 78. Cuantifican numéricamente el grado de vecindad en función de la distancia a la ganadora El efecto del aprendizaje debe ser proporcional a la distancia respecto a la neurona ganadora Multitud de posibles funciones (con centro en la neurona ganadora)
  • 79.  
  • 80.  
  • 81. Inicializar pesos Asignar a los pesos valores aleatorios pequeños Presentar una entrada El conjunto de aprendizaje se presenta repetidas veces hasta llegar a la convergencia de la red Actualizar alpha (reducir su valor) Propagar el patrón de entrada hasta la capa de competición Obtener los valores de salida (distancias) de las neuronas de dicha capa Seleccionar la neurona ganadora G La de menor distancia al patrón Actualizar conexiones entre capa de entrada y la neurona C Actualizar también los pesos de sus vecinas según el grado de vecindad Si alpha se mantiene por encima del umbral de parada, volver a 2, en caso contrario FIN
  • 82. Cuando un dato se presenta a la red, solamente resulta activada una neurona del conjunto de salida; por lo tanto, lo que se hace es una clasificación Después de entrenada, los datos similares presentados a la red estimularán siempre la misma neurona. Por lo tanto es una red indicada para establecer relaciones, desconocidas previamente, entre datos.
  • 83. Una de las principales aplicaciones de las SOM están en algoritmos de clusterización, debido a su capacidad para formar grupos.
  • 84. Una de las posibles aplicaciones del mapa de Kohonen es a la clasificación de conjuntos de documentos. Genéricamente, a esta aplicación se le llama WEBSOM . Lo que se persigue con esta aplicación no es solo la clasificación de documentos, sino también el crear un mapa de un corpus de documentos, de forma que se pueda navegar por él entre documentos similares, y, además, ver la estructura a gran escala del grupo de documentos, con el objetivo de detectar grupos naturales (los clusters de los que hemos hablado anteriormente).
  • 85. Otros modelos de RNA Búsqueda Asociativa de Información
  • 86. La red está constituida de N neuronas artificiales, cada neurona se conecta con las N-1 restantes mediante caminos con pesos W ij . La entrada y la salida de la red son vectores con N componentes binarias {+1,-1}. Una vez creada la red cuando se presente un vector de entrada X la red realiza un proceso iterativo el cual la debe llevar hasta producir el vector de salida Y, que representa la clase a la cual pertenece el vector X. Modelo de Hopfield
  • 89. Reconocimiento de imágenes y de voz. El control de motores. La resolución de problemas de optimización tales como la resolución de ecuaciones y del problema del viajero vendedor, manipulación de grafos, procesamiento de señales (ejemplo: conversores analógico-digitales) y de imágenes, reconocimiento de patrones.
  • 90. Se aplica a las distintas expresiones que se pueden presentar en un solo rostro. Las investigaciones psicológicas indican que existen al menos 6 emociones universalmente asociadas con distintas expresiones faciales y son: alegría, tristeza, sorpresa, miedo, angustia y disgusto. Una imagen de cada una de las emociones deben de ser almacenadas en la memoria de Hopfield como el conjunto de entrenamiento.
  • 91. Este modelo de reconocimiento ha demostrado un funcionamiento aceptable utilizando imágenes de 30x30 píxeles, por lo tanto cada imagen está codificada en 900 unidades de patrón . De una base de datos de imágenes se seleccionan aleatoriamente 50 imágenes y son la del patrón de prueba en el experimento. Como resultado del experimento: la angustia, disgusto y sorpresa con un 100% de los casos reconocidos, la alegría con un 93 de los casos reconocidos y por último la tristeza y el miedo con un 75% de los casos.
  • 93. El reconocimiento de los distintos tipos de signos que se pueden obtener con el lenguaje de las manos, es una aplicación que es muy útil. Un actor fue filmado a una velocidad de 15 cuadros por segundo sobre un fondo negro, este actor representaba con signos manuales las distintas palabras que le eran preguntadas. Después de esto viene un trabajo llamado extracción de las características de la forma de la mano. La red de Hopfield empleada está constituida por 60 neuronas y en promedio cada neurona iteraría de 4 a 5 veces.
  • 94. El modelo de esta red presenta en promedio un 87% de eficiencia en el reconocimiento de las imágenes y sus correspondientes símbolos, solo se presenta un problema serio con los símbolos que representa al número 7 y al símbolo que representa a una moneda. Resultados experimentales
  • 95. El sistema de aprendizaje para el entrenamiento de la red de Hopfield incluye una base de datos con miles de imágenes de las flemas tanto de pacientes enfermos como de sujetos normales. La red se diseñó basándose en las técnicas de detección de células enfermas, para lo cual primeramente se extraen las imágenes de las células a tratar utilizando resonancia magnética y luego se buscan áreas oscuras dentro de las células. Para realizar esta tarea se recurre a una técnica llamada enmascaramiento, la cual aplica una máscara de un color predeterminado (R.G.B, Rojo, Verde o Azul intenso) a las imágenes obtenidas por el escaneo. Los resultados arrojados por la imagen y su máscara aplicada son los parámetros a tomar en cuenta para la identificación de las células dañadas.
  • 96. En la topología de este modelo las neuronas se distribuyen en grupos. Se establecen enlaces entre las neuronas de grupos diferentes y del mismo grupo. Las conexiones entre las neuronas de grupos diferentes son excitadoras, mientras que las conexiones dentro de los grupos son inhibitorias.
  • 97. Las neuronas de grupos diferentes tratan de excitarse mutuamente de modo que cada unidad trata de incrementar el nivel de activación de sus unidades adyacentes en otros grupos. Mientras que dentro de cada grupo se establece una competencia en la cual cada neurona trata de disminuir el nivel de activación de sus compañeras de grupo.
  • 98. Como en este modelo existe una estrecha identificación de qué significa o representa cada grupo y cada neurona, es posible asignar los pesos a cada enlace. Programar prescriptivamente la red asignando pesos negativos para los enlaces inhibitorios y pesos positivos a las conexiones excitadoras, o aplicar algunos de los algoritmos de aprendizaje presentados antes.
  • 99. Modelo de Neurona en IAC Donde: output(j) representa el nivel de activación de la neurona j (esta variable toma valor 0 si el nivel de activación es negativo). j es índice que recorre a todas las unidades conectadas a la neurona i. extinput(i) es el valor de la entrada externa a la neurona,  y  son coeficientes que permiten llevar las entradas interna y externa a una escala deseada.
  • 100. Las unidades con ligeras ventajas iniciales, en términos de sus entradas externas, amplían esta ventaja sobre sus competidoras. “El rico se vuelve más rico”, y está dado porque si dos neuronas n1 y n2 son mutuamente inhibidoras y n1 recibe una mayor excitación externa que n2 , n1 tendrá una activación inicial mayor que n2 , permitiéndole inhibir a n2 más que lo que n2 puede inhibir a n1 . Efecto resonancia. Si dos neuronas n1 y n2 son mutuamente excitadoras, entonces cuando una de ellas se vuelva activa tenderá a mantener activa la otra. De este modo las activaciones de las unidades que entran en tales interacciones mutuamente excitadoras son sostenidas por la red.
  • 101. La magnitud de la entrada externa dada a ciertas unidades puede bloquear totalmente la entrada externa a otras unidades.
  • 102. Está compuesta de dos subredes: La primera tiene N unidades sensoras que reciben los valores binarios de las N componentes del vector de entrada. Estas unidades sensoras están conectadas a M neuronas (una por cada clase) que producen los valores de salida que sirven de entrada a la segunda subred.
  • 103. La segunda subred tiene M neuronas y realiza la clasificación. Cada uno de las N unidades sensoras está conectada a todas las unidades de salida en la primera subred mediante caminos con pesos W ij . Estas M neuronas de salida se conectan biyectivamente (una a una) con las M neuronas de la segunda subred; en la segunda subred cada una de las M unidades está conectada con las M-1 neuronas restantes (como en la red de Hopfield) a través de caminos con pesos T kl .
  • 104. Formar 11 equipos para presentación de los siguientes seminarios. Redes Reconocimiento y Clasificación de Patrones Reconocimiento de olores “nariz electrónica” Detección de sustancias toxicas, emisiones de fabricas, monitoreo de calidad de aire, detección de derrames, etc. Categorización de Patrones (&quot;clustering&quot;) Aproximación y seguimiento de funciones Procesamiento de señales Predicción Optimización Control Medicina Gestión financiera Cada equipo debe indicar en que consiste la aplicación, tipos de redes empleadas, que tipo de entrenamiento reciben y cuales son los resultados. Debe tener un ejemplo de la aplicación. Máximo 15 minutos. Traer Laminas digitales. Entregar digital y un pequeño resumen escrito.