martes, 11 de junio de 2013

Aprendizaje supervisado en redes neuronales



En este en modo aprendizaje se muestran los patrones a la red y la salida deseada para esos patrones y se usa una fórmula matemática de minimización del error que ajuste los pesos para dar la salida más cercana posible a la salida deseada.






Un esquema general de este tipo de aprendizaje sería este:


1. Inicializar los pesos de las sinapsis aleatoriamente.


2. Para cada patrón P perteneciente al conjunto de los patrones que tenemos

2.1 Mostrar el patrón de entrada Pentrada y hacer la dinámica de la red para calcular la salida de la red Sred, que no es la salida deseada sino un patrón aleatorio ya que los pesos inicialmente eran aleatorios.

2.2 Hallamos el error Cálculo del error entre la salida de la red, Sred, y la salida deseada del patrón Psalida_deseada. Esto se hace en muchos casos con el error cuadrático medio Epatrón = Raizcuadrada(suma((Psalida_deseadai) ² - (Sredi) ²)).

2.3 Ajustar los pesos usando la regla de aprendizaje para disminuir el error medio. Normalmente, se hace creando una función que represente el error cometido, la cual derivamos para aplicar la técnica de minimización matemática.

Otra forma de ver los procesos de ajuste de los pesos, es como un mapa bidimensional que representa los errores que la red comete en la clasificación, en función de los pesos u las entradas. El objetivo es llegar lo más bajo posible en el mapa, para ello, buscamos la gradiente para cada punto concreto de ese mapa. Para ello derivamos la función error para encontrar la dirección de máxima pendiente. Quizás esta parte es la más compleja matemáticamente.


En resumen usaremos una función, que demostrada matemáticamente por alguno de los anteriores principios, minimiza el error entre la salida que deseamos Psalida_deseada y la salida que nos da la red Sred.

3. Si el error es mayor de cierto criterio volver al paso 2; si todos los ejemplos sehan clasificado correctamente, finalizar. 
Las redes más significativas que usan este aprendizaje supervisado son el Perceptrón, El Perceptrón multicapa y la red de Hopfield.




Algunas de sus aplicaciones más importantes son:

Asociadores de patrones, esto es asocia dos patrones y permite recuperar la información a pesar de errores en la capa de entrada.
Modeladores funcionales, las redes neuronales permiten, gracias a su capacidad de ajustar el error dar los valores más cercanos a una función de la que solo sabemos algunos puntos por los que pasa

Como ejemplo de aprendizaje supervisado podemos observar, el perceptron, el cual tiene la siguiente función de aprendizaje

Psiguiente = Pactual + x* (Psalida_deseada – Sred) * Pentrada

Donde Psiguiente es el nuevo valor para el peso sináptico, Pactual es el peso actual, x es un parámetro que permite definir cuanto de rápido aprende la red, Psalida_deseada es la salida que deseamos para esa entrada, Sred es la salida que ha generado la red y Pentrada es el patrón de entrada.


Esta regla aplicada iterativamente a todos los patrones de entrada hace que los pesos converjan a un estado en el que darán Psalida_deseada cuando le presentemos el patrón Pentrada o uno que sea lo suficientemente parecido a el.

No hay comentarios:

Publicar un comentario