La demostración de las limitaciones de las redes neuronales de una sola capa es un factor significativo de la decadencia del interés de las redes neuronales en la época de los 70’s .El descubrimiento (por varios científicos independientes) y la difusión extendida de un método general efectivo para el entrenamiento de una red neuronal multicapa, juega un mayor rol en el surgimiento de las redes neuronales como una herramienta para solucionar una amplia variedad de problemas. En este capitulo nosotros discutiremos este método de aprendizaje conocido como backpropagation (de errores) o regla generalizada delta. Esta es simplemente un método de inclinación de la pendiente para minimizar el error total al cuadrado en la salida computada de la red.La naturaleza muy general del método de entrenamiento backpropagation es la manera que la red backpropagation (una multicapa, red de entrenamiento feedforward para backpropagation) pueda ser usada para resolver problemas en muchas áreas. Varias de las aplicaciones mencionadas en este Capitulo 1 por ejemplo: NETtalk, el cual entrenado para leer Inglés en voz alta constituye la base para algunas variaciones de la red backpropagation que nosotros describiremos en la sección que sigue. Aplicaciones usando tales redes pueden hallarse en prácticamente cada presentación que use redes neuronales para problemas que involucren mapeo en determinado grupo de entradas para un grupo específico de objetivos de salida (que es una red que usa un entrenamiento supervisado). Esta es la causa con muchas redes neuronales, la meta es para entrenarla a la red para lograr un balance entre la habilidad para responder correctamente en relación a la entrada de patrones es decir usado para el entrenamiento (memorización) y la habilidad de dar una respuesta (buena) razonable para la entrada que es similar, pero no idéntica, para que usando el entrenamiento (generalización).El entrenamiento de la red por backpropagation implica tres etapas:

  • La feedforward (red de alimentación hacia adelante) del entrenamiento de patrones de entrada.
  • La red backpropagation del error asociado, y
  • El ajuste de los pesos.

ARQUITECTURA

Una red neuronal multicapa con una unidad de capas ocultas (la unidad Ζ) mostrada en la figura 6.1. Las unidades de salida (las unidades ) y las unidades ocultas también pueden tener influencia (como evidencia). La inclinación es la típica unidad de salida que es denotada por ; la inclinación en las unidades ocultas típicas es denotada por . Estos términos de inclinación actúan como pesos sobre conexiones desde unidades cuya salida es siempre 1. (En esta unidad como se muestra en la figura 6.1 son usualmente no desplegados explícitamente). Solo la dirección de la información fluye por la etapa de operación feedforward que es mostrada. Durante la etapa backpropagation de aprendizaje, es señal esta enviada en la dirección contraria.

 

Ago-Mie-PM

Hello world!

Ago-Mie-PM

Welcome to WordPress.com. This is your first post. Edit or delete it and start blogging!