domingo, 25 de noviembre de 2012



 ELEMENTOS DE UNA RED NEURONAL

Los elementos individuales de cálculo que forman los modelos de sistemas neuronales artificiales, reciben el nombre de Elementos de Procesado o Neuronas Artificiales. Cada unidad realiza un trabajo muy simple: recibe impulsos de otras unidades o de estímulos externos y calcula una señal de salida que propaga a otras unidades y, además, realiza un ajuste de sus pesos. Este tipo de modelos, es inherentemente paralelo en el sentido de que varias unidades pueden realizar sus cálculos al mismo tiempo. El elemento de procesado más simple suele tener el esquema mostrado en la Fig. 1.7.

Figura 1.7 Esquema de una Neurona Artificial.
(1.1)
Donde:
  1. a: es la salida de la neurona.
  2. Fk: es la función de transferencia de la neurona.
  3. Wij: es la matriz de pesos.
  4. Pi:es el patrón de entrenamiento.
  5. bk:es el umbral de activación de la neurona.

Este esquema de elemento de procesado tiene las siguientes características:
  • Cada elemento de procesado puede tener varias entradas asociadas a propiedades diferentes.
  • La entrada de tendencia es opcional (valor constante).
  • Las entradas pueden ser: Excitadoras, inhibidoras, de ganancia, de disparo fortuito o de amortiguamiento.
  • Las entradas están ponderadas por un factor multiplicativo de peso o intensidad de conexión que resaltan de forma diferente la importancia de cada entrada.
  • Cada elemento de procesado tiene un valor de activación calculado en función del valor de entrada neto (calculado a partir de las entradas y los pesos asociados a ellas). En algunos casos, el valor de activación, depende además de la entrada neta del valor anterior de activación.
  • Una vez calculado el valor de activación, se determina un valor de salida aplicando una función de salida sobre la activación del elemento de procesado.

CONEXIÓN ENTRE UNIDADES.
En la mayor parte de los casos se asume que cada unidad recibe contribuciones aditivas de las unidades que están conectadas a ellas. La entrada total de la unidad k es la suma ponderada de las entradas que recibe más el término de offset.


(1.2)
Donde:
  1. nk: es la salida lineal de la neurona.
  2. Wij: es la matriz de pesos.
  3. Pi:es el patrón de entrenamiento.
  4. bk:es el umbral de activación de la neurona.

Cuando el peso de la contribución es positivo se considera que la entrada es excitatoria y cuando el peso es negativo que es inhibitoria.
Este tipo de expresiones que calculan la entrada total se denominan reglas de propagación y, en general, pueden tener diferentes expresiones.

FUNCIONES DE ACTIVACIÓN Y SALIDA

Además de la regla de propagación es necesario poseer expresiones para las funciones de activación (calculan la activación en función de la entrada total) y funciones de salida (calculan la salida en función de la activación).
La función de activación calcula la activación de la unidad en función de la entrada total y la activación previa, aunque en la mayor parte de los casos es simplemente una función no decreciente de la entrada total. Los tipos de función más empleados son: la función escalón, función lineal y la función sigmoidal.
La función de salida empleada usualmente es la función identidad y así la salida de la unidad de procesado es idéntica a su nivel de activación.
Las redes neuronales están formadas por un conjunto de neuronas artificiales interconectadas. Las neuronas de la red se encuentran distribuidas en diferentes capas de neuronas, de manera que las neuronas de una capa están conectadas con las neuronas de la capa siguiente, a las que pueden enviar información.
La arquitectura más usada en la actualidad de una red neuronal, se presente en la Fig. 1.8, la cual consiste en:
  1. Una primera capa de entradas, que recibe información del exterior.
  2. Una serie de capas ocultas (intermedias), encargadas de realizar el trabajo de la red.
  3. Una capa de salidas, que proporciona el resultado del trabajo de la red al exterior.

Figura 1.8 Esquema de una red neuronal antes del entrenamiento.
 Los círculos representan neuronas, mientras las flechas representan conexiones entre las neuronas.
  
El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal.

FUNCIONES DE ACTIVACIÓN Y SALIDA
Un modelo más académico que facilita el estudio de una neurona, puede visualizarse en la Fig. 1.9.


Figura 1.9 Neurona de una sola entrada.

Donde:
  1. nk: es la salida lineal de la neurona.
  2. Wij: es la matriz de pesos.
  3. Pi:es el patrón de entrenamiento.
  4. bk:es el umbral de activación de la neurona.
Las entradas a la red serán ahora presentadas en el vector p, que para el caso de una sola neurona contiene solo un elemento, w sigue representando los pesos y la nueva entrada b es una ganancia que refuerza la salida del sumador n, la cual es la salida neta de la red; la salida total está determinada por la función de transferencia , la cual puede ser una función lineal o no lineal de n, y que es escogida dependiendo de las especificaciones del problema que la neurona tenga que resolver; aunque las RNA se inspiren en modelos biológicos no existe ninguna limitación para realizar modificaciones en las funciones de salida, así que se encontrarán modelos artificiales que nada tienen que ver con las características del sistema biológico.

Función escalón (Hardlim)
La Fig. 1.10, muestra como esta función de transferencia acerca la salida de la red a cero, si el argumento de la función es menor que cero y la lleva a uno si este argumento es mayor que uno. Esta función crea neuronas que clasifican las entradas en dos categorías diferentes, característica que le permite ser empleada en la red tipo Perceptrón.
Figura 1.10 Función de Transferencia Escalón (Hardlim).

(1.3)

El ícono para la función escalón (Hardlim) reemplazará a la letra f en la expresión general, cuando se utilice la función Hardlim.
Una modificación de esta función puede verse en la Fig. 1.11, la que representa la función de transferencia Escalón Simétrica (Hardlims) que restringe el espacio de salida a valores entre 1 y –1.


Figura 1.11 Función de Transferencia de Escalón Simétrica.

(1.4)

Función de Transferencia lineal (purelin)
La salida de una función de transferencia lineal es igual a su entrada, la cual se representa en la figura 1.12.
a = n
Figura 1.12 Función de Transferencia Lineal (purelin).

(1.5)
En la gráfica del lado derecho de la figura 1.12, puede verse la característica de la salida a de la red, comparada con la entrada p, más un valor de ganancia b, neuronas que emplean esta función de transferencia son utilizadas en la red tipo Adaline.

Función de Transferencia sigmoidal (logsig)
Esta función toma los valores de entrada, los cuales pueden oscilar entre más y menos infinito, y restringe la salida a valores entre cero y uno, de acuerdo a la expresión:

(1.6)
Esta función es comúnmente usada en redes multicapa, como la Backpropagation, en parte porque la función logsig es diferenciable, como se muestra en la Fig. 1.13.
Figura 1.13 Función de Transferencia Sigmoidal. 

ESTRUCTURAS GENERALES DE LAS REDES NEURONALES
PERCEPTRÓN

En 1943, Warren McCulloc y Walter Pitts originaron el primer modelo de operación neuronal, el cual fué mejorado en sus aspectos biológicos por Donald Hebb en 1948. En 1962 Bernard Widrow propuso la regla de aprendizaje Widrow-Hoff, y Frank Rosenblatt desarrolló una prueba de convergencia, y definió el rango de problemas para los que su algoritmo aseguraba una solución. El propuso los 'Perceptrons' como herramienta computacional, mostrado en la Fig. 1.15.

Figura 1.15 Modelo del Perceptrón Simple.

BACKPROPAGATION

En la red multicapa, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre sí. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa, esto es, cada neurona transmitirá su señal de salida a cada neurona de la capa siguiente. La Fig. 1.16 muestra un ejemplo esquemático de la arquitectura de este tipo de redes neuronales.
Figura 1.16 Red Backpropagation.

HOPFIELD

La Red de Hopfield que se muestra en la Fig. 1.17, es recurrente y completamente conectada. Funciona como una memoria asociativa no lineal que puedealmacenar internamente patrones presentados de forma incompleta o con ruido. De esta forma puede ser usada como una herramienta de optimización. El estado de cada neurona puede ser actualizado un número indefinido de veces, independientemente del resto de las neuronas de la red pero en paralelo.

Figura 1.17 Red de Hopfield de 3 Unidades.


KOHONEN

Existen evidencias que demuestran que en el cerebro existen neuronas que se organizan en muchas zonas, de forma que las informaciones captadas del entorno a través de los órganos sensoriales se representan internamente en forma de capas bidimensionales. Por ejemplo, en el sistema visual se han detectado mapas del espacio visual en zonas de córtex (capa externa del cerebro). También en el sistema auditivo se detecta organización según la frecuencia a la que cada neurona alcanza la mayor respuesta (organización tono tópica).

Aunque en gran medida esta organización neuronal está predeterminada genéticamente, es probable que de ella se origine mediante el aprendizaje. Esto sugiere, por tanto, que el cerebro podría poseer la capacidad inherente de formar mapas topológicos de las informaciones recibidas del exterior. De hecho, esta teoría podría explicar su poder de operar con elementos semánticos: algunas áreas del cerebro simplemente podrían crear y ordenar neuronas especializadas o grupos con características de alto nivel y sus combinaciones. Se trataría, en definitiva, de construir mapas espaciales para atributos y características.





No hay comentarios:

Publicar un comentario