Una introducción a la Inteligenca Artificial (IA)



Descargar 2.01 Mb.
Página23/29
Fecha de conversión20.03.2018
Tamaño2.01 Mb.
Vistas529
Descargas0
1   ...   19   20   21   22   23   24   25   26   ...   29

REDES NEURONALES


  1. Introducción

A pesar de los grandes adelantos tecnológicos realizados hasta el día de hoy el cerebro humano sigue y seguirá siendo superior a las computadoras digitales actuales en muchas tareas. Por ejemplo, en el procesamiento de imágenes, un niño de corta edad puede reconocer objetos, rostros e imágenes de una mejor manera y más rápidamente que cualquier sistema avanzado de Inteligencia Artificial ejecutándose en una supercomputadora, solamente en tareas básicas y aritmética simple ésta puede superar al cerebro. El cerebro tiene varias características funcionales que se desea imitar e implementar en los sistemas artificiales, enumeremos algunas de ellas:




  • Capacidad para aprender y adquirir experiencia.

  • Puede tratar información difusa, probabilística, ruidosa e inconsistente.

  • Es flexible y puede fácilmente adaptarse a nuevos ambientes, lo que no puede programarse en C, Pascal, Fortran, etc.

  • Es muy robusto y tiene tolerancia a fallas, las células nerviosas mueren todos los días sin afectar significativamente su performance.

  • Tiene procesamiento en paralelo.

  • Es pequeño, compacto y disipa muy poca potencia.

Estas y otras características han despertado el interés en la comunidad científica para su estudio y comprensión. Es un paradigma computacional alternativo al introducido por von Neuman (procesamiento secuencial) y que sigue vigente en todas las computadoras actuales. El procesamiento en paralelo que realiza el cerebro esta obligando a realizar investigaciones para mejorar el hardware que permita construir computadoras con similares formas de proceso.


Todos los investigadores actuales en computación neuronal sueñan con la posibilidad de que se pueda construir redes de computación artificial con capacidades similares al cerebro.
El término Red Neuronal es usado para describir un conjunto de características de elementos de procesamiento altamente interconectados que ofrecen una alternativa a las formas tradicionales del cómputo.
Los estudios de investigación llevados a cabo llegan a las siguientes conclusiones:


  • Las redes neuronales ofrecen muchas e importantes formas de procesamiento de información a causa de su adaptabilidad y habilidad de aprendizaje como así mismo de su masivo paralelismo [1].




  • La investigación en redes neuronales se ha desarrollado ampliamente a partir del concepto de perceptron en los años 50. Este proceso de maduración ha tenido tres fuentes:(1) los avances en teoría matemática (2) el desarrollo de nuevas herramientas en computación y (3) el incremento en la compresión del campo de la neurobiología. Existe un nexo entre los modelos de redes neuronales biológicamente orientados y los modelos de redes neuronales artificiales; y de este nexo resulta un sustancial progreso [1].




  • Aunque la evolución de los sistemas computarizados de los últimos 20 años a jugado un rol importante en el reavivamiento de la investigación de las redes neuronales gracias a los cuales hizo posible avanzar bastante en teoría matemática, los límites de las formas de cómputo de hoy en día, inadecuados en almacenamiento, velocidad y flexibilidad para el usuario, han restringido los esfuerzos realizados en la investigación de las redes neuronales [1].




  • Han sido realizadas significativas demostraciones de las capacidades de las redes neuronales en visión, lenguaje, procesamiento de señales y robótica, aunque no a la escala deseada, debido a la carencia de fondos para la investigación. La variedad de problemas considerados para la aplicación de redes neuronales es impresionante.




  • Las capacidades de equipos de hardware están limitando el desarrollo de la aplicación de importantes redes neuronales.

Algunos nombres que también se dan a las redes neuronales incluyen: Sistemas Neuronales Artificiales, Modelos Conexionistas, Modelos de Procesamiento de Distribución en Paralelo, Sistemas Auto-adaptivos de varios niveles, Sistemas Autoorganizativos, Neurocomputadoras, Sistemas Neuromórficos y Cyberware.


2. Definición
Es un modelo matemático por el cual se quiere imitar las habilidades computacionales de un sistema biológico usando un número pequeño o grande de neuronas artificiales interconectadas. Las neuronas artificiales son una simple emulación de las neuronas biológicas; ellas toman información desde un(os) sensor(es) u otras neuronas artificiales, su performance es una simple operación de estos datos, y el resultado es pasado a otras neuronas artificiales. Una red neuronal con varias neuronas artificiales procesa los datos de esta manera. Ellas usan paralelismo lógico(para todas las neuronas de un mismo nivel), combinando con operaciones en serie (como la transferencia de información de las neuronas de un nivel a otro nivel) [2].
3. Historia
Los primeros conceptos de las redes de sistemas fueron discutidos en el siglo IXX. La diferencia hoy día es la capacidad, gracias a la simulación en computadoras y a una familiarización con el análisis matemático, de tomar estas redes teóricas, construirlas y utilizarlas. El dominio de los detalles, técnicas y aplicación de modelos es ahora muy grande. Sin embargo, el concepto básico de James sobre la operación de la inteligencia no ha sido fundamentalmente alterado [3].
En 1890, James hizo la siguiente declaración:
“La actividad total en algún punto de la corteza del cerebro es la suma de las tendencias de todos los otros puntos que descargan dentro del mismo, tales tendencias son proporcionales: (1) al número de tiempos de excitación de otros puntos que podrían acompañar al punto en cuestión, (2) a las intensidades de dichos excitaciones y (3) a la ausencia de algún punto rival funcionalmente desconectado del primer punto, dentro el cual las descargas pueden ser desviadas”.
Si el "punto de la corteza cerebral" es reemplazado por una neurona, la actividad neuronal es considerada como la suma de las cargas de entrada ponderadas a la neurona. La actividad neuronal dependerá de: los pesos de conexión que están determinados por la correlación de la actividad de la neurona con la actividad de otras neuronas de las cuales reciben entradas (condición 1), la excitación actual de otras neuronas (condición 2) y un término inhibitorio (condición 3). En 1943, McCulloch y Pitts formularon una descripción de este tipo de neuronas. Las mismas serán discutidas más adelante. Estos autores adoptaron los estados que James y otros biólogos hicieron, y desarrollaron un modelo para describir la actividad nerviosa en el cerebro. La neurona McCulloch-Pitts es aún el principal fundamento de virtualmente cualquier red neuronal que haya comenzado a desarrollarse. Las redes neuronales actuales combinan estas neuronas básicas en diferentes arquitecturas para llevar a cabo una variedad de capacidades computacionales. La investigación fue ampliamente centrada en la arquitectura sobre las cuales las neuronas son combinadas, y las metodologías a través de las cuales las interconexiones o pesos principales son determinados y ajustados.
El cerebro no está construido para pensar en forma abstracta, sino para asegurar su supervivencia en el mundo. El cerebro tiene muchas de las características de una solución ingenieril aplicada a operaciones mentales: hacer el trabajo a bajo costo, tan bien como se pueda y para obtener resultados fácilmente.
El objetivo de las redes neuronales no es generar máquinas que devoren números más rápidamente que una computadora tradicional, sino más bien crear máquinas que sobresalgan en áreas donde los humanos fácilmente sobrepasan a las computadoras tradicionales. Se espera que las redes neuronales suplementen y no reemplacen a las computadoras tradicionales. En efecto, algunos piensan que las redes neuronales pueden operar como pseudo-procesadores para las computadoras personales. Las redes neuronales son capaces reconocer objetos usando información parcial y generar soluciones rápidas y eficientes a los mismos problemas que el cerebro resuelve rápidamente.
Las primeras simulaciones de redes neuronales se realizan en 1950. En 1959, Bernard Widrow en Stanford, usa un algoritmo de red adaptiva basado en un simple elemento como neurona llamada Adaline, para el procesamiento de señales y control adaptivo. Otros investigadores desarrollan modelos neuronales al mismo tiempo.
En 1969, las investigaciones en la ingeniería de las redes neuronales sufre un estancamiento por la publicación del libro Perceptron escrito por Seymour Papert y Marvin Minsky. A menudo de declara de manera errónea que este estancamiento se debió exclusivamente a Papert y Minsky. Ellos demostraron que una red Perceptron de un nivel, está capacitada de llevar a cabo mapeos linealmente separables. Estos autores señalaron que la función lógica XOR no es linealmente separable y por tanto no podría ser ejecutada por perceptrones. En ese tiempo, el fin perseguido era que los dispositivos computacionales sean usados en la construcción de computadoras, una tarea que los perceptrones de un nivel no podían realizar.
Los Perceptrones han sido ideados como un brillante e intuitivo análisis de las capacidades computacionales de las redes perceptron de un nivel. Desafortunadamente, Papert y Minsky establecieron en sus conclusiones la creencia que las limitaciones de una red perceptron de un nivel se darían también en las redes perceptron de muchos niveles. En efecto, Papert y Minsky señalaron, "consideramos que es un importante problema para ser aclarado... nuestro juicio intuitivo es que la extensión a sistemas de múltiples niveles es estéril" [4]. Con lo que la investigación en redes neuronales sufrió un fuerte revés. Afortunadamente, el juicio que hicieron Papert y Minsky fue refutado (ver figura 1, 2 y 3); todos los problemas separables no linealmente pueden ser resueltos por redes perceptron de varios niveles bajo ciertas condiciones [5].





Fig. 1.

(1)

+1 > Clase A



y = (2)

-1 > Clase B



Si Minsky y Papert no hubieran sido tan convincentes en su "condena" a los perceptrones, el campo de las redes neuronales posiblemente hubiese avanzado más de lo que está ahora.
Las redes neuronales vuelven a ser investigadas intensamente a partir de la segunda mitad de los 70. El desarrollo de mejores capacidades de simulación por poderosos sistemas computarizados y la tecnología VLSI (Very Large Scale Integrated) han hecho posible que las redes neuronales hayan alcanzado variados resultados.







Fig. 2.




Fig. 3.

Recientemente, la arquitectura de muchas redes neuronales ha sido propuesta y los resultados por simulación han demostrado su potencial. En adición a mayores avances en la tecnología VLSI, desde el punto de vista teórico, quedan por ser desarrolladas las herramientas y conocimientos para el estudio de las redes neuronales.


4. Estructura Física del Cerebro
Se estima que el cerebro humano contiene más de cien mil millones (1011) de neuronas y (1014 ) sinápsis en el sistema nervioso humano. Estudios sobre la anatomía del cerebro humano concluyen que hay más de 1000 sinápsis a la entrada y a la salida de cada neurona. Es importante notar que aunque el tiempo de conmutación de la neurona ( unos pocos milisegundos) es casi un millón de veces menor que en las actuales elementos de las computadoras, ellas tienen una conectividad miles de veces superior que las actuales supercomputadoras.
El cerebro es una red de comunicaciones masiva de las células llamadas neuronas biológicas. La figura 4 muestra el modelo biológico de una neurona sobre la que está basada una red neuronal artificial. Cada neurona en el cerebro se compone de un cuerpo de célula, un axón y una multitud de dendritas.
Las dendritas forman una "brocha filamentosa" muy fina rodeando el cuerpo de la neurona, actúan como receptores de mensajes de la neurona. Las dendritas reciben e interpretan los mensajes químicos desde los axones de otras neuronas. Este mensaje químico puede ser excitativo o inhibidor en la dendrita. Una vez que las dendritas reciben los mensajes y los combinan, estos son enviados al cuerpo de la neurona.
El cuerpo de la neurona es llamado soma, es el centro de control de la neurona. Los mensajes recibidos por las dendritas son interpretados aquí y la respuesta a estos mensajes o estímulos es enviada a través del axón.
El axón es un tubo largo y delgado el cual se divide en ramificaciones terminando en un pequeño bulbo casi tocando las dendritas de otras neuronas. El pequeño espacio entre el bulbo terminal y una dendrita es llamada "sinapsis". El axón de una neurona simple forma conexiones sinápticas con muchas otras neuronas. Los impulsos propagados por el axón de la neurona y la sinapsis, envían señales de diferentes intensidades a las dendritas de otras neuronas. La intensidad de una señal dada es determinada por la eficiencia de la transmisión sináptica. Cada neurona en particular enviará un impulso por su axón si suficientes señales de otras neuronas llegan a sus dendritas en un corto periodo de tiempo, llamado el periodo de agregación latente. La señal de excitación en una dendrita puede ser inhibidora o excitativa. Una neurona dispara, por ejemplo, enviando un impulso por el axón, si la excitación total excede la inhibición en una cantidad apreciable, es decir, si excede el nivel de referencia de la neurona.





Compartir con tus amigos:
1   ...   19   20   21   22   23   24   25   26   ...   29


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos