Una introducción a la Inteligenca Artificial (IA)



Descargar 2.01 Mb.
Página4/29
Fecha de conversión20.03.2018
Tamaño2.01 Mb.
Vistas522
Descargas0
1   2   3   4   5   6   7   8   9   ...   29

1.7 Historia de la IA

La historia de la I.A se remonta a épocas remotas, aunque la relación entre la inteligencia humana y las máquinas tuvo sus inicios a principios de los cincuentas.

A continuación se muestra un cuadro cronológico de algunos de sus avances:


Fecha

Acontecimiento

5 A.C.





Aristóteles inventa los silogismos lógicos, como el primer sistema formal de razonamiento deductivo.

S 15 dc


Gutemberg inventa la imprenta, como un sistema de impresión movible

S 15-16


Aparecen los primeros mecanismos para medir el tiempo, los relojes.

S 16


Los relojeros crean mecanismos que imitan movimientos animales

S 17


Descartes propone que los cuerpos de animales no son nada mas que máquinas complejas.

Pascal inventa el primer mecanismo de cálculo digital

Leibniz mejora la maquina de pascal para realizar multiplicaciones y divisiones.

S 18


Surgen muchos juguetes mecanicos y mecanismos para jugar ajedrez

S 19


Mary Shelley publica la historia de Frankistein en 1818.

Bool desarrolla el algebra binaria o Booleana.

Charles Babbage & Ada Byron trabajan en la realización de máquinas de cálculo programables.


S 20 primera mitad

Bertrand Russell and Alfred North Whitehead publican su “Principia Mathematica” que revolucionó la lógica.

Warren McCulloch & Walter Pitts publiscan “A Logical Calculus of the Ideas Immanent in Nervous Activity" (1943), que sentó las bases de las redes neuronales.








Fecha

Acontecimiento

S 20 primera mitad


Arturo Rosenblueth, Norbert Wiener & Julian Bigelow, acuñan el Término “Cibernetica” en una publicación en 1943.

A.M. Turing publica "Computing Machinery and Intelligence" (1950)., una introducción a la prueba de Turing.

Isaac Asimov publica sus 3 leyes robótica en 1950

1950s


Norbert Wiener publica “ The feedback theory”. Formuló la teoría de que todo comportamiento inteligente era el resultado de mecanismos de retroalimentación que probablemente podrían ser simulados con máquinas.

1956


John McCarthy acuña el termino “artificial intelligence" durante la primera conferencia dedicada a esta área.

1957


Newell y Simon desarrollan el General Problem Solver (GPS). El programa era una extensión del principio de retroalimentación de Wiener y era capaz de resolver una gran extensión de problemas de sentido común.

1958


John McCarthy, considerado como el padre de la IA, anunció su nuevo desarrollo: el lenguaje LISP, el cual todavia es utilizado en la actualidad.

1961


James Slagle escribió en Lisp el primer programa de integración simbólica SAINT, que resolvia problemas de calculo.

1963


Thomas Evans desarrolla el programa Analogy, que demuestra que las computadoras pueden resolver los mismo problemas de las pruebas de IQ.

1965


Joseph Weizenbaum (MIT) construye ELIZA, un programa interactivo que puede sostener un dialogo en Inglés sobre cualquier tópico.

Finales 1960


Desarrollo de los Sistemas Expertos. Los Sistemas Expertos predicen la probabilidad de una solución bajo un conjunto de condiciones.

David Marr propone nuevas teorías acerca de visión artificial, por ejemplo, cómo distinguir una imagen basándose en su sombra, información básica sobre formas, color, lados y textura


1970


Jaime Carbonell desarrolla SCHOLAR, un programa interactivo para de aprendizaje con ayuda por computadora basado en redes semanticas y en representación del conocimiento.

1972


Desarrollo del Prolog por Alain Colmerauer.

Mediados de 1980


Las redes neuronales son ampliamente usadas en algoritmos de propagación.

Desarrollo de la Lógica Difusa


1990s


La milicia pone a prueba la IA en la guerra denominada Desert Storm (Tormenta del Desierto). En esta guerra se utilizó con éxito la tecnología basada en IA en los sistemas de misiles.

La IA entra también el los hogares con aplicaciones como reconocimiento de voz y caracteres.



Figura 1.2 Historia cronológica de la IA [2 Buchanan]




1.8. El estado del Arte. Los últimos Avances


A continuación se mencionan algunos adelantos de IA

  • "Quiero ir de Boston a San Francisco", dice el viajero a través de un micrófono. "¿Qué datos tiene para el viaje?", es la respuesta. El viajero explica que desea salir el 20 de octubre, en vuelo directo, con la tarifa más barata y regresar el domingo siguiente. PEGASUS, un programa para comprensión del lenguaje se hace cargo de todo y el resultado es una reservación confirmada que le permite al viajero ahorrar $894 del precio normal del boleto. No obstante que de diez palabras, este intérpre de lenguaje entiende mal una, es capaz de recuperarse de estos errores gracias a su conocimiento de la manera cómo se estructura un diálogo.




  • La atención de un analisla de la sala de Operaciones de Misiones en el Laboratorio de Propulsión de Jets de repente se concentra. En la pantalla ha aparecido un mensaje en rojo que indica la presencia de una "anomalia" en la nave espacial Voyager, que está en algun lugar de la inmediacion de Neptuno. Afortunadamente, el analista logra corregir el problema desde tierra. En opinión del personal de operaciones, de no haber sido por MARVEL, este problema habría escapado de su atención MARVEL es un sistema experto en tiempo real que monitorea el copioso volumen de datos transmitidos desde la nave espacial, manejando tareas de rutina y alertando a los analistas sobre los problemas más serios.



  • Por una autopista en las afueras de Pittsburgh, a una velocidad de 80 kph, el hombre que viaja en el asiento del conductor de una camioneta se ve completamente relajado. Es natural: durante los últimos 135 kilómetros recorridos no ha tocado ni el volante, ni el freno ni el acelerador. De hecho, el verdadero conductor es un sistema de robótica que obtiene información de unas cámaras de video, un sonar y de telémetros de láser instalados en la camioneta. El sistema combina estas entradas con experiencia obtenida durante viajes de entrenamiento y eficientemente determina cómo conducir el vehículo.




  • Desde una cámara suspendida en el semáforo de un crucero, el monitor de tráfico observa el panorama- Si alguien estuviera despierto y observara el monitor principal, leería: "Citrben 2CV está dando vuelta a la Plaza de la Concordia en los Campos Elíseos-" "Camión carguero grande de factura desconocida se ha detenido en la Plaza de la Concordia", y así durante toda la noche. Ocasionalmente leerían: "Grave incidente en la Plaza de la Concordia, una camioneta que avanzaba velozmente se estrelló con un motociclista" y se haría una llamada automática a los servicios de emergencia [1 Stuart]



1.9 Objetivos de la IA

Los objetivos de la IA se pueden resumir en lo siguiente:




  1. Hacer máquinas más inteligentes

  2. Comprender qué es la inteligencia

  3. Hacer las máquinas más útiles.



1.10 Aplicaciones de la IA





  1. En los negocios, las computadoras pueden ayudarnos a localizar información pertinente, programar labores, asignar recursos y detectar regularidades notables en las bases de datos.

  2. En ingeniería, las computadoras pueden ayudarnos a desarrollar estrategias de control más efectivas, crear mejores diseños, explicar decisiones tomadas con anterioridad e identificar riesgos futuros.

Algunas de las aplicaciones de la IA.


Tareas de la vida real

  • Percepción

  • Visión

  • Habla

  • Comprensión

  • Generación

  • Traducción

  • Sentido común

  • Control de un robot


Tareas formales

  • Juegos

  • Ajedrez

  • Backgammon

  • Damas

  • Matemáticas

  • Geometría

  • Lógica

  • Cálculo integral

  • Demostración de las propiedades de los programas


Tareas de los expertos

  • Ingeniería

  • Diseño

  • Detección de fallos

  • Planificación de manufacturación

  • Análisis científico

  • Diagnosis médica

  • Análisis financiero


1.11 Técnicas de la IA

Una técnica de IA es un método que utiliza conocimiento representado de tal forma que:




  • El conocimiento represente generalizaciones. En lugar de representar cada situación individual, las situaciones que comparten propiedades importantes se agrupan, es decir, se generalizan.




  • Debe ser comprendido por las personas que lo proporcionan. La manera de visualizar el conocimiento almacenado en una máquina debe ser entendible por las personas fácilmente, independientemente de su forma de representación en la máquina.




  • Debe poder modificarse fácilmente para corregir errores y reflejar los cambios en el mundo y en nuestra visión del mundo.




  • Debe poder usarse en gran cantidad de situaciones, aun cuando no sea totalmente preciso o completo.




  • Debe superar su propio volumen al acotar el rango de posiblidades que normalmente deben ser consideradas.



1.12 Diferencia entre I.A. y programación convencional.


  • En el procesamiento de datos tradicional el sistema procesa el contenido de variables. Los sistemas de IA pueden hacer esto y tambien pueden manipular simbolos independientemente de sus valores, lo que permite resolver un problema cuando el valor de una variable no se conoce.

  • En procesamiento de datos tradicional es el programador el que determina todas las relaciones entre los símbolos, pero en el procesamiento de simbolos en un programa basado en IA el programa puede determinar las relaciones entre los simbolos que no estan establecidas explicitamente por el programador. [3 Mochón]


1.13 Areas de investigación
La investigación en Representación del Conocimiento busca el descubrimiento de métodos expresivos y eficientes de representar información sobre aspectos del mundo real. La representación del conocimeinto es importante ya que, en alguna medida, cualquier actividad computacional inteligente depende de ella. Los sistemas de representación del conocimiento ofrecen los beneficios de las bases de datos orientadas al objeto y las capacidades de las bibliotecas de hipertextos, proveyendo una mayor expresividad y algoritmos más poderosos para recuperación y actualización de información.

Los métodos de aprendizaje automático extienden las técnicas estadísticas con el fin de posibilitar la identificación de un amplio rango de tendencias generales a partir de un conjunto de datos de entrenamiento. Estos métodos pueden ser utilizados para la construcción de interfaces adaptables a las necesidades de usuarios individuales, programas que descubran regularidades importantes en el contenido de bases de datos distribuidas y sistemas de adquisición automática de modelos de las capacidades de nuevos servicios.



El campo de la planificación enfrenta el desarrollo de algoritmos que construyen y ejecutan automáticamente secuencias de comandos primitivos con el fin de alcanzar ciertas metas de alto nivel. A través del razonamiento sobre modelos formales de las capacidades y contenidos de los servicios de red y las bases de datos, los sistemas de planificación inteligente permiten enfocar las actividades de recolección de información en direcciones beneficiosas. Ya que los sistemas de planificación toman como entrada una especificación declarativa de algún objetivo, ellos también pueden utilizarse en el mejoramiento de las interfaces, permitiendo a los usuarios especificar lo que éstos desean hacer, y luego computando las acciones requeridas para alcanzar el objeetivo y determinando cuándo éstas deben ser ejecutadas.

Los trabajos en el área de razonamiento posible hacen uso de principios estadísticos para desarrollar codificaciones de información incierta. En esta área se han desarrollado algoritmos para soportar razonamiento diagnóstico, inferencias causales y evaluación de compromisos entre el costo de un plan y la satisfacción de los objetivos.Las cnicas de razonamiento posible pueden ser aplicadas al desarrollo de sistemas de ayuda que utilizan registros de comportamiento para construir perfiles probabilísticos de los objetivos del usuario y a las evaluación de compromisos entre objetivos conflictivos del usuario.

El estudio de las arquitecturas de agentes busca la integración de otras áreas de la IA con el objeto de crear agentes inteligentes, entidades robustas, capaces de comportamiento autónomo y en tiempo real. Potenciales aplicaciones de estos agentes son los asistentes personales, consejeros y gas en el desarrollo de proyectos y el aprendizaje.


La investigación sobre coordinación y colaboración multiagentes ha permitido el desarrollo de cnicas para la representación de las capacidades de otros agentes y la especificación del conocimiento necesario para la colaboración entre éstos. El desarrollo de algoritmos de negociación posibilita la identificación de áreas potenciales de interés compartido entre agentes y la computación de acuerdos que incrementan la utilidad para todos los participantes, aspecto crucial en el caso de redes de agentes artificiales interconectados y sistemas más flexibles de comunicación hombre-máquina.

El desarrollo de ontologías persigue la creación de catálogos de conocimeinto explícito, formal y multipropósito que pueda ser utilizado por sistemas inteligentes. Por ejemplo, un catálogo sobre aeronautica, contendrá definiciones de conceptos tales como aviones, alerones y aeropuertos. La creación de sistemas de vocabulario compartido es immportante ya que provee las conceptualizaciones y conocimiento bpasico requerido para la comunicación y colaboración entre distintos agentes, tanto humanos como automatizados. El trabajo en desarrollo de ontología difiere del de representación del conocimiento en que este último está centrado en la forma de los métodos de representación y en los métodos que utilizan dichas formas, mientras que el primero se centra en el contenido.

Los campos de procesamiento de voz y lenguaje buscan la creación de sistemas que se comunican con la gente en lenguajes naturales (Ej: Español escrito y/o hablado). Los sistemas de procesamiento de voz podrían revolucionar las interfaces de usuario, especialmente en el campo de la computación mobil. El análisis de textos podría permitir el desarrollo de mecanismos de indexación y recuperación de información más eficientes.



La investigación en síntesis y comprensión de imágenes lleva a la producción de algoritmos para el análisis de fotografías, diagramas y videos a como también de técnicas para el despliegue visual de información cuantitativa y estructurada. Entre las potenciales aplicaciones en este ámbito se encuentran la extraxión de contenido semántico para uso en el examen y búsqueda de imágenes, el desarrollo de esquemas de compresión inteligentes para el almacenamiento y transmisión de imágenes biomédicas y la generación de escenas artificiales realistas a partir de modelos extraidos de imágenes del mundo real.
1.14 PERSPECTIVA HISTÓRICA DE LA INTELIGENCIA ARTIFICIAL
1.14.1 Neuricibernética
La inteligencia artificial comenzó siemdo computación neuronal cuando en 1943 Warren S. McCulloch y Walter Pitts introducen el primer modelo formal al que en la actualidad llamaríamos circuito secuencial mínimo.

Las ideas básicas de esta época aparecen bajo el nombre de neurocibernética y si basan en considerar que los seres vivos y las máquinas pueden ser comprendidos usando los mismos principios organizacionales y las mismas herramientas formales. Los tres trabajos de 1943, que podemos considerar fundacionales, fueron:
en Conducta, propósito y teleología (de Rosemblueth, Wiener y Bigelow) se introducen tres conceptos importantes en inteligencia artificial: la realimentación como principio organizacional, la computación por propósitos y la idea de información como pura forma, separable de la señal física que la transporta.
en Un cálculo lógico de las ideas inmanentes en la actividad nerviosa(de Warren S. McCulloch y Walter Pitts), sobre redes neuronales formales, se inicia la Teoría Neuronal Del Conocimiento; se buscan las redes de procesadores capaces de reconocer, recordar cooperar, aprender o autoorganizarse. En esta primera etapa de la inteligencia artificial se busca la solución de los problemas a niver físico (donde estructura y función coinciden). Se inicia la teoría modular de autómatas y se usa la gica (determinista y probabilística) para representar el conocimiento.

en la naturaleza de la explicación (de K. Craik) se interpreta la actividad del sistema nervioso en términos de un conjunto de procesos encaminados a construir una representación interna del medio (modelo) y usarla para predecir. Craik contribuyó a la moderna inteligencia artificial con dos aportaciones clave: razonamiento abductivo y espacios de representación.



La inferencia en inteligencia artificial está asociada al uso individual o combinado de tres tipos de razonamiento:

la deduccn lógica: de parte de un conjunto de fórmulas (axiomas o validez general) y sobre ellas se aplican un conjunto de reglas o procedimientos de demostración que nos permiten obtener nuevas fórmulas válidas.

la inferencia inductiva usa pistas (heurísticas) con el conocimiento del dominio para pasar de lo particular a lo general. Nunca podemos garantizar la complitud y certeza de la inferencia en este caso.

en el razonamiento abjuctivo se parte de una conclusn conocida y se busca un hecho que la explique ( como en los diagnósticos médicos)




El segundo punto de la obra de Craik es la propuesta de un mecanismo de razonamiento por analogía en el modelo del medio donde la implicación formal es el equivalente a la causalidad en el mindo físico. Distinga Craik tres procesos:

Traslación de los procesos esternos a símbolos en un espacio de representación.

Obtención de otros símbolos mediante inferencia en el modelo del medio que paraleliza la causalidad externa.

Retraslación de esos símbolos transformados al dominio de sus referentes externos



(predicción).

1.14.2 computación: de Platón a Turing
Dreyfus dugiere que la inteligencia artificial comenzó alrededor del año 450 a. C. cuando, de acuerdo con Platón, crates pregunta a Euthyphro por un conjunto de reglas de decisión definidas forma tan precisa que en cada momento pudiéramos calcular la respuesta del sistema aplicando esas reglas a la entrada.
Luego Descartes (1596-1650) intenta formalizar el razonamiento usando los procesos enumeración, deducción e intuición (intuitus que es el más difícil de mecanizar). A mismo Leibniz y Boole (hacia 1850) trabajan sobre la búsqueda de un lenguaje simbólico.
Con von Neumann se avanza en arquitectura de computadores, teoría modular de autómatas y redes neuronales y teoría del cerebro. Su contribución a la teoría de autómatas y a la inteligencia artificial conxionista no fue sólo a nivel formal, sino que planteó cuestiones fundamentales como son:

- Reformulando la máquina de Turing en términos de autómatas celulares

- Autoprogramación (autómatas que diseñan otros autómatas)

- Autorrproducción y evolución (constructores universales que se reproducen)

- Tolerancia a fallos y establildad lógica ante cambios de función local

Finalmente, llegamos a Turing y sus dos contribuciones básicas:

- Un Modelo Computacional Universal (la máquina de Turing)

- Un Procedimiento Experimental de Medir la Inteligencia Artificial de un Programa (test de Turing)


1.14.3 Búsqueda heurística y dominios formales
el primer trabajo fue el programa Logic Theorist que da origen a toda la rama del rezonamento automático que persisite en la inteligencia artificial, reforzado por el principio de resolución de Robinson y sus refinamientos posteriores, incluyendo la creación del lenguaje Prolog.
Comienza la preocupación por lenguajes para procesar información iniciándose el camino hacia el Lisp.Otro trabajo representativo es el programa GPS (Solucionador General de Programas) con un intento de dotarlo de capacidad de aprendizaje y autoorganización; es un programa que incorpora medios heurísticos para resolver problemas.
Todos los trabajos de esta primera época se centraron en problemas propios de dominios formales, demostración de teoremas, estrategias heurísticas y problemas de juegos, planificación de acciones, etc.
A mediadios de los sesenta aparecen cambios graduales acercándose más a los problemas del mundo real (dando más importancia al conocimiento específico del dominio y a los problemas asociados a su representación).
Menciónespecial merece el trabajo de McCarthy sobre programas con sentido común. Un programa posee sentido común si deduce de forma automática y por mismo una clase suficientemente amplia de consecuencias inmediatas de cualquier cosa que se le dice y que él ya conoce.
1.14.4 énfasis en el conocimiento (197x-198x)
Esta época está marcada por el predominio de los sistemas basados en el conocimiento (SBC) y, en particular, por los sistemas expertos (SE). Es una época dominada por dos preocupaciones:
a. Énfasis en la representación computacional del conocimiento para tareas del mundo real. El conocimiento específico del dominio es poder.

b. Selección de tareas técnicas en dominios estrechos donde se separa el conocimiento de sus mecanismos de aplicación (inferencia).


Representación del conocimiento
La conclusión de esta etapa es una propuesta de representación modular e híbrida que incluye aspectos de los cuatro procedimientos básicos: lógica, reglas, redes asociativas y marcos

(objetos estructurados).

Sistemas basados en el conocimiento (SBC) y sistemas expertos (SE)

Cuando en un sistema se hace uso intensivo del conocimiento del dominio y se separa de los mecanismos que controlan su uso en inferencia, decimos que tenemos un SBC. Dentro de un SBC hay un grupo de sistemas en los que el conocimiento procede de un experto humano especialista en una tarea concreta y un dominio técnico; decimos entonces que tenemos un SE. Las características fundamentales de un SE son:



- Dominio reducido

- Competencia en su campo

- Separación conocimiento/inferencia

- Capacidad de explicación

- Flexibilidad en el diálogo

- Tratamiento dela incertidumbre
En mitad de los sesenta, los resultados de los trabajos de Stanford mostraron las características básicas en todos los SE:
1. selección de un dominio limitado del conocimiento científico-cnico (el programa alcanza niveles de competencia a los del experto humano)

2. evidencia de que el conocimiento esencial no es de carácter general sino específico del dominio


3. separación entre el conocimiento y el mecanismo de aplicación de ese conocimiento

(inferencia) con la posibilidad de ampliar o modificar el conocimiento que posee el sistema, sin tener que modificar los mecanismos de inferencia

4. validez de las reglas como forma de representación del conocimiento, sin necesidad de modelar el proceso de pensamiento del experto humano



Y a partir de otro trabajo:

5. validez del razonamiento por encadenamiento de reglas

6. tratamiento del problema de la incertidumbre mediante mecanismos sencillos y eficientes que combinan distintos factores de certeza

7. capacidad de explicación del razonamiento seguido para alcanzar la meta que propone

8. mención de conceptos que se consolidaron más tarde, tales como la metarreglas

(reglas que explican como utilizar otras reglas) y la adquisición de conocimiento como tarea genérica en inteligencia artificial.

En la actualidad las tendencias en el campo de los SE son:
1. Desarrollos de SE con una metodología razonablemente establecida, usando entornos comerciales y aceptando los me´todos usuales de representación e inferencia

2. Desarrollos teóricos en temas frontera relacionados con la extensión de los métodos de representación y razonamiento



3. Énfasis en el aprendizaje y renacimiento del conexionismo

1.15 DESAFÍOS CNICOS EN LA COMPUTACIÓN DEL SIGLO XXI.
Los tres desafíos más importantes en el desarrollo de la computación del siglo XXI son: la facilidad de uso, la flexibilidad de la infraestructura computacional y la disponibilidad de herramientas de desarrollo cada vez más poderosas.

Facilidad de uso.
Los sistemas computacionales actuales son complejos y difíciles de utilizar, aún por expertos. Las interfaces a dichos sistemas requieren que los usuarios memoricen comandos crípticos (Ej : UNIX), y sequencias de selección de menús (Ej: Netscape), debiendo adaptarse a las restricciones de dichos sistemas.
Los sistemas del futuro deberán incorporar inteligencia, permitiendo una adaptación a las habilidades y patrones de uso de cada usuario. Una interfaz inteligente ayudará a las personas a encontrar lo que ellas deseen, hará lo que éstas deseen cuando lo deseen, en forma natural y sin requerir de un conocimiento de detalles irrelevantes.
Una mefora natural para tales interfaces la constituye un agente software: un agente inteligente entendido como una entidad capaz de comportamiento autónomo, orientado a objetivos dentro de un ambiente particular, generalmente al servicio de metas de mayor escala externas a mismo, que actúa como asistente personal del usuario.

Los usuarios desean comunicarse con estos agentes de maneras flexibles y familiares: utilizando su idioma nativo (Ej: Español), dibujando diagramas o proporcionando ejemplos concretos. En general, deberán ser capaces de comprender una gama de comandos lo sificientemente expresiva como para que los usuarios puedan construir consultas y peticiones sin tener que aprender o estar limitados por un lenguaje artificial de consulta/comando.
Dichos agentes orientados a objetivos permitin a los usuarios establecer qué desean lograr y, automáticamente, determinarán cómo y cuándo alcanzar el objetivo. También deberán ser cooperativos, colaborando con el usuario a refinar solicitudes incorrectas o incompletas. Más aún, los agentes software personales deberán poseer la habilidad de adaptación a los distintos usuarios en obediencia a órdenes directas y aprendiendo de su experiencia con ellos.
Infraestructuras flexibles.
Los gas turísticos y mapas constituyen ayudas en las redes viales de una nación. Del mismo modo, el desplazarse a través de las carreteras de la información requiere de gas y apoyos tanto para los agentes software, como para los usuarios. La escala, cobertura y heterogeneidad de los repositorios de información: innumerables tópicos, múltiples formatos que incluyen lenguajes humanos y artificiales, imágenes y video digital, audio, modelos geométricos, ecuaciones matemáticas y relaciones en bases de datos, son algunos de los elementos que contribuyen a la complejidad del problema.
Uno de estos apoyos son los servicios de administración de datos y conocimiento que permiten a los consumidores localizar pidamente información útil y recursos software desde los repositorios de información distribuidos en todo el mundo.
Otro aspecto a considerar es que datos que son similares en contenido pueden diferir significativamente en su forma y en las operaciones que es posible realizar sobre ellos. Los servicios de integración y traducción de datos podrían ser desarrollados de modo tal de permitir la conversión de información de un formato a otro considerando restricciones semánticas. Por ejemplo, un servicio de conversión financiera podría no sólo convertir Pesos a Dólares, sino también incorporar en la conversión costos agregados al proceso de cambio tales como derechos e impuestos.
Un tercer aspecto es el problema de la consistencia de la información contenida en los repositorios de información. Debido a su tamaño creciente y a su pida evolución, el chequeo de consistencia es humanamente imposible. El desarrollo de servicios de descubrimiento de conocimiento podria permitir el seguimeinto de la creación de nuevos bancos de información y la actualización de los repositorios existentes, a como también la indexación cruzada de tópicos relacionados de modo tal de posibilitar el descubrimiento de nuevas correlaciones y la confección de resúmenes.

Herramientas de desarrollo poderosas.
Hoy, las herramientas y lenguajes de programación hacen la construcción de software una tarea tediosa y proclive al error. Se requiere el desarrollo de herramientas y ambientes de desarrollo de software más poderosos que apoyen las distintas etapas del proceso de desarrollo: especificación, diseño, adaptación, construcción, evaluación y mantención
De qué modo la IA puede contribuir a enfrentar este desafio? Los siguientes son algunos posibles caminos:
Sistemas de prototipos pidos que combinen servicios para especificar y refinar diseños, con bibliotecas modulares conteniendo software ya desarrollado y conocimiento del mundo.

Ayudas inteligentes para la administración de proyectos que incluyan software orientado a promover la colaboración y la toma de decisiones distribuida, con capacidades de chequeo de la utilización de recursos y de apoyo a la (re)planificación bajo condiciones cambiantes.

Simulación distribuida y ambientes sintéticos para uso en educación, entrenamiento y prototipado computacional de productos.




Compartir con tus amigos:
1   2   3   4   5   6   7   8   9   ...   29


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos