Historia de la inteligencia Artificial

El término inteligencia artificial, también denominado para abreviar IA, se dijo por primera vez en Dartmouth en una reunión de investigadores, organizada por J. MacCarthy, interesados en la inteligencia artificial, la teoría de autómatas y de las redes neuronales.

Esta famosa reunión fue el núcleo central de la inteligencia artificial.

El encuentro se originó por los trabajos relacionados con la inteligencia artificial que se estaban haciendo.

Actualmente se considera que nació la IA gracias a W. McCulloh y M. Pitts(1943) con su trabajo que proponía un modelo de neuronas basado en 3 fuentes:

1. Conocimiento sobre fisiología y funcionamiento del cerebro,

2. lógica proposicional y

3. Teoría de Turing,

 

Años mas tarde (1951) se creó el primer ordenador neural SNARC.

Aunque otros trabajos que han influido en la IA, anteriormente, como en el campo de la filosofía, con los silogismos del famoso filosofo griego Aristóteles, en el campo de las matemáticas con al teoría de la decisión y la teoría de la probabilidad y finalmente en el campo de la psicología.

Unos años mas tarde, otra vez en Dartmouth, se consiguieron algunos progresos. Se construyeron programas, como el Analogy que resolvía problemas geométricos, el programa Student que resolvía problemas de álgebra y el mas conocido (GPS) General Problem Solver, otro programa creado por Allan Newell y Herbert Simon, que imitaba el razonamiento humano.

Samuel escribió un programa para jugar a los checkers y McCarthy (1958, MIT) creó el fantástico lenguaje de programación de quinta generación LISP y publicó un trabajo titulado Programs with Common Sense.

 

En la época de los 60
TODO SE TUERCE
para la IA

Jolín, después de todos estos éxitos, todo se frustra.

Se dieron cuenta de que los sistemas funcionaban en dominios limitados, conocidos como microworlds.

Y esto era debido a los 3 factores siguientes:

  1. Algunos sistemas no disponían del conocimiento del entorno de la aplicación o este era muy pequeño y únicamente consistía en algunas manipulaciones sintácticas simples. Se creo ELIZA, que era un sistema de manipulación sintáctica simple, que simulaba a un PSICÓLOGO.
  2.  Muchos problemas que se intentaban resolver eran problemas intratables, los llamados NP-complejos que son un tipo de algoritmo que necesita un tiempo que va creciendo a medida que se le meten datos. Mientras la cantidad de conocimientos era pequeña se podían resolver, pero cuando eran grandes «nanai de la China».
  3. El último factor era que algunas estructuras básicas que se utilizaban para generar una conducta inteligente tenían mucha limitación, como por ejemplo las limitaciones de los perceptores, que son un tipo de red neuronal, que desarrollaron Minsky y Papert y que no podían aprender la función OR exclusiva, el famoso XOR.

Hasta este momento la resolución de problemas se basaba en mecanismos muy caros de búsqueda general que intentaban parecerse al razonamiento.

Como por ejemplo Dijkstra con su famoso método del coste uniforme, el concepto de búsqueda heurística o el algoritmo A.

 

Se dieron cuenta de que era importante considerar el conocimiento del dominio de la aplicación y su estructura para que el acceso fuera eficiente y se pudieran crear sistemas para entornos reales y con esto se llegó al estudio de los métodos de representación del conocimiento, como por ejemplo: las redes semánticas y

En esos mismos años se trabajaba de juegos (checkers), orientados a incorporar algún tipo de aprendizaje.

Se crea en el 66 los arboles de decisión pero por clasificación y en el 70 se crea el algoritmo ID3  para construir estos árboles, en el 70 se desarrolla un programa de aprendizaje de descripciones de objetos complejos y se desarrolla el llamado espacio de versiones, mirar la línea del tiempo y autores.

 

 

Por fin ya en los 80, se re descubre el backpropagation, que lleva otra vez a la IA a retomar sus caminos de investigación

La construcción de aplicaciones para entornos reales obligó a tratar la imprecisión y desarrollar otros formalismos como los conjuntos difusos, es que si no en los juegos siempre ganaría la máquina!!!

Recalcar la teoría en esos años de Dempster-Shafer

Y entonces con todo esto a partir de los 80 se empezaron a crear los primeros sistemas comerciales y hoy en día la orientación de la IA es mas bien hacia la creación de sistemas cooperativos basados en agentes, como la recuperación de datos, visión por ordenadas y procesamiento del lenguaje natural, ya hay supertraductores!!!!

 

Bienvenida de nuevo IA!!