Thursday, October 30, 2014

TEMA 1.3. HISTORIA DE LA INTELIGENCIA ARTIFICIAL

INTRODUCCIÓN

En el desarrollo de este capítulo conoceremos como ha sido la evolución de la IA desde sus inicios, la repercusión que ha tenido sobre otras ciencias y además como ha ayudado a la sociedad. El desarrollo de La IA  ha tenido muchos inconvenientes, durante algunos años se estancó, pero, luego de una época logro surgir nuevamente, ahora si como una ciencia muy bien definida.
Desde el comienzo de la IA han existido algunas personas que han formado una parte muy importante de la historia de la IA, así por ejemplo tenemos a Warren McCulloch y Walter Pitts (1943), que han sido reconocidos como los autores del primer trabajo referente a la IA, entre otros.

GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)





Nacimiento de la inteligencia artificial (1956)



Entusiasmo inicial, grandes esperanzas (1952-1969)


Los primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas limitaciones). Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que sólo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese algo remotamente inteligente. Muchos de la comunidad científica, prefirieron creer que una maquina nunca podría hacer una tarea. Pero, como era de esperarse, los investigadores de IA responderían a esto demostrando la realización de una tarea tras otra. John McCarthy se refiere a esta época como la era de «Mira, mamá, ahora sin manos!». Al temprano éxito de Newell y Simón siguió el del sistema de resolución general de problemas, o SRGP. A diferencia del Teórico Lógico, desde un principio este programa se diseñó para que imitara protocolos de resolución de problemas de los seres humanos. Dentro del limitado número de puzles que podía manejar, resultó que la secuencia en la que el programa consideraba que los sub-objetivos y las posibles acciones eran semejantes a la manera en que los seres humanos abordaban los mismos problemas. Es decir, el SRGP posiblemente fue el primer programa que incorporó el enfoque de «pensar como un ser humano».
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA. Herbert Gelernter (1959) construyó el demostrador de teoremas de geometría (DTG), el cual era capaz de probar teoremas que muchos estudiantes de matemáticas podían encontrar muy complejos de resolver. A comienzos 1952, Arthur Samuel escribió una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur. Con esto se echó por tierra la teoría de que los computadores sólo pueden hacer lo que se les dice su programa, ya que pronto aprendió a jugar mejor que su creador. El programa fue presentado en la televisión en febrero de 1956 y causó una gran impresión.
En el año de 1958, en un Laboratorio de IA del MIT, McCarthy definió el lenguaje de alto nivel Lisp, el cual se convertiría en el lenguaje de programación dominante en la IA. Lisp es el segundo lenguaje de programación más antiguo que se utiliza en la actualidad, ya que apareció un año después de FORTRAN. En este mismo año, McCarthy publicó un artículo titulado Programs with Common Sense, en el que describía el Generador de Consejos, un programa hipotético que podría considerarse como el primer sistema de IA completo, el cual tuvo un diseño igual que el Teórico Lógico y el Demostrador de Teoremas de Geometría, pero, a diferencia de los otros, manejaba el conocimiento general del mundo.
En 1963 McCarthy creó el Laboratorio de IA en Stanford. Su plan para construir la versión más reciente del Generador de Consejos con ayuda de la lógica sufrió un considerable impulso gracias al descubrimiento de Robinson del método de resolución (un algoritmo completo para la demostración de teoremas para la lógica de primer orden, Minsky tuvo a su cargo la supervisión del trabajo de una serie de estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia.

Algunos programas importantes


SAINT (1963a).- Programa creado por James Slagle, este programa fue capaz de resolver problemas de integración de cálculo en forma cerrada, problemas habituales en los primeros cursos de licenciatura.

ANALOGY (1968).- Creado por Tom Evans, programas que resolvía problemas de analogía geométrica que eran aplicadas en las pruebas de medición de inteligencia, parecidos al siguiente.

STUDENT (1967).- Cuyo creador fue Daniel Bobrow, es un programa que podía resolver problemas de álgebra del siguiente tipo:
“Si el número de clientes de Tom es dos veces el cuadrado del 20 por ciento de la cantidad de anuncios que realiza, y éstos ascienden a 45, ¿cuántos clientes tiene Tom?”

El mundo de los Bloques

Consiste en un conjunto de bloques sólidos colocados sobre una mesa (más frecuentemente, en la simulación de ésta), como se muestra en la siguiente ilustración. Una tarea típica de este mundo es la reordenación de los bloques de cierta manera, con la ayuda de la mano de un robot que es capaz de tomar un bloque cada vez que lo desee.


El mundo de los bloques fue el punto de partida para el proyecto de visión de David Huffman (1971), la visión y el trabajo de propagación con restricciones de David Waltz (1975), la teoría del aprendizaje de Patrick Winston (1970), del programa para la comprensión de lenguaje natural de Terry Winograd (1972) y del planificador de Scott Fahlman (1974).
El trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta área. El trabajo de Winograd y Cowan (1963) mostró cómo un gran número de elementos podría representar un concepto individual de forma colectiva, lo cual llevaba consigo un aumento proporcional en robustez y paralelismo. Los métodos de aprendizaje de Hebb se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff, 1960; Widrow, 1962), quien llamó adaUnes a sus redes, y por Frank Rosenblatt (1962) con sus perceptores. Rosenblatt demostró el famoso teorema del perceptrón, con lo que mostró que su algoritmo de aprendizaje podría ajustar las intensidades de las conexiones de un perceptrón para que se adaptaran a los datos de entrada, siempre y cuando existiera una correspondencia.

UNA DOSIS DE REALIDAD (1966-1973)

Desde el principio, los investigadores de IA hicieron públicas, sin timidez, predicciones sobre el éxito que les esperaba. Con frecuencia, se cita el siguiente comentario realizado por Herbert Simón en 1957:
“Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de re­ sumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pen­ sar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de re­ solver irá a la par que la capacidad de la mente humana para hacer lo mismo.”
El primer tipo de problemas surgió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de la materia objeto de estudio; obtenían resultados gracias a sencillas manipulaciones sintácticas.
La realidad es que para traducir es necesario contar con un conocimiento general sobre el tema, que permita resolver ambigüedades y así, precisar el contenido de una oración. La famosa retraducción del ruso al inglés de la frase «el espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida» es un buen ejemplo del tipo de dificultades que surgieron.
El segundo problema fue que muchos de los problemas que se estaban intentando resolver mediante la IA eran intratables. La mayoría de los primeros programas de IA resolvían problemas experimentando con diversos pasos hasta que se llegara a encontrar una solución.
El tercer obstáculo se derivó de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. Por ejemplo, en 1969, en el libro de Minsky y Papert, Perceptrons, se demostró que si bien era posible lograr que los perceptrones (una red neuronal simple) aprendieran cualquier cosa que pudiesen re­ presentar, su capacidad de representación era muy limitada.

SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER? (1969-1979)

El programa DENDRAL (Buchanan etal., 1969) constituye uno de los primeros ejemplos de este enfoque. Fue diseñado en Stanford, donde Ed Feigenbaum (discípulo de Herbert Simón), Bruce Buchanan (filósofo convertido en informático) y Joshua Lederberg (genetista ganador del Premio Nobel) colaboraron en la solución del problema de inferir una estructura molecular a partir de la información proporcionada por un espectrómetro de masas.
La trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular. En sistemas diseñados posteriormente se incorporaron también los elementos fundamentales de la propuesta de McCarthy para el Generador de Consejos, la nítida separación del conocimiento (en forma de reglas) de la parte correspondiente al razonamiento.
El siguiente gran esfuerzo se realizó en el área del diagnóstico médico. Feigenbaum, Buchanan y el doctor Edward Shortliffe diseñaron el programa MYCIN, para el diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente, MYCIN era capaz de hacer diagnósticos tan buenos como los de un experto y, desde luego, mejores que los de un médico recién graduado. Se distinguía de DENDRAL en dos aspectos principalmente. En primer lugar, a diferencia de las reglas de DENDRAL, no se contaba con un modelo teórico desde el cual se pudiesen deducir las reglas de MYCIN. Fue necesario obtenerlas a partir de extensas entrevistas con los expertos, quienes las habían obtenido de libros de texto, de otros expertos o de su experiencia directa en casos prácticos. En segundo lugar, las reglas deberían reflejar la incertidumbre inherente al conocimiento médico. MYCIN oontaba con un elemento que facilitaba el cálculo de incertidumbre denominado factores de certeza, que al parecer (en aquella época) correspondía muy bien a la manera como los médicos ponderaban las evidencias al hacer un diagnóstico.

LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA EL PRESENTE)

El primer sistema experto comercial que tuvo éxito, R1, inició su actividad en Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la elaboración de pedidos de nuevos sistemas informáticos. En 1986 representaba para la compañía un ahorro estimado de 40 millones de dólares al año. En 1988, el grupo de Inteligencia Artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino. DuPont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que le generaba ahorro de diez millones de dólares anuales aproximadamente. Casi todas las compañías importantes de Estados Unidos contaban con su propio grupo de IA, en el que se utilizaban o investigaban sistemas expertos. En 1981 los japoneses anunciaron el proyecto «Quinta Generación», un plan de diez años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta Estados Unidos constituyó la Microelectronics and Computer Technology Corporation (MCC), consorcio encargado de mantener la competitividad nacional en estas áreas. En ambos casos, la IA formaba parte de un gran proyecto que incluía el diseño de chips y la investigación de la relación hombre máquina. Sin embargo, los componentes de IA generados en el marco de MCC y del proyecto Quinta Generación nunca alcanzaron sus objetivos.
En su conjunto, la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988. Poco después de este período llegó la época llamada «El Invierno de la IA», que afectó a muchas empresas que no fueron capaces de desarrollar los extravagantes productos prometidos.

REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE)

Aunque la informática había abandonado de manera general el campo de las redes neuronales a finales de los años 70, el trabajo continuó en otros campos. Físicos como John Hopfield (1982) utilizaron técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes, tratando colecciones de nodos como colecciones de átomos. Psicólogos como David Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria basados en redes neuronales.
Aquellos modelos de inteligencia artificial llamados conexionistas fueron vistos por algunos como competidores tanto de los modelos simbólicos propuestos por Newell y Simón como de la aproximación lógica de McCarthy entre otros (Smolensky, 1988). Pue­ de parecer obvio que los humanos manipulan símbolos hasta cierto nivel, de hecho, el libro The Symbolic Species (1997) de Terrence Deacon sugiere que esta es la característica que define a los humanos, pero los conexionistas más ardientes se preguntan si la manipulación de los símbolos desempeña algún papel justificable en determinados modelos de cognición. Este interrogante no ha sido aún clarificado, pero la tendencia actual es que las aproximaciones conexionistas y simbólicas son complementarias y no competidoras.

IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE)

En los últimos años se ha producido una revolución tanto en el contenido como en la metodología de trabajo en el campo de la inteligencia artificial. Actualmente es más usual el desarrollo sobre teorías ya existentes que proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias experimentales más que intuición, y demostrar la utilidad de las aplicaciones en el mundo real más que crear ejemplos de juguete. La IA se fundó en parte en el marco de una rebelión en contra de las limitaciones de los campos existentes como la teoría de control o la estadística, y ahora abarca estos campos.
En términos metodológicos, se puede decir, con total seguridad, que la IA ya forma parte del ámbito de los métodos científicos. Para que se acepten, las hipótesis se deben someter a rigurosos experimentos empíricos, y los resultados deben analizarse estadísticamente para identificar su relevancia (Cohén, 1995). El uso de Internet y el compartir repositorios de datos de prueba y código, ha hecho posible que ahora se puedan contrastar experimentos.

EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995 HASTA EL PRESENTE)

Quizás animados por el progreso en la resolución de subproblemas de IA, los investigadores han comenzado a trabajar de nuevo en el problema del «agente total». El trabajo de Alien Newell, John Laird, y Paul Rosenbloom en Soar (Newell, 1990; Laird et al., 1987) es el ejemplo mejor conocido de una arquitectura de agente completa. El llamado «movimiento situado» intenta entender la forma de actuar de los agentes inmersos en entornos reales, que disponen de sensores de entradas continuas. Uno de los medios más importantes para los agentes inteligentes es Internet. Los sistemas de IA han llegado a ser tan comunes en aplicaciones desarrolladas para la Web que el sufijo «-bot» se ha introducido en el lenguaje común. Más aún, tecnologías de IA son la base de muchas herramientas para Internet, como por ejemplo motores de búsqueda, sistemas de recomendación, y los sistemas para la construcción de portales Web.

CONCLUSIÓN

La IA desde sus inicios ha tenido que enfrentar una serie de obstáculos, muchos de los cuales lograron estancarla durante algunos años, sin embargo gracias al esfuerzo y la dedicación que tuvieron muchos de los investigadores de IA, se ha logrado desarrollar de una forma increíble, y sobre todo de manera correcta.

Se puede decir que estos obstáculos le han permitido a la IA, perfeccionarse en las áreas en las que se encontraba sin salida, es decir, que le dieron el empujón necesario para que la IA sea lo que es hoy ben día, una ciencia  que a pesar de su avance sigue en desarrollo.


BIBLIOGRÁFICA




Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

No comments:

Post a Comment