Los
primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas
limitaciones). Teniendo en cuenta lo primitivo de los computadores y las herramientas
de programación de aquella época, y el hecho de que sólo unos pocos años antes,
a los computadores se les consideraba como artefactos que podían realizar
trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese
algo remotamente inteligente. Muchos de la comunidad científica, prefirieron creer
que una maquina nunca podría hacer una tarea. Pero, como era de esperarse, los
investigadores de IA responderían a esto demostrando la realización de una
tarea tras otra. John McCarthy se refiere a esta época como la era de «Mira,
mamá, ahora sin manos!». Al temprano éxito de Newell y Simón siguió el del
sistema de resolución general de problemas, o SRGP. A diferencia del Teórico
Lógico, desde un principio este programa se diseñó para que imitara protocolos
de resolución de problemas de los seres humanos. Dentro del limitado número de
puzles que podía manejar, resultó que la secuencia en la que el programa
consideraba que los sub-objetivos y las posibles acciones eran semejantes a la
manera en que los seres humanos abordaban los mismos problemas. Es decir, el
SRGP posiblemente fue el primer programa que incorporó el enfoque de «pensar como un ser humano».
En
IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros
programas de IA. Herbert Gelernter (1959) construyó el demostrador de teoremas
de geometría (DTG), el cual era capaz de probar teoremas que muchos estudiantes
de matemáticas podían encontrar muy complejos de resolver. A comienzos 1952,
Arthur Samuel escribió una serie de programas para el juego de las damas que
eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un
amateur. Con esto se echó por tierra la teoría de que los computadores sólo
pueden hacer lo que se les dice su programa, ya que pronto aprendió a jugar
mejor que su creador. El programa fue presentado en la televisión en febrero de
1956 y causó una gran impresión.
En
el año de 1958, en un Laboratorio de IA del MIT, McCarthy definió el lenguaje
de alto nivel Lisp, el cual se convertiría
en el lenguaje de programación dominante en la IA. Lisp es el segundo lenguaje de programación más antiguo que se
utiliza en la actualidad, ya que apareció un año después de FORTRAN. En este mismo año, McCarthy
publicó un artículo titulado Programs with Common Sense, en el que describía el
Generador de Consejos, un programa hipotético que podría considerarse como el
primer sistema de IA completo, el cual tuvo un diseño igual que el Teórico
Lógico y el Demostrador de Teoremas de Geometría, pero, a diferencia de los
otros, manejaba el conocimiento general del mundo.
En
1963 McCarthy creó el Laboratorio de IA en Stanford. Su plan para construir la
versión más reciente del Generador de Consejos con ayuda de la lógica sufrió un
considerable impulso gracias al descubrimiento de Robinson del método de
resolución (un algoritmo completo para la demostración de teoremas para la
lógica de primer orden, Minsky tuvo a su cargo la supervisión del trabajo de
una serie de estudiantes que eligieron un número de problemas limitados cuya
solución pareció requerir inteligencia.
Algunos programas importantes
SAINT (1963a).-
Programa creado por James Slagle, este programa fue capaz de resolver problemas
de integración de cálculo en forma cerrada, problemas habituales en los
primeros cursos de licenciatura.
ANALOGY (1968).-
Creado por Tom Evans, programas que resolvía problemas de analogía geométrica
que eran aplicadas en las pruebas de medición de inteligencia, parecidos al
siguiente.
STUDENT (1967).-
Cuyo creador fue Daniel Bobrow, es un programa que podía resolver problemas de
álgebra del siguiente tipo:
“Si
el número de clientes de Tom es dos veces el cuadrado del 20 por ciento de la
cantidad de anuncios que realiza, y éstos ascienden a 45, ¿cuántos clientes
tiene Tom?”
El mundo de los Bloques
Consiste en un conjunto
de bloques sólidos colocados sobre una mesa (más frecuentemente, en la simulación
de ésta), como se muestra en la siguiente ilustración. Una tarea típica de este
mundo es la reordenación de los bloques de cierta manera, con la ayuda de la
mano de un robot que es capaz de tomar un bloque cada vez que lo desee.
El
mundo de los bloques fue el punto de partida para el proyecto de visión de
David Huffman (1971), la visión y el trabajo de propagación con restricciones
de David Waltz (1975), la teoría del aprendizaje de Patrick Winston (1970), del
programa para la comprensión de lenguaje natural de Terry Winograd (1972) y del
planificador de Scott Fahlman (1974).
El
trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta
área. El trabajo de Winograd y Cowan (1963) mostró cómo un gran número de
elementos podría representar un concepto individual de forma colectiva, lo cual
llevaba consigo un aumento proporcional en robustez y paralelismo. Los métodos
de aprendizaje de Hebb se reforzaron con las aportaciones de Bemie Widrow
(Widrow y Hoff, 1960; Widrow, 1962), quien llamó adaUnes a sus redes, y por
Frank Rosenblatt (1962) con sus perceptores. Rosenblatt demostró el famoso
teorema del perceptrón, con lo que mostró que su algoritmo de aprendizaje
podría ajustar las intensidades de las conexiones de un perceptrón para que se
adaptaran a los datos de entrada, siempre y cuando existiera una
correspondencia.
UNA DOSIS DE REALIDAD (1966-1973)
Desde
el principio, los investigadores de IA hicieron públicas, sin timidez,
predicciones sobre el éxito que les esperaba. Con frecuencia, se cita el
siguiente comentario realizado por Herbert Simón en 1957:
“Sin afán de
sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de re
sumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de
pen sar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará
rápidamente hasta que (en un futuro previsible) la magnitud de problemas que
serán capaces de re solver irá a la par que la capacidad de la mente humana
para hacer lo mismo.”
El
primer tipo de problemas surgió porque la mayoría de los primeros programas contaban
con poco o ningún conocimiento de la materia objeto de estudio; obtenían resultados
gracias a sencillas manipulaciones sintácticas.
La
realidad es que para traducir es necesario contar con un conocimiento general
sobre el tema, que permita resolver ambigüedades y así, precisar el contenido
de una oración. La famosa retraducción del ruso al inglés de la frase «el
espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es
bueno pero la carne está podrida» es un buen ejemplo del tipo de dificultades
que surgieron.
El
segundo problema fue que muchos de los problemas que se estaban intentando
resolver mediante la IA eran intratables. La mayoría de los primeros programas
de IA resolvían problemas experimentando con diversos pasos hasta que se
llegara a encontrar una solución.
El
tercer obstáculo se derivó de las limitaciones inherentes a las estructuras
básicas que se utilizaban en la generación de la conducta inteligente. Por
ejemplo, en 1969, en el libro de Minsky y Papert, Perceptrons, se demostró que
si bien era posible lograr que los perceptrones (una red neuronal simple)
aprendieran cualquier cosa que pudiesen re presentar, su capacidad de representación
era muy limitada.
SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER?
(1969-1979)
El
programa DENDRAL (Buchanan etal., 1969) constituye uno de los primeros ejemplos
de este enfoque. Fue diseñado en Stanford, donde Ed Feigenbaum (discípulo de
Herbert Simón), Bruce Buchanan (filósofo convertido en informático) y Joshua
Lederberg (genetista ganador del Premio Nobel) colaboraron en la solución del
problema de inferir una estructura molecular a partir de la información
proporcionada por un espectrómetro de masas.
La
trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso
que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades
de reglas de propósito particular. En sistemas diseñados posteriormente se
incorporaron también los elementos fundamentales de la propuesta de McCarthy
para el Generador de Consejos, la nítida separación del conocimiento (en forma
de reglas) de la parte correspondiente al razonamiento.
El
siguiente gran esfuerzo se realizó en el área del diagnóstico médico.
Feigenbaum, Buchanan y el doctor Edward Shortliffe diseñaron el programa MYCIN,
para el diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente,
MYCIN era capaz de hacer diagnósticos tan buenos como los de un experto y,
desde luego, mejores que los de un médico recién graduado. Se distinguía de
DENDRAL en dos aspectos principalmente. En primer lugar, a diferencia de las reglas
de DENDRAL, no se contaba con un modelo teórico desde el cual se pudiesen deducir
las reglas de MYCIN. Fue necesario obtenerlas a partir de extensas entrevistas
con los expertos, quienes las habían obtenido de libros de texto, de otros
expertos o de su experiencia directa en casos prácticos. En segundo lugar, las
reglas deberían reflejar la incertidumbre inherente al conocimiento médico.
MYCIN oontaba con un elemento que facilitaba el cálculo de incertidumbre denominado
factores de certeza, que al parecer (en aquella época) correspondía muy bien a
la manera como los médicos ponderaban las evidencias al hacer un diagnóstico.
LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA EL
PRESENTE)
El
primer sistema experto comercial que tuvo éxito, R1, inició su actividad en
Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la
elaboración de pedidos de nuevos sistemas informáticos. En 1986 representaba
para la compañía un ahorro estimado de 40 millones de dólares al año. En 1988,
el grupo de Inteligencia Artificial de DEC había distribuido ya 40 sistemas
expertos, y había más en camino. DuPont utilizaba ya 100 y estaban en etapa de
desarrollo 500 más, lo que le generaba ahorro de diez millones de dólares
anuales aproximadamente. Casi todas las compañías importantes de Estados Unidos
contaban con su propio grupo de IA, en el que se utilizaban o investigaban
sistemas expertos. En 1981 los japoneses anunciaron el proyecto «Quinta
Generación», un plan de diez años para construir computadores inteligentes en
los que pudiese ejecutarse Prolog.
Como respuesta Estados Unidos constituyó la Microelectronics and Computer
Technology Corporation (MCC), consorcio encargado de mantener la competitividad
nacional en estas áreas. En ambos casos, la IA formaba parte de un gran
proyecto que incluía el diseño de chips y la investigación de la relación
hombre máquina. Sin embargo, los componentes de IA generados en el marco de MCC
y del proyecto Quinta Generación nunca alcanzaron sus objetivos.
En
su conjunto, la industria de la IA creció rápidamente, pasando de unos pocos millones
de dólares en 1980 a billones de dólares en 1988. Poco después de este período llegó
la época llamada «El Invierno de la IA», que afectó a muchas empresas que no
fueron capaces de desarrollar los extravagantes productos prometidos.
REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL
PRESENTE)
Aunque
la informática había abandonado de manera general el campo de las redes neuronales
a finales de los años 70, el trabajo continuó en otros campos. Físicos como
John Hopfield (1982) utilizaron técnicas de la mecánica estadística para analizar
las propiedades de almacenamiento y optimización de las redes, tratando
colecciones de nodos como colecciones de átomos. Psicólogos como David
Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria
basados en redes neuronales.
Aquellos
modelos de inteligencia artificial llamados conexionistas fueron vistos por
algunos como competidores tanto de los modelos simbólicos propuestos por Newell
y Simón como de la aproximación lógica de McCarthy entre otros (Smolensky,
1988). Pue de parecer obvio que los humanos manipulan símbolos hasta cierto
nivel, de hecho, el libro The Symbolic Species (1997) de Terrence Deacon sugiere
que esta es la característica que define a los humanos, pero los conexionistas
más ardientes se preguntan si la manipulación de los símbolos desempeña algún
papel justificable en determinados modelos de cognición. Este interrogante no
ha sido aún clarificado, pero la tendencia actual es que las aproximaciones conexionistas
y simbólicas son complementarias y no competidoras.
IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE)
En los últimos años se ha producido una revolución tanto
en el contenido como en la metodología de trabajo en el campo de la inteligencia
artificial. Actualmente es más usual el desarrollo sobre teorías ya existentes
que proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o
sólidas evidencias experimentales más que intuición, y demostrar la utilidad de
las aplicaciones en el mundo real más que crear ejemplos de juguete. La IA se
fundó en parte en el marco de una rebelión en contra de las limitaciones de los
campos existentes como la teoría de control o la estadística, y ahora abarca
estos campos.
En términos metodológicos, se puede decir, con total
seguridad, que la IA ya forma parte del ámbito de los métodos científicos. Para
que se acepten, las hipótesis se deben someter a rigurosos experimentos
empíricos, y los resultados deben analizarse estadísticamente para identificar
su relevancia (Cohén, 1995). El uso de Internet y el compartir repositorios de
datos de prueba y código, ha hecho posible que ahora se puedan contrastar experimentos.
EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995 HASTA EL
PRESENTE)
Quizás animados por el progreso en la resolución de
subproblemas de IA, los investigadores han comenzado a trabajar de nuevo en el
problema del «agente total». El trabajo de Alien Newell, John Laird, y Paul
Rosenbloom en Soar (Newell, 1990;
Laird et al., 1987) es el ejemplo mejor conocido de una arquitectura de agente
completa. El llamado «movimiento situado» intenta entender la forma de actuar
de los agentes inmersos en entornos reales, que disponen de sensores de
entradas continuas. Uno de los medios más importantes para los agentes
inteligentes es Internet. Los sistemas de IA han llegado a ser tan comunes en
aplicaciones desarrolladas para la Web que el sufijo «-bot» se ha introducido
en el lenguaje común. Más aún, tecnologías de IA son la base de muchas herramientas
para Internet, como por ejemplo motores de búsqueda, sistemas de recomendación,
y los sistemas para la construcción de portales Web.
CONCLUSIÓN
La
IA desde sus inicios ha tenido que enfrentar una serie de obstáculos, muchos de
los cuales lograron estancarla durante algunos años, sin embargo gracias al
esfuerzo y la dedicación que tuvieron muchos de los investigadores de IA, se ha
logrado desarrollar de una forma increíble, y sobre todo de manera correcta.
Se puede decir que estos
obstáculos le han permitido a la IA, perfeccionarse en las áreas en las que se
encontraba sin salida, es decir, que le dieron el empujón necesario para que la
IA sea lo que es hoy ben día, una ciencia
que a pesar de su avance sigue en desarrollo.
BIBLIOGRÁFICA
Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea). EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.
García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.
Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.
Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.