Tuesday, December 2, 2014

TEMA 3.3. CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES

INTRODUCCIÓN

Una de las diferencias más grandes entre una red de neuronas biológica y una artificial es la complejidad con la que trabajan, una RNB tiene una gran complejidad, es decir puede resolver grandes problemas, mientras que la RNA trabaja con una complejidad bastante baja.
En este capítulo se conocerán las características más importantes de una red de neuronas artificiales y se procederá a hacer una comparación entre los dos tipos de redes neuronales que existen.

MARCO TEÓRICO

En el cerebro humano existen una gran red neuronal, conformada por miles de millones de neuronas las cuales se conectan formando una gran malla, con esta idea se ha pretendido que este es el punto clave para desarrollar verdadera inteligencia artificial, lo cual ha derivado en muchas investigaciones, que han permitido desarrollar varios modelos de redes neuronales artificiales.
Pero, aunque actualmente se tiene un gran avance tecnológico, el cerebro humano sigue siendo un gran misterio, por lo cual parece casi imposible crear una red similar a esta.
CARACTERÍSTICAS PRINCIPALES DE UNA RED NEURONAL ARTIFICIAL
Las redes neuronales artificiales poseen una serie de características que a pesar de ser muy importantes y de parecerse a las de una red biológica no llega a cumplir a cabalidad todo el proceso que esta realiza.
Entre las características más importantes de esta red tenemos las siguientes.
COMPARACIÓN ENTRE REDES NEURONALES ARTIFICIALES Y BIOLÓGICAS

El funcionamiento entre los diversos tipos de redes neuronales es muy diverso, aunque con ciertas similitudes, pero hasta la actualidad no se ha podido crear o llegar más allá de un 25% de semejanzas entre varias redes. A continuación se presentan las diferencias más importantes entre ellas.

CONCLUSIONES

Una red de neuronas biológicas es muy compleja de entender en cuanto a funcionamiento interno, además de que cuenta con millones de neuronas, las cuales tienen un sinnúmero de conexiones entre sí, mientras que en una red artificial es muy diferente ya que no se ha podido implementar un gran  número de neuronas artificiales, y estas solo se conectan a una siguiente.
En la red artificial se dan las conexiones en una sola dirección, es decir que la información no regresa, en cambio en una red biológica las conexiones se dan en forma de mallas, por lo cual es mucho más rápido conseguir una respuesta.

BIBLIOGRAFÍA

Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson education. Madrid. p 1-5.

Hilera, J y Martinez, V. 2000. Redes neuronales artificiales. Alfaomega. Madrid España.

Izurieta, F y Saavedra, C. 2000. Redes Neuronales artificiales. (En línea). ES. Consultado, 27 de Dic .2014. Formato PDF. Disponible en: www.uta.cl/charlas/volumen16/Indice/Ch-csaavedra.pdf

TEMA 3.2. MODELO COMPUTACIONAL

INTRODUCCIÓN

Los primeros programas de computadoras se guiaban mediante los algoritmos, diferencia principal de una maquina conexionista de una convencional, ya que la conexionista como su nombre lo indica, posee una serie de conexiones las cuales le permite tener una resolución de problemas de manera más eficaz y sin necesidad de tener un algoritmo que lo resuelva.
Dentro de este capítulo vamos a conocer la composición de un modelo computacional de redes neuronales, el funcionamiento de una neurona artificial, es decir, como reciben o envían información.

MARCO TEÓRICO

Una red neuronal artificial al igual que una biológica está formada por un sinnúmero de conexiones entre las neuronas artificiales que existan.
En la actualidad existen diversos modelos de redes neuronales y en cada uno de ellos se presenta una filosofía diferente, es decir cada modelo de red es creado para una o varias funciones en específico.


EL SISTEMA DE COMUNICACIÓN DE UNA RED NEURONAL ARTIFICIAL
El sistema de comunicación de una red neuronal artificial al igual que una biológica se compone de tres partes:
Los receptores (Patrones de Entradas).- O también llamada Capa de entrada, esta capa es en donde se presentan los datos a la red, las capas de entrada se comunican con las capas ocultas.
El sistema Nervioso (Capas Ocultas).- Estas capas ocultas como su nombre lo indica no tiene contacto con el exterior, sin embrago es en estas capas en donde se procesa la información recibida, las capas ocultas se comunican con las capas de salida o a otras capas ocultas.
Órganos Dianas o efectores (Patrones de Salida).- También llamadas capas de salida, estas capas son las encargadas de mostrar la información recibidas de las capas ocultas.
ESTRUCTURA BÁSICA DE LA RED

Como se menciono anteriormente una red neuronal artificial básica esta formada por una serie de capas, las primeras capas son denominadas capas de entrada y son las que reciben la información del medio, estas a su vez se comunican con las capas ocultas, las cuales no tienen contacto con el exterior, pero su función es de vital importancia ya que estas son las encargadas del procesamiento de la información que le envían las capas de entrada, una vez procesada la información las capas ocultas la envían a la capa de salida, las cuales se encargan de mostrar dicha información.
Como se puede apreciar en la imagen la estructura de la red neuronal es bastante simple aunque su funcionamiento es un poco más complejo.
APRENDIZAJE
El aprendizaje de una red de neuronas artificiales consiste en la determinación de los valores de los pesos para todas sus conexiones, que la capacite para la resolución eficiente de un problema. (Hilera, J y Martinez, V. 2000)
En esta red el aprendizaje se va dando paulatinamente cada vez que se introduzca un ejemplo dentro de la misma, la red guardara la información necesaria para poder en un futuro resolver un problema del mismo tipo sin necesidad de otro ejemplo.

CONCLUSIONES

La red de neuronas artificiales al igual que una biológica es la parte más importante en un agente, ya que es esta la que le permite resolver diversos tipos de problemas, aunque aún no se ha podido crear una red similar al cerebro humano se avanza en investigaciones para lograrlo algún día.
Para que la red artificial pueda funcionar de buena manera (en resolución de problemas), es necesario que esta tenga un tipo de aprendizaje, esto para evitar la implementación de nuevos módulos a cada momento.

BIBLIOGRAFÍA


Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson education. Madrid. p 1-5.

Hilera, J y Martinez, V. 2000. Redes neuronales artificiales. Alfaomega. Madrid España.

Basogain, X. 2010. Redes Neuronales Artificiales y sus aplicaciones. Escuela Superior de Ingenieria de Bilbao. En línea. Consultado 27 de diciembre 2014. Formato PDF.  Disponible en: http://www.ciberesquina.una.edu.ve:8080/2014_2/350_E.pdf

Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 1 de Dic 2014. Formato PDF. Disponible en: http://www.bookboon.com.

TEMA 3.1. FUNDAMENTOS DE LAS REDES NEURONALES


INTRODUCCIÓN

Una de las grandes metas propuestas por los científicos ha sido la de conocer como es el funcionamiento del cerebro humano, que es lo que nos diferencia de los demás animales y con esto poder llevar a cabo una verdadera Inteligencia Artificial.

Una red de neuronas está compuesta por una infinidad de neuronas las mismas que al conectarse logran pasar información y hacer que el cuerpo reaccione a los estímulos recibidos, es por esto que su estudio dentro de la I.A. es fundamental a la hora de hacer un agente inteligente.

En este capítulo conoceremos cual es el funcionamiento de una neurona estando sola o en conjunto (en red), y como hacen para recibir o enviar información.

MARCO TEÓRICO


Una red neuronal como su nombre lo indica es la unión entre dos o más neuronas que se relacionan entre si y transmiten información de manera rápida.

MODELO BIOLÓGICO DE UNA NEURONA


Como podemos ver en la imagen una neurona está compuesta de dendritas, núcleo, cuerpo celular y axón, al unirse una neurona con otra se forma la llamada sinapsis. La misión neuronas es recoger información del medio ambiente o del interior del cuerpo las elabora, almacena y transmite hacia otra neurona. Formando así la red neuronal como se ve en la imagen 2.


EL SISTEMA DE COMUNICACIÓN NEURONAL

El sistema de comunicación neuronal se compone de tres partes:

Los receptores.- Situados en las células sensoriales. Recogen información en forma de estímulos del ambiente o del interior del organismo.


El sistema Nervioso.- Recibe la información de los receptores, la elabora (codifica), las almacena, y las envía de forma elaborada a otras neuronas o a los órganos efectores.


Órganos Dianas o efectores.- Son aquellos que reciben la información y la interpretan en forma de acciones motoras, hormonales, etc, por ejemplo: (músculos y glándulas).


MISIÓN DE LAS NEURONAS

La misión de las neuronas comprende generalmente 5 funciones parciales:

*      Recoger la información que llega a ellas, dicha información puede proceder de otras neuronas o de los receptores, la información llega en forma de impulsos.

*      La información es integrada en un código de activación propio de la celula.

*      La información es trasmitida codificada y en forma de frecuencia de impulsos a través del axón.

*      Mediante las ramificaciones el axón efectúa la transmisión de los mensajes.

*      En la terminal se transmite los impulsos a otras neuronas o a los órganos diana.


CONCLUSIONES


El estudio de las redes neuronales es un pilar fundamental dentro de la I.A. ya que nos permite conocer cómo se da el comportamiento en los seres racionales (personas), y con ello se da un gran paso para la creación de agentes inteligentes.

Al conocer el funcionamiento biológico de una neurona podemos construir réplicas exactas de estas para adaptarlas a los agentes y que estos razonen y puedan comportarse de manera inteligente, es decir podrá actuar como un humano.

BIBLIOGRAFÍA


Viñuela, P y Galván, I. 2004. Redes de Neuronas artificiales. Un enfoque práctico. Pearson education. Madrid. p 1-5.

Hilera, J y Martinez, V. 2000. Redes neuronales artificiales. Alfaomega. Madrid España.

Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.









Monday, November 17, 2014

TEMA 2.3. LA NATURALEZA DEL ENTORNO


INTRODUCCIÓN


El funcionamiento de los agentes inteligentes, depende de muchos factores entre los cuales se encuentra su entorno y la naturaleza del mismo, es muy importante conocer cuál será el entorno en el que se desenvolverá el agente, para de esta forma pueda realizar todas las acciones de manera correcta.

En el desarrollo de este tema se conocerán los diversos tipos de entornos en los cuales va a interactuar el agente, cuáles serán las percepciones y las acciones posibles que tomara el agente, pero tomando en cuenta cual es la naturaleza del entorno en el cual se desarrolla.


ESPECIFICACIÓN DEL ENTORNO DE TRABAJO

El medio ambiente que influye un comportamiento del agente puede ser influenciado por el mismo agente. Siempre se ha tenido la tendencia a pensar que el medio ambiente es el que influye sobre el agente, pero se puede decir que la influencia es bidireccional, es decir el agente altera el ambiente y al mismo tiempo se altera el comportamiento del agente. (Grobstein, 2005).

El entorno de trabajo está compuesto de las medidas de rendimiento, el entorno en sí, los sensores y los actuadores, todo esto es conocido con las siglas REAS (Rendimiento, Entorno, Actuadores, Sensores), para poder realizar el diseño de un agente se debe primeramente especificar cuál será el entorno de trabajo de la forma más completa posible.

A continuación se presenta una tabla con la descripción REAS del Agente Taxista:


 PROPIEDADES DE LOS ENTORNOS DE TRABAJO

Un entorno puede tener varios atributos o propiedades desde el punto de vista del agente.  A continuación se presenta una serie de atributos que se pueden presentar en el entorno de trabajo.


Ejemplos de los entornos según sus atributos.

Ejemplo de entorno total y parcialmente observable.


Ejemplos de entorno determinista, estocático y estratégico.


Ejemplos de entorno episódico y secuencial.

Ejemplos de entorno estático y dinámico.

Ejemplos de entorno discreto y continuo.

Ejemplos de entorno agente simple y multi - agente.


CONCLUSIÓN

Es muy importante conocer cuál es el ambiente (entorno) en el que se va a desarrollar el agente, saber cuáles son sus propiedades o atributos, esto con la finalidad de que el agente pueda realizar sus funciones (acciones) de una forma adecuada.

Un entorno puede tener muchos atributos, al ser de este tipo se puede decir que el agente va a ser capaz de realizar muchas acciones y que las realizara de manera correcta, además si el agente es autónomo, su capacidad ira incrementando a medida que avance su desenvolvimiento con el medio (entorno).

BIBLIOGRAFÍA


Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

Grobstein, P. 2005. Exploring Emergence. The world of langton’s Ant :Thinking about puporse. (En Línea).  EC. Consultado, 7 de Nov. 2014. Disponible en http://www.serendip.brynmawer.edu.










Wednesday, November 12, 2014

TEMA 2.2. BUEN COMPORTAMIENTO: EL CONCEPTO DE RACIONALIDAD


INTRODUCCIÓN


Un Agente racional es aquel que hace lo correcto, pero hacer lo correcto no significa no equivocarse, pensar racionalmente es tomar una decisión que aparentemente es la mejor en la circunstancia en la que nos encontramos, pero no por esto significa es la decisión tomada ha sido correcta.
En este capítulo conoceremos temas importantes como la racionalidad, la omnisciencia, el aprendizaje y la autonomía, todos ellos necesarios dentro del desarrollo de los sistemas inteligentes.

RACIONALIDAD

 La racionalidad en un momento determinado depende de cuatro factores:
·         La medida de rendimiento que define el criterio de éxito.
·         El conocimiento del medio en el que habita acumulado por el agente.
·         Las acciones que el agente puede llevar a cabo.
·         La secuencia de percepciones del agente hasta este momento.

Es decir que al pensar racionalmente el agente debe definir o medir el éxito que tendremos al realizar una acción, también debemos tener en cuenta el medio ambiente en el que se encuentra el agente, saber cuáles son las posibles acciones que puede realizar y por ultimo hacer un análisis de todas las percepciones recibidas hasta ese momento, en base a todo ello el agente puede tomar una decisión racional. En un ejemplo. Un taxista automático.


En este ejemplo se puede decir que el taxista piensa de forma racional, sin embargo puede que una decisión tomada no sea la mejor, por ejemplo en esa ruta ocurrió un accidente y la carretera está cerrada, entonces el taxi debe volver a tomar otra ruta, lo cual conlleva a una pérdida de tiempo.


OMNISCIENCIA, APRENDIZAJE Y AUTONOMÍA


Se debe tener mucho cuidado entre la racionalidad y la omnisciencia, ya que son dos conceptos muy diferentes, por una parte al tomar una decisión de manera racional, por ejemplo cruzar la calle si no hay vehículos puede que sea correcto, pero no sabemos qué pasará mientras estamos cruzando la calle, en cambio la omnisciencia conoce de manera anticipada el efecto de su acción, es decir que va a pasar luego, por lo que esto es muy poco probable.

Se dice que un agente racional debe aprender de sus acciones, es decir toma información del medio y las almacena, de esta forma sabrá como actuar frente a situaciones similares. Esta propuesta no solo implica que el agente recopile información, sino más bien que aprenda lo máximo posible de su entorno.

Un agente racional debe contar con autonomía de esta forma no va a depender de los conocimientos dados por su diseñador, es importante que estos agentes cuenten con esta característica para de esta manera poder aprender de las percepciones recibidas, un agente al contar con autonomía va a ser mucho más eficiente, nuevamente tomamos el ejemplo del taxista, si es autónomo, puede guardar rutas alternas, si encontró un obstáculo (muros) que no estaban puede mejorar el servicio.

A continuación se presenta un ejemplo en el que se puede ver que el aprendizaje y la autonomía, hacen mucho más eficaz el desarrollo de acciones del agente.

Supongamos que el taxista automático, va por una carretera en la que anteriormente no había muros, va rápido y de pronto se encuentra con un obstáculo (muro), deberá frenar de manera rápida para evitar un mal golpe, si el taxista no es autónomo, es decir no puede aprender, nunca va a poder frenar a tiempo, en cambio si ya sabe que en ese lugar existe un muro, entonces podrá saber que debe bajar la velocidad”. 
En este caso nos damos cuenta que es muy necesario que el agente cuente con autonomía.

CONCLUSIÓN


El pensar racionalmente no significa no cometer errores, sin embargo se puede aprender de ellos.

Una de las características necesarias que debe tener un agente racional es el aprendizaje, ya que si comete un error puede guardar esa información (percepción), y de esta manera no hacer lo mismo otra vez.

Por esto es necesario que los agentes racionales cuenten con autonomía, es decir no sean dependientes de la información dada por sus diseñadores, ellos deben aprender de sus percepciones y de las acciones que realicen.

BIBLIOGRAFÍA

Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

TEMA 2.1. AGENTES Y SU ENTORNO

INTRODUCCIÓN

Los Agentes Inteligentes o Racionales son el centro de la Inteligencia Artificial, debido a que son estos los que nos permiten conocer si los avances de  la IA van por buen camino, es decir, si estos responden de la manera deseada.

En este capítulo conoceremos un poco más sobre los agentes y su entorno y cuáles deberían ser las acciones que tomen estos de acuerdo a las percepciones obtenidas del medio.
“Agents represent the most important new paradigm for software development sincce object-orientation” (McBurney et al, 2004)

MARCO TEÓRICO


¿Qué es un Agente?


Históricamente, una de las primeras áreas enfocadas dentro de la IA ha sido la construcción de sistemas inteligentes, tal y como indican Russell y Norving, El concepto de Agente racional es un tema central para tener una aproximación a lo que es la IA. Es por esto que los agentes que razonan son también conocidos como Inteligentes. (Teahan, 2010).

Russell, S y Norving, P. 2004, indican que un Agente es cualquier cosa que sea capaz de recibir percepciones del medio ambiente (mediante sensores), y además actuar en dicho ambiente con los actuadores (elementos que reaccionan frente a un estímulo realizando una acción). Imagen 1 y 2.





Como nos podemos dar cuenta en la imagen los Agentes reciben una percepción del medio, las cuales llegan por medio de los sensores, luego el Agente las procesa y después pasa a los actuadores quienes envían acciones al medio ambiente de acuerdo a lo percibido. Por ejemplo, el Agente peatón: El peatón va a cruzar la calle, pero en ese instante va cruzando un carro, entonces el agente recibe esto como una percepción mediante el sensor vista, dicho agente procesa esta información recibida y con los actuadores piernas envía la acción detenerse hasta que pase el carro.

El agente puede percibir una percepción en cualquier instante, a esto se lo conoce como una secuencia de percepciones que siempre va acompañada de una acción, en el ejemplo del peatón (Imagen 2) la secuencia de percepciones seria como se muestra en la Imagen 3.


La función que describe el comportamiento de un agente se puede presentar en forma de tabla (Imagen 4), aunque en la mayoría de los casos esta tabla sería muy grande (infinita a menos que se limite el tamaño de la secuencia de percepciones que se quiera considerar). Dado un agente, con el que se quiera experimentar, se puede, en principio, construir esta tabla teniendo en cuenta todas las secuencias de percepción y determinando qué acción lleva a cabo el agente.

Es necesario aclarar que la función del Agente viene dada por o se implemente por medio del programa del agente, es decir que la función solo es una descripción matemática abstracta mientras que el programa en si es una implementación completa sobre la arquitectura del agente.

CONCLUSIÓN


En conclusión se puede decir que un agente es una de las partes principales dentro de la IA, debido a que mediante este podemos implementar un sistema y ver como actúa según las percepciones recibidas.

Un agente está compuesto principalmente por sensores y actuadores, los sensores son los que le permiten recibir percepciones del medio en el que se encuentra y los actuadores le ayudan a interactuar con el medio, mediante las acciones que realiza.


BIBLIOGRAFÍA


McBurney, P. et al. 2004. AgentLink III: A coordination Networks for Agent-Based Computing. (En línea). EC. Consultado, 6 de Nov. 2014. Disponible en Http://dbs.cordis.lu/fepcgi.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

Thursday, October 30, 2014

TEMA 1.3. HISTORIA DE LA INTELIGENCIA ARTIFICIAL

INTRODUCCIÓN

En el desarrollo de este capítulo conoceremos como ha sido la evolución de la IA desde sus inicios, la repercusión que ha tenido sobre otras ciencias y además como ha ayudado a la sociedad. El desarrollo de La IA  ha tenido muchos inconvenientes, durante algunos años se estancó, pero, luego de una época logro surgir nuevamente, ahora si como una ciencia muy bien definida.
Desde el comienzo de la IA han existido algunas personas que han formado una parte muy importante de la historia de la IA, así por ejemplo tenemos a Warren McCulloch y Walter Pitts (1943), que han sido reconocidos como los autores del primer trabajo referente a la IA, entre otros.

GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)





Nacimiento de la inteligencia artificial (1956)



Entusiasmo inicial, grandes esperanzas (1952-1969)


Los primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas limitaciones). Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que sólo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese algo remotamente inteligente. Muchos de la comunidad científica, prefirieron creer que una maquina nunca podría hacer una tarea. Pero, como era de esperarse, los investigadores de IA responderían a esto demostrando la realización de una tarea tras otra. John McCarthy se refiere a esta época como la era de «Mira, mamá, ahora sin manos!». Al temprano éxito de Newell y Simón siguió el del sistema de resolución general de problemas, o SRGP. A diferencia del Teórico Lógico, desde un principio este programa se diseñó para que imitara protocolos de resolución de problemas de los seres humanos. Dentro del limitado número de puzles que podía manejar, resultó que la secuencia en la que el programa consideraba que los sub-objetivos y las posibles acciones eran semejantes a la manera en que los seres humanos abordaban los mismos problemas. Es decir, el SRGP posiblemente fue el primer programa que incorporó el enfoque de «pensar como un ser humano».
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA. Herbert Gelernter (1959) construyó el demostrador de teoremas de geometría (DTG), el cual era capaz de probar teoremas que muchos estudiantes de matemáticas podían encontrar muy complejos de resolver. A comienzos 1952, Arthur Samuel escribió una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur. Con esto se echó por tierra la teoría de que los computadores sólo pueden hacer lo que se les dice su programa, ya que pronto aprendió a jugar mejor que su creador. El programa fue presentado en la televisión en febrero de 1956 y causó una gran impresión.
En el año de 1958, en un Laboratorio de IA del MIT, McCarthy definió el lenguaje de alto nivel Lisp, el cual se convertiría en el lenguaje de programación dominante en la IA. Lisp es el segundo lenguaje de programación más antiguo que se utiliza en la actualidad, ya que apareció un año después de FORTRAN. En este mismo año, McCarthy publicó un artículo titulado Programs with Common Sense, en el que describía el Generador de Consejos, un programa hipotético que podría considerarse como el primer sistema de IA completo, el cual tuvo un diseño igual que el Teórico Lógico y el Demostrador de Teoremas de Geometría, pero, a diferencia de los otros, manejaba el conocimiento general del mundo.
En 1963 McCarthy creó el Laboratorio de IA en Stanford. Su plan para construir la versión más reciente del Generador de Consejos con ayuda de la lógica sufrió un considerable impulso gracias al descubrimiento de Robinson del método de resolución (un algoritmo completo para la demostración de teoremas para la lógica de primer orden, Minsky tuvo a su cargo la supervisión del trabajo de una serie de estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia.

Algunos programas importantes


SAINT (1963a).- Programa creado por James Slagle, este programa fue capaz de resolver problemas de integración de cálculo en forma cerrada, problemas habituales en los primeros cursos de licenciatura.

ANALOGY (1968).- Creado por Tom Evans, programas que resolvía problemas de analogía geométrica que eran aplicadas en las pruebas de medición de inteligencia, parecidos al siguiente.

STUDENT (1967).- Cuyo creador fue Daniel Bobrow, es un programa que podía resolver problemas de álgebra del siguiente tipo:
“Si el número de clientes de Tom es dos veces el cuadrado del 20 por ciento de la cantidad de anuncios que realiza, y éstos ascienden a 45, ¿cuántos clientes tiene Tom?”

El mundo de los Bloques

Consiste en un conjunto de bloques sólidos colocados sobre una mesa (más frecuentemente, en la simulación de ésta), como se muestra en la siguiente ilustración. Una tarea típica de este mundo es la reordenación de los bloques de cierta manera, con la ayuda de la mano de un robot que es capaz de tomar un bloque cada vez que lo desee.


El mundo de los bloques fue el punto de partida para el proyecto de visión de David Huffman (1971), la visión y el trabajo de propagación con restricciones de David Waltz (1975), la teoría del aprendizaje de Patrick Winston (1970), del programa para la comprensión de lenguaje natural de Terry Winograd (1972) y del planificador de Scott Fahlman (1974).
El trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta área. El trabajo de Winograd y Cowan (1963) mostró cómo un gran número de elementos podría representar un concepto individual de forma colectiva, lo cual llevaba consigo un aumento proporcional en robustez y paralelismo. Los métodos de aprendizaje de Hebb se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff, 1960; Widrow, 1962), quien llamó adaUnes a sus redes, y por Frank Rosenblatt (1962) con sus perceptores. Rosenblatt demostró el famoso teorema del perceptrón, con lo que mostró que su algoritmo de aprendizaje podría ajustar las intensidades de las conexiones de un perceptrón para que se adaptaran a los datos de entrada, siempre y cuando existiera una correspondencia.

UNA DOSIS DE REALIDAD (1966-1973)

Desde el principio, los investigadores de IA hicieron públicas, sin timidez, predicciones sobre el éxito que les esperaba. Con frecuencia, se cita el siguiente comentario realizado por Herbert Simón en 1957:
“Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de re­ sumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pen­ sar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de re­ solver irá a la par que la capacidad de la mente humana para hacer lo mismo.”
El primer tipo de problemas surgió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de la materia objeto de estudio; obtenían resultados gracias a sencillas manipulaciones sintácticas.
La realidad es que para traducir es necesario contar con un conocimiento general sobre el tema, que permita resolver ambigüedades y así, precisar el contenido de una oración. La famosa retraducción del ruso al inglés de la frase «el espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida» es un buen ejemplo del tipo de dificultades que surgieron.
El segundo problema fue que muchos de los problemas que se estaban intentando resolver mediante la IA eran intratables. La mayoría de los primeros programas de IA resolvían problemas experimentando con diversos pasos hasta que se llegara a encontrar una solución.
El tercer obstáculo se derivó de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. Por ejemplo, en 1969, en el libro de Minsky y Papert, Perceptrons, se demostró que si bien era posible lograr que los perceptrones (una red neuronal simple) aprendieran cualquier cosa que pudiesen re­ presentar, su capacidad de representación era muy limitada.

SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER? (1969-1979)

El programa DENDRAL (Buchanan etal., 1969) constituye uno de los primeros ejemplos de este enfoque. Fue diseñado en Stanford, donde Ed Feigenbaum (discípulo de Herbert Simón), Bruce Buchanan (filósofo convertido en informático) y Joshua Lederberg (genetista ganador del Premio Nobel) colaboraron en la solución del problema de inferir una estructura molecular a partir de la información proporcionada por un espectrómetro de masas.
La trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular. En sistemas diseñados posteriormente se incorporaron también los elementos fundamentales de la propuesta de McCarthy para el Generador de Consejos, la nítida separación del conocimiento (en forma de reglas) de la parte correspondiente al razonamiento.
El siguiente gran esfuerzo se realizó en el área del diagnóstico médico. Feigenbaum, Buchanan y el doctor Edward Shortliffe diseñaron el programa MYCIN, para el diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente, MYCIN era capaz de hacer diagnósticos tan buenos como los de un experto y, desde luego, mejores que los de un médico recién graduado. Se distinguía de DENDRAL en dos aspectos principalmente. En primer lugar, a diferencia de las reglas de DENDRAL, no se contaba con un modelo teórico desde el cual se pudiesen deducir las reglas de MYCIN. Fue necesario obtenerlas a partir de extensas entrevistas con los expertos, quienes las habían obtenido de libros de texto, de otros expertos o de su experiencia directa en casos prácticos. En segundo lugar, las reglas deberían reflejar la incertidumbre inherente al conocimiento médico. MYCIN oontaba con un elemento que facilitaba el cálculo de incertidumbre denominado factores de certeza, que al parecer (en aquella época) correspondía muy bien a la manera como los médicos ponderaban las evidencias al hacer un diagnóstico.

LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA EL PRESENTE)

El primer sistema experto comercial que tuvo éxito, R1, inició su actividad en Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la elaboración de pedidos de nuevos sistemas informáticos. En 1986 representaba para la compañía un ahorro estimado de 40 millones de dólares al año. En 1988, el grupo de Inteligencia Artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino. DuPont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que le generaba ahorro de diez millones de dólares anuales aproximadamente. Casi todas las compañías importantes de Estados Unidos contaban con su propio grupo de IA, en el que se utilizaban o investigaban sistemas expertos. En 1981 los japoneses anunciaron el proyecto «Quinta Generación», un plan de diez años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta Estados Unidos constituyó la Microelectronics and Computer Technology Corporation (MCC), consorcio encargado de mantener la competitividad nacional en estas áreas. En ambos casos, la IA formaba parte de un gran proyecto que incluía el diseño de chips y la investigación de la relación hombre máquina. Sin embargo, los componentes de IA generados en el marco de MCC y del proyecto Quinta Generación nunca alcanzaron sus objetivos.
En su conjunto, la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988. Poco después de este período llegó la época llamada «El Invierno de la IA», que afectó a muchas empresas que no fueron capaces de desarrollar los extravagantes productos prometidos.

REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE)

Aunque la informática había abandonado de manera general el campo de las redes neuronales a finales de los años 70, el trabajo continuó en otros campos. Físicos como John Hopfield (1982) utilizaron técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes, tratando colecciones de nodos como colecciones de átomos. Psicólogos como David Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria basados en redes neuronales.
Aquellos modelos de inteligencia artificial llamados conexionistas fueron vistos por algunos como competidores tanto de los modelos simbólicos propuestos por Newell y Simón como de la aproximación lógica de McCarthy entre otros (Smolensky, 1988). Pue­ de parecer obvio que los humanos manipulan símbolos hasta cierto nivel, de hecho, el libro The Symbolic Species (1997) de Terrence Deacon sugiere que esta es la característica que define a los humanos, pero los conexionistas más ardientes se preguntan si la manipulación de los símbolos desempeña algún papel justificable en determinados modelos de cognición. Este interrogante no ha sido aún clarificado, pero la tendencia actual es que las aproximaciones conexionistas y simbólicas son complementarias y no competidoras.

IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE)

En los últimos años se ha producido una revolución tanto en el contenido como en la metodología de trabajo en el campo de la inteligencia artificial. Actualmente es más usual el desarrollo sobre teorías ya existentes que proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias experimentales más que intuición, y demostrar la utilidad de las aplicaciones en el mundo real más que crear ejemplos de juguete. La IA se fundó en parte en el marco de una rebelión en contra de las limitaciones de los campos existentes como la teoría de control o la estadística, y ahora abarca estos campos.
En términos metodológicos, se puede decir, con total seguridad, que la IA ya forma parte del ámbito de los métodos científicos. Para que se acepten, las hipótesis se deben someter a rigurosos experimentos empíricos, y los resultados deben analizarse estadísticamente para identificar su relevancia (Cohén, 1995). El uso de Internet y el compartir repositorios de datos de prueba y código, ha hecho posible que ahora se puedan contrastar experimentos.

EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995 HASTA EL PRESENTE)

Quizás animados por el progreso en la resolución de subproblemas de IA, los investigadores han comenzado a trabajar de nuevo en el problema del «agente total». El trabajo de Alien Newell, John Laird, y Paul Rosenbloom en Soar (Newell, 1990; Laird et al., 1987) es el ejemplo mejor conocido de una arquitectura de agente completa. El llamado «movimiento situado» intenta entender la forma de actuar de los agentes inmersos en entornos reales, que disponen de sensores de entradas continuas. Uno de los medios más importantes para los agentes inteligentes es Internet. Los sistemas de IA han llegado a ser tan comunes en aplicaciones desarrolladas para la Web que el sufijo «-bot» se ha introducido en el lenguaje común. Más aún, tecnologías de IA son la base de muchas herramientas para Internet, como por ejemplo motores de búsqueda, sistemas de recomendación, y los sistemas para la construcción de portales Web.

CONCLUSIÓN

La IA desde sus inicios ha tenido que enfrentar una serie de obstáculos, muchos de los cuales lograron estancarla durante algunos años, sin embargo gracias al esfuerzo y la dedicación que tuvieron muchos de los investigadores de IA, se ha logrado desarrollar de una forma increíble, y sobre todo de manera correcta.

Se puede decir que estos obstáculos le han permitido a la IA, perfeccionarse en las áreas en las que se encontraba sin salida, es decir, que le dieron el empujón necesario para que la IA sea lo que es hoy ben día, una ciencia  que a pesar de su avance sigue en desarrollo.


BIBLIOGRÁFICA




Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.