Thursday, October 30, 2014

TEMA 1.3. HISTORIA DE LA INTELIGENCIA ARTIFICIAL

INTRODUCCIÓN

En el desarrollo de este capítulo conoceremos como ha sido la evolución de la IA desde sus inicios, la repercusión que ha tenido sobre otras ciencias y además como ha ayudado a la sociedad. El desarrollo de La IA  ha tenido muchos inconvenientes, durante algunos años se estancó, pero, luego de una época logro surgir nuevamente, ahora si como una ciencia muy bien definida.
Desde el comienzo de la IA han existido algunas personas que han formado una parte muy importante de la historia de la IA, así por ejemplo tenemos a Warren McCulloch y Walter Pitts (1943), que han sido reconocidos como los autores del primer trabajo referente a la IA, entre otros.

GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)





Nacimiento de la inteligencia artificial (1956)



Entusiasmo inicial, grandes esperanzas (1952-1969)


Los primeros años de la IA estuvieron llenos de éxitos (aunque con ciertas limitaciones). Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que sólo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más, resultó sorprendente que un computador hiciese algo remotamente inteligente. Muchos de la comunidad científica, prefirieron creer que una maquina nunca podría hacer una tarea. Pero, como era de esperarse, los investigadores de IA responderían a esto demostrando la realización de una tarea tras otra. John McCarthy se refiere a esta época como la era de «Mira, mamá, ahora sin manos!». Al temprano éxito de Newell y Simón siguió el del sistema de resolución general de problemas, o SRGP. A diferencia del Teórico Lógico, desde un principio este programa se diseñó para que imitara protocolos de resolución de problemas de los seres humanos. Dentro del limitado número de puzles que podía manejar, resultó que la secuencia en la que el programa consideraba que los sub-objetivos y las posibles acciones eran semejantes a la manera en que los seres humanos abordaban los mismos problemas. Es decir, el SRGP posiblemente fue el primer programa que incorporó el enfoque de «pensar como un ser humano».
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros programas de IA. Herbert Gelernter (1959) construyó el demostrador de teoremas de geometría (DTG), el cual era capaz de probar teoremas que muchos estudiantes de matemáticas podían encontrar muy complejos de resolver. A comienzos 1952, Arthur Samuel escribió una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur. Con esto se echó por tierra la teoría de que los computadores sólo pueden hacer lo que se les dice su programa, ya que pronto aprendió a jugar mejor que su creador. El programa fue presentado en la televisión en febrero de 1956 y causó una gran impresión.
En el año de 1958, en un Laboratorio de IA del MIT, McCarthy definió el lenguaje de alto nivel Lisp, el cual se convertiría en el lenguaje de programación dominante en la IA. Lisp es el segundo lenguaje de programación más antiguo que se utiliza en la actualidad, ya que apareció un año después de FORTRAN. En este mismo año, McCarthy publicó un artículo titulado Programs with Common Sense, en el que describía el Generador de Consejos, un programa hipotético que podría considerarse como el primer sistema de IA completo, el cual tuvo un diseño igual que el Teórico Lógico y el Demostrador de Teoremas de Geometría, pero, a diferencia de los otros, manejaba el conocimiento general del mundo.
En 1963 McCarthy creó el Laboratorio de IA en Stanford. Su plan para construir la versión más reciente del Generador de Consejos con ayuda de la lógica sufrió un considerable impulso gracias al descubrimiento de Robinson del método de resolución (un algoritmo completo para la demostración de teoremas para la lógica de primer orden, Minsky tuvo a su cargo la supervisión del trabajo de una serie de estudiantes que eligieron un número de problemas limitados cuya solución pareció requerir inteligencia.

Algunos programas importantes


SAINT (1963a).- Programa creado por James Slagle, este programa fue capaz de resolver problemas de integración de cálculo en forma cerrada, problemas habituales en los primeros cursos de licenciatura.

ANALOGY (1968).- Creado por Tom Evans, programas que resolvía problemas de analogía geométrica que eran aplicadas en las pruebas de medición de inteligencia, parecidos al siguiente.

STUDENT (1967).- Cuyo creador fue Daniel Bobrow, es un programa que podía resolver problemas de álgebra del siguiente tipo:
“Si el número de clientes de Tom es dos veces el cuadrado del 20 por ciento de la cantidad de anuncios que realiza, y éstos ascienden a 45, ¿cuántos clientes tiene Tom?”

El mundo de los Bloques

Consiste en un conjunto de bloques sólidos colocados sobre una mesa (más frecuentemente, en la simulación de ésta), como se muestra en la siguiente ilustración. Una tarea típica de este mundo es la reordenación de los bloques de cierta manera, con la ayuda de la mano de un robot que es capaz de tomar un bloque cada vez que lo desee.


El mundo de los bloques fue el punto de partida para el proyecto de visión de David Huffman (1971), la visión y el trabajo de propagación con restricciones de David Waltz (1975), la teoría del aprendizaje de Patrick Winston (1970), del programa para la comprensión de lenguaje natural de Terry Winograd (1972) y del planificador de Scott Fahlman (1974).
El trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta área. El trabajo de Winograd y Cowan (1963) mostró cómo un gran número de elementos podría representar un concepto individual de forma colectiva, lo cual llevaba consigo un aumento proporcional en robustez y paralelismo. Los métodos de aprendizaje de Hebb se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff, 1960; Widrow, 1962), quien llamó adaUnes a sus redes, y por Frank Rosenblatt (1962) con sus perceptores. Rosenblatt demostró el famoso teorema del perceptrón, con lo que mostró que su algoritmo de aprendizaje podría ajustar las intensidades de las conexiones de un perceptrón para que se adaptaran a los datos de entrada, siempre y cuando existiera una correspondencia.

UNA DOSIS DE REALIDAD (1966-1973)

Desde el principio, los investigadores de IA hicieron públicas, sin timidez, predicciones sobre el éxito que les esperaba. Con frecuencia, se cita el siguiente comentario realizado por Herbert Simón en 1957:
“Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de re­ sumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pen­ sar, aprender y crear. Además, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de re­ solver irá a la par que la capacidad de la mente humana para hacer lo mismo.”
El primer tipo de problemas surgió porque la mayoría de los primeros programas contaban con poco o ningún conocimiento de la materia objeto de estudio; obtenían resultados gracias a sencillas manipulaciones sintácticas.
La realidad es que para traducir es necesario contar con un conocimiento general sobre el tema, que permita resolver ambigüedades y así, precisar el contenido de una oración. La famosa retraducción del ruso al inglés de la frase «el espíritu es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno pero la carne está podrida» es un buen ejemplo del tipo de dificultades que surgieron.
El segundo problema fue que muchos de los problemas que se estaban intentando resolver mediante la IA eran intratables. La mayoría de los primeros programas de IA resolvían problemas experimentando con diversos pasos hasta que se llegara a encontrar una solución.
El tercer obstáculo se derivó de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente. Por ejemplo, en 1969, en el libro de Minsky y Papert, Perceptrons, se demostró que si bien era posible lograr que los perceptrones (una red neuronal simple) aprendieran cualquier cosa que pudiesen re­ presentar, su capacidad de representación era muy limitada.

SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER? (1969-1979)

El programa DENDRAL (Buchanan etal., 1969) constituye uno de los primeros ejemplos de este enfoque. Fue diseñado en Stanford, donde Ed Feigenbaum (discípulo de Herbert Simón), Bruce Buchanan (filósofo convertido en informático) y Joshua Lederberg (genetista ganador del Premio Nobel) colaboraron en la solución del problema de inferir una estructura molecular a partir de la información proporcionada por un espectrómetro de masas.
La trascendencia de DENDRAL se debió a ser el primer sistema de conocimiento intenso que tuvo éxito: su base de conocimiento estaba formada por grandes cantidades de reglas de propósito particular. En sistemas diseñados posteriormente se incorporaron también los elementos fundamentales de la propuesta de McCarthy para el Generador de Consejos, la nítida separación del conocimiento (en forma de reglas) de la parte correspondiente al razonamiento.
El siguiente gran esfuerzo se realizó en el área del diagnóstico médico. Feigenbaum, Buchanan y el doctor Edward Shortliffe diseñaron el programa MYCIN, para el diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente, MYCIN era capaz de hacer diagnósticos tan buenos como los de un experto y, desde luego, mejores que los de un médico recién graduado. Se distinguía de DENDRAL en dos aspectos principalmente. En primer lugar, a diferencia de las reglas de DENDRAL, no se contaba con un modelo teórico desde el cual se pudiesen deducir las reglas de MYCIN. Fue necesario obtenerlas a partir de extensas entrevistas con los expertos, quienes las habían obtenido de libros de texto, de otros expertos o de su experiencia directa en casos prácticos. En segundo lugar, las reglas deberían reflejar la incertidumbre inherente al conocimiento médico. MYCIN oontaba con un elemento que facilitaba el cálculo de incertidumbre denominado factores de certeza, que al parecer (en aquella época) correspondía muy bien a la manera como los médicos ponderaban las evidencias al hacer un diagnóstico.

LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980 HASTA EL PRESENTE)

El primer sistema experto comercial que tuvo éxito, R1, inició su actividad en Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la elaboración de pedidos de nuevos sistemas informáticos. En 1986 representaba para la compañía un ahorro estimado de 40 millones de dólares al año. En 1988, el grupo de Inteligencia Artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino. DuPont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que le generaba ahorro de diez millones de dólares anuales aproximadamente. Casi todas las compañías importantes de Estados Unidos contaban con su propio grupo de IA, en el que se utilizaban o investigaban sistemas expertos. En 1981 los japoneses anunciaron el proyecto «Quinta Generación», un plan de diez años para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como respuesta Estados Unidos constituyó la Microelectronics and Computer Technology Corporation (MCC), consorcio encargado de mantener la competitividad nacional en estas áreas. En ambos casos, la IA formaba parte de un gran proyecto que incluía el diseño de chips y la investigación de la relación hombre máquina. Sin embargo, los componentes de IA generados en el marco de MCC y del proyecto Quinta Generación nunca alcanzaron sus objetivos.
En su conjunto, la industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988. Poco después de este período llegó la época llamada «El Invierno de la IA», que afectó a muchas empresas que no fueron capaces de desarrollar los extravagantes productos prometidos.

REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE)

Aunque la informática había abandonado de manera general el campo de las redes neuronales a finales de los años 70, el trabajo continuó en otros campos. Físicos como John Hopfield (1982) utilizaron técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes, tratando colecciones de nodos como colecciones de átomos. Psicólogos como David Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria basados en redes neuronales.
Aquellos modelos de inteligencia artificial llamados conexionistas fueron vistos por algunos como competidores tanto de los modelos simbólicos propuestos por Newell y Simón como de la aproximación lógica de McCarthy entre otros (Smolensky, 1988). Pue­ de parecer obvio que los humanos manipulan símbolos hasta cierto nivel, de hecho, el libro The Symbolic Species (1997) de Terrence Deacon sugiere que esta es la característica que define a los humanos, pero los conexionistas más ardientes se preguntan si la manipulación de los símbolos desempeña algún papel justificable en determinados modelos de cognición. Este interrogante no ha sido aún clarificado, pero la tendencia actual es que las aproximaciones conexionistas y simbólicas son complementarias y no competidoras.

IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE)

En los últimos años se ha producido una revolución tanto en el contenido como en la metodología de trabajo en el campo de la inteligencia artificial. Actualmente es más usual el desarrollo sobre teorías ya existentes que proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias experimentales más que intuición, y demostrar la utilidad de las aplicaciones en el mundo real más que crear ejemplos de juguete. La IA se fundó en parte en el marco de una rebelión en contra de las limitaciones de los campos existentes como la teoría de control o la estadística, y ahora abarca estos campos.
En términos metodológicos, se puede decir, con total seguridad, que la IA ya forma parte del ámbito de los métodos científicos. Para que se acepten, las hipótesis se deben someter a rigurosos experimentos empíricos, y los resultados deben analizarse estadísticamente para identificar su relevancia (Cohén, 1995). El uso de Internet y el compartir repositorios de datos de prueba y código, ha hecho posible que ahora se puedan contrastar experimentos.

EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995 HASTA EL PRESENTE)

Quizás animados por el progreso en la resolución de subproblemas de IA, los investigadores han comenzado a trabajar de nuevo en el problema del «agente total». El trabajo de Alien Newell, John Laird, y Paul Rosenbloom en Soar (Newell, 1990; Laird et al., 1987) es el ejemplo mejor conocido de una arquitectura de agente completa. El llamado «movimiento situado» intenta entender la forma de actuar de los agentes inmersos en entornos reales, que disponen de sensores de entradas continuas. Uno de los medios más importantes para los agentes inteligentes es Internet. Los sistemas de IA han llegado a ser tan comunes en aplicaciones desarrolladas para la Web que el sufijo «-bot» se ha introducido en el lenguaje común. Más aún, tecnologías de IA son la base de muchas herramientas para Internet, como por ejemplo motores de búsqueda, sistemas de recomendación, y los sistemas para la construcción de portales Web.

CONCLUSIÓN

La IA desde sus inicios ha tenido que enfrentar una serie de obstáculos, muchos de los cuales lograron estancarla durante algunos años, sin embargo gracias al esfuerzo y la dedicación que tuvieron muchos de los investigadores de IA, se ha logrado desarrollar de una forma increíble, y sobre todo de manera correcta.

Se puede decir que estos obstáculos le han permitido a la IA, perfeccionarse en las áreas en las que se encontraba sin salida, es decir, que le dieron el empujón necesario para que la IA sea lo que es hoy ben día, una ciencia  que a pesar de su avance sigue en desarrollo.


BIBLIOGRÁFICA




Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

Tuesday, October 28, 2014

Tema 1.2. Fundamentos de la Inteligencia Artificial

INTRODUCCIÓN


A lo largo de los años diversas ciencias han contribuido de muchas formas al avance de la IA, aunque algunas lo hacen de forma no planificada. En este capítulo vamos a conocer de forma breve, pero precisa el aporte de dichas ciencias en el avance de la IA, con sus ideas, puntos de vista o técnicas que han sido piezas clave en este avance.
Como ya se ha mencionado anteriormente muchas de las ciencias que se mencionan no fueron creadas con este fin, sin embargo los investigadores y desarrolladores las han tomado como base y es por ello que se puede decir que la IA una de las ciencias más complejas que existen ya que esta abarca diversas disciplinas.
Entre estas disciplinas tenemos las matemáticas que aunque parezca que no tienen nada que ver, la realidad es otra ya que esta es una de las disciplinas que tiene mayor poder en casi todo el desarrollo de la ciencia, pues no solo nos ayuda a hacer cálculos sino que también nos permite tener un desarrollo más apropiado del pensamiento (razonamiento) lógico.
A continuación se detallan algunas de las principales características de estas disciplinas y cuál ha sido su papel dentro del avance de la IA.

La Filosofía (428 a.c. hasta la actualidad)


Un elemento muy importante dentro de la filosofía relacionada con la mente es la relación que existe entre el conocimiento y la acción. Este tema es muy vital dentro de la IA, debido a que esta necesita tanto de la acción como del razonamiento.  Más aún, simplemente con comprender cómo se justifican determinadas acciones se puede llegar a saber cómo construir un agente cuyas acciones sean justificables (o racionales). Aristóteles argumenta que las acciones se pueden justificar por la conexión lógica entre los objetivos y el conocimiento de los efectos de las acciones. (Russell, S y Norving, P. 2004.)

MATEMÁTICAS (Aprox. Desde 800 hasta la actualidad)


Las matemáticas al igual que otras ciencias son de mucha  ayuda en la resolución de problemas, pero en este caso, no solo ayudan en problemas de cálculo, sino que también en la lógica y la probabilidad, todo esto hace que sea parte importante de la IA, debido a que esta debe ser capaz de resolver problemas de cualquier tipo.

ECONOMÍA


A lo largo del tiempo se ha pensado que la economía tiene que ver solamente con la parte financiera, como guardar dinero para el futuro, o tener un plan emergente frente a cualquier eventualidad, hoy en día, y en el desarrollo de la IA, se considera a la economía no solo en el plano económico-financiero, sino que es mas bien considerado como una parte importante en la toma de decisiones, ya que la economía es sobre todo la forma en que se toman las decisiones, sean estas correctas o no y sobre todo, aprender de estas decisiones para el futuro.

NEUROCIENCIA



Dentro de la IA. La Neurociencia tiene gran importancia ya que nos permite conocer de forma más concisa, la manera en la que funciona el cerebro humano, y de esta forma se puede perfeccionar los sistemas inteligentes. La Neurociencia además permite que todos estos sistemas puedan interactuar de forma autónoma.

PSICOLOGÍA


La psicología como ciencia nos ayuda a entender el por qué se dan ciertos comportamientos en unas personas y en otras no se dan de la misma forma, esto nos ayuda a comprender de mejor manera la complejidad de la mente humana y permite que se puedan crear “diseñar” agentes que son basados en conocimientos.

INGENIERÍA COMPUTACIONAL


La ingeniería computacional juega un papel muy importante en el desarrollo de la IA ya que es aquí donde se desarrolla la parte física de la IA, además esta ciencia aporta un sin número de investigaciones que han servido de mucho en el avance de la IA.

TEORÍA DEL CONTROL Y CIBERNÉTICA


LINGÜÍSTICA



CONCLUSIÓN

Luego de concluido este tema se puede concluir que el aporte brindado por todas y cada una de la ciencias mencionadas anteriormente ha sido y seguirá siendo de gran importancia, ya que no solo nos brindan información relevante de gran utilidad en el avance de la IA, sino que además a partir de ellas (como la Neurociencia) nos permite conocer como funciona la mente, y de esta forma mejorar los sistemas basados en conocimientos (sistemas inteligentes).
Muchas de la ciencias que han brindado gran aporte a la IA, no fueron creadas con esta finalidad, es mas esta fue pensada ya en una ultima instancia, pero sin importar esto, las definiciones y conceptos han mejorado mucho el aspecto de la IA.

BIBLIOGRÁFICA


Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.

Wednesday, October 15, 2014

POLITICAS DE CURSO




ESCUELA SUPERIOR POLITÉCNICA AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ


CARRERA DE INFORMÁTICA


SÍLABO DEL CURSO


INTELIGENCIA ARTIFICIAL I (CIENCIAS PROFESIONALIZANTES)
PERIODO SEMESTRAL: Septiembre 2014 / Marzo 2015


1. CÓDIGO Y NÚMERO DE CRÉDITOS:
CÓDIGO: II0601
NÚMERO DE CRÉDITOS: 3 créditos (2 TEORÍA + 1 PRÁCTICA).
SEMESTRE: Sexto.                             PARALELO: A


2. DESCRIPCIÓN DEL CURSO.

Es una materia que permite al estudiante adquirir conocimientos sobre los fundamentos de la Inteligencia Artificial, así como la aplicabilidad de las Redes Neuronales Artificiales (RNA) en la resolución de problemas mediante la utilización de agentes inteligentes.


3. PRE-REQUISITOS Y CO-REQUISITOS:

PRE-REQUISITO: II0304 ESTRUCTURA DE DATOS
CO-REQUISITO: Ninguno.


4. TEXTO Y OTRAS REFERENCIAS REQUERIDAS PARA EL DICTADO DEL CURSO

TEXTO GUÍA:

Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España


BIBLIOGRAFÍA COMPLEMENTARIA:

Nillson, N. 2010. The Quest for Artificial Intelligence. Segunda Edición. Stanford University. Estados Unidos

Palacios, F. 2003. Redes Neuronales con GNU/Linux. GNU Free Documentation License. Chile.

Ahmad, I. et al. 2009. “Prediction Of Shear Strength Of Reinforced Concrete Beams Using Artificial Neural Network Model”. Journal of Science and Technology. Disponible en: http://go.galegroup.com/ps/i.do id=GALE%7CA247164668&v=2.1&u=senescyt_cons&it=r&p=GPS&sw=w

David, B. 2013. “Determining the value of information for collaborative multi-agent planning.” Autonomous Agents and Multi-Agent Systems. 26 (3), 315-353.


5. OBJETIVOS GENERALES DEL CURSO (RESULTADOS O LOGROS DE APRENDIZAJE DEL CURSO)

Los estudiantes serán capaces de demostrar sus conocimientos del contenido de Inteligencia Artificial I, través de los siguientes logros:

a. (C4) Identificar los aspectos fundamentales del amplio campo de la Inteligencia Artificial para tener una visión global de los orígenes y motivaciones de ésta área.

b. (C4) Distinguir el concepto de agentes inteligentes como aspecto central de la Inteligencia Artificial.

c. (C3) Interpretar la estructura e importancia de las redes neuronales artificiales como herramienta para dar forma al funcionamiento del cerebro humano en agentes computacionales.

d. (C4) Diferenciar los modelos más importantes de redes neuronales artificiales enfocándose en sus características.

e. (C3) Utilizar los modelos de redes neuronales artificiales para la creación de agentes estímulo-respuesta inteligente.

6. TÓPICOS O TEMAS CUBIERTOS


7. HORARIO DE CLASES.

16 Semanas por el semestre, más una semana cultural, 3 clases por semana de 60 minutos cada una.

Martes: Una hora de clases en el aula 305. (17h00 a 18h00).
Miércoles: Dos horas de clases en el aula 305. (20h15 a 22h15).


8. CONTRIBUCIÓN DEL CURSO EN LA FORMACIÓN DEL INGENIERO EN INFORMÁTICA


9. RELACIÓN DEL CURSO CON EL CRITERIO RESULTADO DE APRENDIZAJE.


10. EVALUACIÓN DEL CURSO.


11. RESPONSABLE DE LA ELABORACIÓN DEL SÍLABO Y FECHA DE PRESENTACIÓN Y REVISIÓN:


Thursday, October 9, 2014

CARATULA



ESCUELA SUPERIOR POLITÉCNICA AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ

CARRERA INFORMÁTICA

    SEMESTRE SEXTO      PERIODO OCTUBRE 2014/ MARZO 2015
                             
PORTAFOLIO DE INTELIGENCIA ARTIFICIAL I

                                                                                                                        
AUTOR:

JOSÉ S. MERA CANTOS


FACILITADORA:

ING. HIRAIDA SANTANA


CALCETA, OCTUBRE 2014

Wednesday, October 8, 2014

Tema 1.1. Introducción a la Inteligencia Artificial

INTRODUCCIÓN


En este capítulo se estudiarán algunos conceptos importantes y fundamentales dentro de la Inteligencia Artificial, la historia y la evolución de la misma a través de los años, qué es, en que consiste y cuales son los aspectos a tener en cuenta al momento de realizar la prueba de turing y otros aspectos importantes de la inteligencia artificial.

MARCO TEÓRICO


Inteligencia Artificial ¿Qué es?

William Jhon nos menciona en su Libro Artifificial Intelligence – Agents and Environments que la Inteligencia Artificial “Es el estudio de cómo se construye un sistema informático que exhibe inteligencia en alguna forma”.
La inteligencia Artificial (AI), tiene resultados en adelantos de la informática, muchas de las investigaciones de la informática tiene su esencia en base a la Inteligencia Artificial. (William, 2010).

(Alberto, 2010). Menciona en su libro que no se ha llegado a una definición clara y concisa de lo que significa la inteligencia artificial y que no tenemos la certeza de que podemos llegar a definir la Inteligencia "no artificial". 

Sin embargo existen algunas definiciones importantes relevantes dentro del campo de la Inteligencia Artificial, en la siguiente ilustración se mencionan algunas de ellas.




Si nos damos cuenta estas definiciones de la IA nos llevan a pensar que esta ciencia trata de que la Informatica actual o los sistemas informaticos de nueva generacion sean parecidos a los humanos no solo en apariencia, sino mas bien en lo que tiene que al pensamiento racional, la toma de las propias desiciones dependiendo de las circunstancias en las que se encuentre, ademas de que tambien sean capaces de resolver todo tipo de problemas con cualquier tipo de complejidad.

PRUEBA DE TURING

La prueba de Turing, propuesta por Alan Turing en el año de 1950, fue diseñada para proporcionar una definición operacional y satisfactoria de Inteligencia. (Russell, S y Norving, P. 2004.)
Para que un  computador se considere como inteligente, debe aprobar o pasar dicha prueba, para ello el computador debe poseer las siguientes características o capacidades:

  • 1.       Procesamiento del lenguaje corporal. Lo cual les permite comunicarse satisfactoriamente en cualquier idioma.
  • 2.       Representación del conocimiento. Para almacenar lo que conoce o siente, es decir la información proporcionada por el medio.
  • 3.       Razonamiento automático. Es decir que use toda la información almacenada, para responder a preguntas y además que pueda crear sus propias conclusiones.
  • 4.       Aprendizaje automático. Que posea la  capacidad de adaptarse a diversas circunstancias y extrapolar patrones.


Sin embargo existe la llamada prueba global de Turing, que incluye señal de video para valorar la capacidad de percepción del evaluado y también da al evaluador la capacidad de pasar objetos físicos, para ello el ordenador “inteligente”, debe contar además de

  • 5.       Visión Computacional. Para poder percibir los objetos.
  • 6.       Robótica. Que le permite al computador manipular y mover objetos.

CONCLUSIÓN

Al finalizar este capítulo se puede concluir que la Inteligencia Artificial es una ciencia que busca que los sistemas informáticos (software) actuales, piensen y actúen de una manera inteligente, es decir parecidos a los humanos.

La I.A. busca que dichos sistemas, puedan pensar y actuar de manera independiente, es decir que no necesiten de la intervencion humana para poder realizar una accion.

ademas con la prueba de Turing se puede conocer cuando un sistema esta actuando de manera inteligente al realizar una serie de preguntas, esta prueba es una manera muy sencilla de conocer esto y permite a los desarrolladores de sistemas inteligentes saber si el sistema va por buen camino.

BIBLIOGRAFÍA

Teahan, W. 2010. Artificial Intelligence – Agents and Environments. (En Línea).  EC. Consultado, 7 de Oct. 2014. Formato PDF. Disponible en http://www.bookboon.com.

García, A.2012. Inteligencia Artificial. Fundamentos, práctica y aplicaciones. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/books.

Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 10 de Oct. 2014. Disponible en http://books.google.com.ec/book.

Russell, S y Norving, P. 2004. Inteligencia Artificial un enfoque moderno. Pearson Education. 2 ed. Mexico. p 1-5.