lunes, 12 de abril de 2010

La gran teoría unificada de la inteligencia artificial.


Hay programas capaces de “aprender” a partir de ejemplos.



Se denomina inteligencia artificial (IA) a la rama de las Ciencias de Computación dedicada al desarrollo de agentes racionales no vivos. Comenzamos con esa definición por que el artículo que vamos a presentares trata sobre la inteligencia artificial. Entre 1950 y 1970, las investigaciones sobre Inteligencia Artificial (IA) se orientaron casi exclusivamente a descubrir las reglas del pensamiento. Pero ese enfoque demostró ser mucho más complicado de lo imaginado. Luego, los científicos pusieron todo su empeño en el campo de las probabilidades, buscando patrones estadísticos que permitiesen a los ordenadores aprender a partir de grandes conjuntos de datos, y no tuvieron éxito. Ahora, científicos intentan combinar ambas técnicas para lograr avances importantes en las ciencias cognitivas. El enfoque probabilístico ha sido responsable de la mayor parte de los avances recientes en Inteligencia Artificial.
Noah Googman científico del departamento de Ciencias Cognitivas y del Cerebro cree que combinando lo mejor de los antiguos sistemas basados en reglas con los resultados de los más recientes sistemas probabilísticos se podría desarrollar una nueva forma de modelar el pensamiento. Si está en lo cierto, esto revolucionaría tanto la IA como las ciencias cognitivas en general.
Los primeros investigadores que se interesaron por la Inteligencia Artificial intentaron modelar el pensamiento como una colección de reglas lógicas.Si, sabemos que los peces pueden nadar,y te dicen que los atunes son peces, deduces que los atunes pueden nadar. No está nada mal, pero no siempre funciona tan bien como puede parecer a primera vista. años, los investigadores usaron reglas para codificar muchas de las afirmaciones con sentido común, y las almacenaron en grandes bases de datos. Pero el sistema tiene un problema, y es que todas las reglas tienen alguna excepción.Los especialistas descubrieron que el desarrollo de la IA basada en reglas era mucho más difícil de lo previsto. Cuando descubrieron esto, intentaron un enfoque basado en la probabilística. Dejaron las reglas rígidas de lado, y escribieron programas capaces de “aprender” a partir de una gran cantidad de ejemplos que se ponían a su disposición. Se alimentaba al sistema con una serie de imágenes de peces, y este infería por sí solo que tenían en común los elementos integrantes del grupo. A pesar de que puede parecer más complicado que el enfoque basado en reglas, la probabilística funciona bastante bien con conceptos concretos como el "pez", aunque suele presentar problemas con temas más abstractos como “nadar”, ya que es una característica compartida por las peces, los buzos, las personas y animales. Cuando se ponían a disposición del sistema de IA una cantidad de fotos de “cosas” nadando para que intentase encontrar que es lo que tenían en común, a menudo el software se “confundía” por la presencia de algas, rocas u otras cosas que se encuentran en el mar. Para enfrentar estas dificultades, Googman ha desarrollado un lenguaje de programación de ordenadores llamado Church (como reconocimiento al el gran lógico estadounidense Alonzo Church) que, igual que los primeros lenguajes de IA, incluye reglas de inferencia. Pero esas normas son probabilísticas. Al establecer que un atún es un pez, un programa escrito en Church daría como respuesta que hay una determinada probabilidad que esta pueda nadar. A medida que se le proporciona mas información el sistema modifica su estimación de probabilidad inicial. Googman dice que esta es la forma en que los seres humanos aprenden conceptos nuevos y “actualizan” los antiguos.

Abc España

No hay comentarios:

Publicar un comentario