Ir a Página de Inicio
 
  Alguien se acuerda ?
1956: nacimiento

El término de Inteligencia Artificial (IA), aparece por primera vez en agosto de 1956 en el Colegio Dartmouth (EEUU), en la ocasión de una conferencia sobre la inteligencia de los computadores y donde se reunieron grandes científicos tales como J. McCarthy, M. Minsky, C. Shannon, A. Newell, y H. Simon.

1834: ancestro

El matemático Charles Babbage (1792-1871) define el concepto de máquina calculadora universal, ancestro del computador moderno y propone los planos.

1936: máquinas de Turing

El matemático inglés, Alan M. Turing (1912-1954) define una máquina abstracta, la "Máquina de Turing", que sirve de base a la noción de algoritmo y a la definición de la clase de problemas decidibles. Turing dedicó lo principal de sus trabajos a la formalización de la teoría de los autómatas y a la noción de calculabilidad.

1943: primer computador


El catalizador que condujo al verdadero nacimiento de la IA fue la aparición del primer computador, el ENIAC: una máquina electrónica de programa grabado.

1950: test de Turing


Turing propone en un artículo clásico: "Can a machine think?", la definición de una experiencia que permitiría calificar a una máquina de inteligente. La experiencia consiste en que un computador y algún voluntario humano se oculten a la vista de algún (perspicaz) interrogador. Este último tiene que tratar de decidir cual de los dos es el computador y cual el ser humano mediante el simple procedimiento de plantear preguntas a cada uno de ellos. Si en el curso de una serie de tests semejantes la interrogadora es incapaz de identificar la naturaleza de su interlocutor, se considera que el computador ha superado la prueba.

1956: noción de listas


J. Mc Carthy se da la tarea de construir un lenguaje de programación adaptable a las necesidades de manipulación de conocimientos y de la reproducción de razonamientos basados en la noción de listas.

1959: General Problem Solver


Después de las investigaciones de A. Newell y H. Simón sobre los mecanismos de razonamiento, surge el GPS: General Problem Solver, basado en el principio del "análisis de los fines y de los medios". El interés de GPS es el de haber sido el primero a formalizar el razonamiento humano. Su meta era investigar sobre la actividad intelectual y sobre los mecanismos puestos en juego durante la resolución de problemas, más que en la eficacia.

Años Sesenta: heurística


Los años sesenta marcan la verdadera puesta en marcha de la IA, con algunos resultados significativos: Enumeración inteligente de soluciones a través de reglas optativas o heurísticas (heurística: arte de inventar, P. Larousse, 1995).

1966: dificultades


Reconocimiento por parte de los investigadores, de la dificultad del reconocimiento de la palabra y de la traducción de las lenguas. Un trabajo de fondo deberá por lo tanto emprenderse sobre el análisis y la definición de las estructuras de lengua sobre la base de los trabajos de N. Chomsky

Años Setenta: ¡boom!


Los años setenta corresponden a una explosión de trabajos que permitieron establecer las bases de la IA, en cuanto a la representación de los conocimientos, del razonamiento, de los sistemas expertos, de la comprensión del lenguaje natural y de la robótica avanzada.

1970: primer sistema experto


Aparición de Dendral, el primero de los sistemas expertos, en la Universidad de Stanford. Dendral efectúa el trabajo de un químico que reconstituye la fórmula desarrollada de un componente orgánico a partir de su fórmula bruta y de los resultados de su espectrografía de masa.

1975: programación en lógica de primer orden


Aparece PROLOG de la Universidad de Aix Marseille (Francia) y marca los comienzos de una verdadera programación basada en la lógica de primer orden. Este lenguaje conoció un tal éxito que fue adoptado como el lenguaje de base para el proyecto japonés de los computadores de quinta generación.

1976: medicina


MYCIN, sistema experto en diagnósticos de infecciones bacterianas de la sangre para la ayuda de la antibioterapia de Schortliffe. Sus principales características son, por una parte, la separación de los conocimientos del mecanismo de razonamiento y el diálogo en lenguaje casi-natural y por otra parte, la asistencia para los ajustes de las bases hacia la industrialización.

Los años ochenta: IA y economía


Los años ochenta son aquellos de la entrada de la IA en la vida económica. Con realizaciones prácticas importantes en diferentes áreas y, paralelamente, de un crecimiento notable de los esfuerzos de investigación a través de proyectos muy ambiciosos en la mayoría de los países industrializados.

1981: computadores de quinta generación


Lanzamiento en Japón del proyecto de computador de quinta generación. El objetivo anunciado para el proyecto es el desarrollo de tecnologías de la IA en la realización de un nuevo tipo de computadores que resolverían problemas en lugar de ejecutar los algoritmos, que efectuarían razonamientos en vez de solo cálculos y ofrecería a sus usuarios interfaces naturales: Lenguaje, gráfica, palabra

Años noventa: comunicación hombre-máquina


Los años noventa marcan la entrada de la IA en las aplicaciones vinculadas a la comunicación hombre-máquina con interfaces inteligentes, sistema multi-agentes y la IA distribuida.

Futuro: ¿computación cuántica?


qubit: bit cuántico = "la lógica de un bit es uno u otro, mientras que el qubit entraña el concepto de ambos a la vez, sean cuatro respuestas posibles + ¡el estado de una partícula se determina a través de la asignación de una probabilidad!...
...¿computación molecular? ¿bio-computación? ¿computación ADN?...
¿Qué nos reserva el futuro?

Pero: ¿Qué son los computadores? - Las máquinas de Turing

Aun si cotidianamente la mayoría de la gente se sorprende de los computadores y de sus incesantes y cotidianos avances tecnológicos, tanto de los aparatos mismos como de sus extensiones, notablemente en lo que dice relación con las nuevas tecnologías de información encarnadas en el "World Wide Web" (WWW, "la tela de araña mundial") y el famoso Internet, nos damos por vencidos fácilmente frente al cómo es posible tantas funciones en tan poco espacio y tan rápidamente, lo que es natural y necesario (no hacerlo). Si hubiera que entender el funcionamiento de un computador antes de utilizarlo, necesitaríamos seguramente más de una vida, habiendo pasado por los ámbitos de la física de los materiales, de la física de los circuitos, de la miniaturización, de la matemática, de la lógica y de la programación entre otros.

Sin embargo, no dejan de sorprender cosas tan simples como por ejemplo, la correspondencia que puede haber entre la letra que tipeo en la pantalla, y los millones de electrones que van y vienen dentro de unos ínfimos circuitos, entre muchas otras cosas. En lo que se refiere a la física de los computadores propiamente tal, podemos admitir que existen explicaciones, por muy complejas que sean, pero en todo caso concretas (dentro del cuadro de la física moderna) puesto que tenemos el resultado claramente ante nuestros ojos.

Lo interesante aquí dice más bien relación con el sistema de comunicación entre el hombre y la máquina, es decir, lo que es, conceptualmente, un computador. Partiendo del supuesto de una tecnología en constante progreso, dicha comunicación ¿podrá algún día alcanzar un grado de complejidad tal que no podremos decidir si existe algún tipo de forma de vida, un "dispositivo pensante", al interior de todas las infinitas y pequeñas redes de circuitos electrónicos? ¿cuál es el límite conceptual para un computador? ¿existe alguna limitación absoluta para lo que un algoritmo (ver más adelante) pueda, en principio, hacer?

El matemático inglés Alan M. Turing (1912-1954), motivado por dar respuesta al planteamiento del gran matemático David Hilbert, en el Congreso Internacional de Matemáticos de Bolonia en 1928, que se puede resumir de la siguiente manera:

¿Existe algún procedimiento mecánico general que pueda, en principio, resolver uno tras otro, todos los problemas de las matemáticas?

Trató de imaginar como podría formalizarze el concepto de máquina, descomponiendo su modo de operar en términos elementales. Es así que en 1936, Turing define una máquina abstracta, la "máquina de Turing", que servirá de base a la noción de algoritmo y a la definición de la clase de problemas decidibles, subyacentes en el problema de Hilbert. Turing dedicó la mayor parte de sus trabajos a la formalización de la teoría de los autómatas y de la noción de calculabilidad. Los computadores de hoy, no solo son muy cercanos de las llamadas máquinas universales de Turing, sino que nacieron primero como concepto, encarnado en la noción de "máquina universal de Turing".

Pero ¿qué es exactamente un algoritmo o máquina de Turing? La noción de algoritmo es antigua, existen ejemplos de 300 AC, pero su formulación precisa data solo de este siglo y encuentra su versión más precisa en el concepto de "máquina de Turing". La palabra "algoritmo" procede del nombre del matemático persa del siglo IX Abu Ja'far al-Khowârizm. El que hoy día se escriba algoritmo en lugar de la antigua y más aproximada palabra "algorism", parece debido a una asociación con la palabra aritmética.

Un algoritmo es una sucesión finita de reglas para aplicar, en un orden determinado, a un número finito de datos, para llegar, en un número finito de etapas, a un resultado, y esto, independientemente de los datos. Se trata de una secuencia bien definida (enumerable) de operaciones, un procedimiento sistematizado.

Una máquina de Turing es un dispositivo con las siguientes características:

1 Número finito, aunque enorme, de estados internos posibles diferentes.
2 Una cinta "infinita", es decir, siempre tan o mucho más larga que lo queramos.
3 Un lector de datos de entrada "input" y de reescritura para entrega de los resultados de las operaciones de cálculo o "output".

Con relación a la idealización "infinita", cabe destacar que las maravillas de la tecnología moderna de computadores nos han proporcionado dispositivos de almacenamiento electrónico que pueden considerarse como ilimitados para muchos casos prácticos y en este sentido dichos computadores actuales se aproximan de forma realmente notable a la idealización de Turing.

Turing representaba los datos externos y el espacio de almacenamiento en forma de una cinta sobre la que se hacen marcas. Esta cinta sería utilizada por el dispositivo y leída cuando fuera necesario, y el dispositivo podría, como parte de la operación, mover la cinta hacia adelante o hacia atrás. La cinta es una secuencia lineal de cuadrados. Cada cuadrado de la cinta esta en blanco o contiene una sola marca. El cuadrado "en blanco" puede ser representado por un "0" y "el marcado" mediante el "1". El dispositivo lee de cuadrado en cuadrado, y después de cada operación se mueve un solo cuadrado más a la izquierda o a la derecha.