La primera edad de oro. Breve historia de la Inteligencia Artificial 4

Las décadas del 50 y 60 fueron extraordinarias para el desarrollo de la inteligencia artificial.

Aunque la idea de crear seres artificiales que hicieran cosas solo reservadas para los humanos siempre estuvo entre nosotros, solo en el siglo XX pudo comenzar a hacerse realidad. Una serie de acontecimientos ocurridos en los siglos XIX y XX confluyeron para que entre fines de la década del cuarenta y principios de la del 70 se diera lo que podríamos denominar la primera edad de oro de la Inteligencia Artificial.

Claro que lo de primera es un atrevimiento por mi parte.  Si bien los historiadores coinciden que fue una edad de oro, todavía no está claro de si lo que estamos viviendo ahora es la segunda.

La primera edad de oro

Para que se diera el espectacular auge de las investigaciones sobre Inteligencia Artificial a partir de la finalización de la guerra, se dieron una serie de condiciones. Como vimos en el artículo anterior desde el siglo pasado había una metodología que permitía expresar el razonamiento humano en forma de símbolos y realizar operaciones con ellos.

Los trabajos de Turing, Shannon y von Neuman por su parte, permitieron la aparición de equipos capaz de ejecutar instrucciones complejas. Solo faltaba el software.

Las redes neuronales

En un primer momento los investigadores intentaron construir hardware que simulara la estructura del cerebro con componentes eléctricos que cumplían la función de las neuronas. Para entender el comportamiento de estas se utilizaba el análisis matemático.

Dos investigadores, McCulloch y Pitts, publicaron un artículo en 1943 en el que explicaban cómo podían construirse mecanismos que emularan el comportamiento del cerebro.  Hoy se sabe que parte de su enfoque estaba equivocado ya que ellos creían que eran las neuronas individuales las que tomaban decisiones a partir de la información obtenida por los sentidos y generaban respuestas (En realidad se necesitan millones de ellas interactuando) si presentaron un análisis matemático bastante acertado sobre cómo se produce la transmisión de información entre neuronas.

El siguiente gran aporte llegó en 1949 de la mano de un fisiólogo de una universidad canadiense. Donald O. Hebb propuso la idea de que las conexiones neuronales no son inmutables. Cada vez que aprendemos algo nuevo la estructura neuronal cambia para fijar ese conocimiento. La explicación es que cuando una neurona provoca de manera seguida la activación de otra aumenta su conductividad lo que hace que sea más probable que se produzcan más activaciones estableciendo nuevas rutas de conexiones neuronales.

El cambio al segundo enfoque (En lugar de imitar la configuración del cerebro simular el mecanismo que le permite llegar a un resultado) vino de la mano de un señor llamado Marvin Minsky.

Minsky era un verdadero hombre del Renacimiento que se interesaba en disciplinas tan diversas como la Zoología y la Física pasando por la Psicología y la Matemática. Con otros dos investigadores construyó una red neuronal que simulaba la forma en que una rata aprendía cómo salir de un laberinto.

Pronto se dio cuenta que si bien «la rata» aprendía de sus errores era incapaz de utilizar su conocimiento para evitar cometer otros nuevos. De ahí que la tesis para su doctorado en matemáticas fuera sobre cómo construir redes neuronales más complejas capaces de planificar por anticipado.

El cambio de paradigma se produce en 1955 cuando Minsky conoce a Ray Solomonoff que estaba trabajando en una teoría sobre la inferencia deductiva.  A partir de su conversación comenzó a pensar que estaba siguiendo e camino equivocado. Que en lugar de crear hardware que imitara la composición del cerebro, lo mejor era tratar de deducir la forma en que el cerebro actúa y traducirlo a símbolos y relaciones que puedan ser procesados por cualquier computadora.

En 1956 se reunieron diez de los investigadores (Casi todos los que había sobre el tema) en un taller de dos meses. Además de Minsky estuvo presente el arriba citado Ray Solomonoff.

Solomonoff, en contra de la opinión mayoritaria de sus colegas sostenía que el estudio sobre la capacidad de los ordenadores para resolver problemas debería hacerse con los menos complicados ya que esto simplificaría el análisis de los procesos mentales intervinientes.

Con el tiempo se demostró que era un buen consejo por otro motivo. Las tareas que nuestro cerebro hace en forma automática como reconocer un rostro o conducir un vehículo son muy difíciles de reproducir en orma de pograma informático.


Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.