Un sistema creado por Facebook se rebeló y cobró vida propia: tuvieron que apagarlo

La división de inteligencia artificial de la empresa buscaba generar un programa capaz de negociar. Repentinamente, comenzó a tomar decisiones

La división de inteligencia artificial de Facebook creó un sistema para llevar adelante negociaciones, pero a los pocos días de su lanzamiento el programa comenzó a hablar en un lenguaje ininteligible para sus desarrolladores. Si bien en un principio creyeron que se trataba de un error, al analizarlo cayeron en la cuenta de que había desarrollado su propio idioma y tuvieron que apagarlo. 

El algoritmo había sido programado para sostener conversaciones efectivas y prácticas. Por eso tomó la decisión de generar un lenguaje para realizar su tarea de una manera que le pareció mejor.

El desarrollo consistía en dos agentes virtuales, llamados Bob y Alice, que comenzaron a conversar en un lenguaje propio. “No establecimos una recompensa para que el sistema decidiera seguir usando el inglés”, explicó Dhruv Batra, investigador y miembro del grupo de especialistas en inteligencia artificial de Facebook (FAIR, por sus siglas en inglés).

“Queríamos tener bots que pudieran hablar con la gente”, dijo Mike Lewis, otro investigador de FAIR. Sin embargo, su objetivo se vio frustrado por el empeño del programa en hablar un “idioma robótico”.

Este caso plantea dos posibles problemas a futuro: si el nuevo sistema resultara imposible de comprender, peligraría el desarrollo de otras tecnologías. Por otro lado, el hecho demuestra que la inteligencia artificial, con el nivel de tecnología alcanzado hasta ahora, es capaz de “superar al maestro”.

El año pasado, un sistema de Google hizo lo mismo que el de Facebook. En ese momento se comunicó el hecho con asombro, pero nadie sospechó riesgo alguno. Sin embargo, ahora crecen los interrogantes, y ya no parecen tan inverosímiles las ficciones futuristas como Matrix y Terminator, donde las máquinas se rebelan contra los humanos. 

Hace pocos días, el inventor Elon Musk y Mark Zuckerberg, el creador de Facebook, debatieron sobre el avance de la inteligencia artificial. Musk advirtió que es necesario regular este tipo de tecnología porque, de no hacerlo, podría haber resultados catastróficos. Zuckerberg, en cambio, consideró apocalíptica e “irresponsable” esa postura. Para el creador de la red social, la inteligencia artificial no debería ser una amenaza y, por ende, no es necesario regularla. Sin embargo, los investigadores de su propia empresa tuvieron que apagar el sistema cuando se salió de control.

Noticias Relacionadas