Los humanos no podrán controlar una superinteligencia artificial

Según un estudio llevado a cabo por investigadores del Instituto Max Planck, no será posible establecer reglas del tipo “no causar daño a los humanos”.

Una de las grandes fantasías distópicas de la ciencia ficción ahora tiene asidero científico. De acuerdo a un estudio realizado por investigadores del Instituto Max Planck, la humanidad será totalmente incapaz de controlar una superinteligencia artificial de alto nivel. Para controlarla sería necesario disponer de una simulación, pero si no podemos comprenderla, será imposible crear esa simulación y establecer reglas del tipo “no causar daño a los humanos”. Así, una vez que un sistema informático empiece a funcionar a un nivel superior y fuera del alcance de nuestros programadores, ya no seremos capaces de establecer límites.

“Una superinteligencia plantea un problema fundamentalmente diferente a los que se estudian típicamente bajo el lema de la ética de los robots”, escriben los investigadores en el artículo de la revista Journal of Artificial Intelligence Research. “Esto se debe a que una superinteligencia tiene múltiples facetas y, por lo tanto, es potencialmente capaz de ­movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables”.

Parte del razonamiento se basa en el “problema de la detención” presentado por Alan Turing en 1936. El teorema se centra en saber si un programa de computadora llegará o no a una conclusión y respuesta (y por lo tanto se detendrá), o simplemente se repetirá eternamente tratando de encontrar una. Tal como Turing demostró, y a pesar de que para algunos programas sí podemos saberlo, es imposible encontrar la forma de saber eso para cada ­programa potencial que alguna vez podría escribirse. Lo cual nos lleva de vuelta a la ­superinteligencia artificial, que podría contener todos los programas informáticos posibles en su memoria de forma simultánea.

Por lo tanto, cualquier programa escrito, por ejemplo, para evitar que dañe a los humanos y destruya el mundo, puede llegar a una conclusión (y detenerse) o no: es matemáticamente imposible para nosotros estar absolutamente seguros, lo que significa que no podemos controlarlo.

Noticias Relacionadas