El Pepito Grillo que evitará que la inteligencia artificial sea malvada
Durante 2016, Microsoft tuvo que lidiar con un programa informático que se había corrompido y se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experimento de inteligencia artificial (IA) que buscaba “aprender” de la interacción con humanos en redes sociales.
Durante 2016, Microsoft tuvo que lidiar con un programa informático que se había corrompido y se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experimento de inteligencia artificial (IA) que buscaba “aprender” de la interacción con humanos en redes sociales.
En ese entonces, la situación reabrió el debate acerca de los posibles peligros de (IA). Por ello, una empresa española pretende resolver el problema de la posible corrupción moral de los sistemas de aprendizaje autónomo cuando se encuentran en contacto con humanos.
Así, llegaron a la conclusión que si un psicólogo puede plantear a una persona, por qué no lo podría hacer de la misma manera un módulo que se integrase en una IA. Se trata de una especie de “Pepito Grillo” dentro de un asistente virtual o un robot, un tipo de conciencia dentro de la “inteligencia” de las máquinas que logre que no se corrompan.
La plataforma funciona mediante tres niveles para analizar los dilemas que se produzcan. La fase de cerebro, en la que se define el proceso de decisión de acuerdo a la ética humana y las funciones mentales morales.
El segundo grado es el diseño del funcionamiento del modulo de forma similar al del funcionamiento del cerebro. El diseño técnico o la arquitectura del módulo, por último, consta de ficheros, bases de datos y software.