ciencia

Argentina tiene una guía ética para usar Inteligencia Artificial

Ante la irrupción de esta tecnología y el temor que produjo, aprobaron una serie de recomendaciones que apuntan a una utilización responsable.

La Subsecretaría de Tecnologías de la Información de la Nación publicó un documento llamado “Recomendaciones para una Inteligencia Artificial Fiable”. Se trata de la primera guía que emite el Estado para establecer cómo usar estas nuevas tecnologías que están tomando cada vez más relevancia en la sociedad. Con esto, buscan concientizar a la comunidad científica y evitar posibles vulneraciones de derechos.

Las autoridades consideraron que la Inteligencia Artificial (IA) “se configura como una tecnología con enorme capacidad para transformar la vida económica, política y social a nivel global”. Sin embargo, también “plantea desafíos en términos de protección de los derechos fundamentales de las personas y de los valores democráticos”.

En este marco, se decidió elaborar una guía basada en estándares adoptados previamente por otros países y organizaciones internacionales. De hecho, el documento está alineado con los principios de la Unesco, la OCDE, el G20 y la Conferencia de Asilomar, que tuvo lugar en 1975 y sentó las bases de la regulación de la biotecnología. En concreto, lo que buscan es promover una IA que permita aprovechar su potencial transformador en beneficio del bien común.

“La guía aprobada tiene como objetivo incorporar principios éticos transversales a todo el ciclo del proyecto de IA, definiendo en cada etapa los riesgos y responsabilidades. Priorizamos un enfoque que se centre en garantizar el respeto a los derechos humanos, la democracia y la perspectiva de género”, indicó la subsecretaria de Tecnologías de la Información, Agustina Brizio.

Las recomendaciones

Entre las principales recomendaciones se destaca la importancia de no forzar el uso de IA, resaltando que no siempre es la mejor herramienta para abordar un problema específico. También se enfatiza que la responsabilidad y supervisión deben recaer siempre en los seres humanos, ya que la IA sólo ejecuta acciones en respuesta a solicitudes humanas.

Asimismo, se promueve la conformación de equipos diversos y multidisciplinarios, conscientes de los desafíos éticos de los proyectos de IA. La calidad y el tratamiento adecuado de los datos, el diseño de modelos transparentes y explicables, la implementación segura y auditable, y la garantía de atención humana para aquellos que la necesiten.

Como se dijo, esta guía está basada en documentos previos elaborados por organismos internacionales porque hay una preocupación compartida sobre los riesgos de la Inteligencia Artificial. Tanto es así que el 10 de marzo de este año un grupo de más de 30 científicos de todo el continente americano firmó la llamada “Declaración de Montevideo”. Fue en el marco del Encuentro Latinoamericano de Inteligencia Artificial que elaboraron dicho documento para advertir sobre “los riesgos” del crecimiento “irreflexivo” de la IA.

Entre otras cosas, la Declaración de Montevideo sostiene que “desde la concepción de una solución tecnológica basada en IA y no después de creada, debemos preguntar cuál es el valor social que aporta y los riesgos que conlleva, con una mirada informada de la idiosincrasia latinoamericana”.

Noticias Relacionadas