Inteligencia Artificial: Un reto adicional para la protección de datos personales

AutorAlejandro Rafael Morales Cáceres
CargoAbogado por la Facultad de Derecho de la Universidad de Lima

En una sociedad diversa, Laura siempre había luchado por la igualdad de oportunidades. Sin embargo, se encontró con un obstáculo en su búsqueda de empleo. Las empresas utilizaban un sistema de inteligencia artificial para seleccionar currículums y realizar entrevistas virtuales. Este sistema, sin embargo, estaba programado con sesgos inconscientes, lo que llevaba a una discriminación sistemática contra personas de ciertos orígenes étnicos o géneros. A pesar de las habilidades y la experiencia de Laura, su solicitud fue rechazada una y otra vez debido a la discriminación inherente del sistema de inteligencia artificial. Su derecho constitucional a la igualdad de oportunidades y a la libertad de trabajo se vieron afectados negativamente por el tratamiento de datos personales por parte de ese sistema”.

Esta historia escrita por ChatGPT, sistema de inteligencia artificial (en adelante, IA), demuestra cómo es que un tratamiento indebido de datos personales por parte de un sistema de IA puede conllevar no solo a la afectación del derecho fundamental a la autodeterminación informativa (protección de datos personales), sino a la vulneración de otros derechos fundamentales como consecuencia de un mal tratamiento de los datos personales de una persona. Y si bien esta historia podría sonar a ciencia ficción, es una práctica cada vez más común en distintas empresas, en diversos sectores.

A modo de ejemplo, las empresas del sistema financiero están utilizando programas de IA que podrían conllevar a que una persona no pueda acceder a un crédito hipotecario como consecuencia de una evaluación hecha por un programa, sin la intervención de un humano. También podría darse el caso que una persona solicite un seguro médico y este sea denegado debido a una decisión automatizada basada en el análisis de datos de salud. Cabe señalar que programas como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) en Estados Unidos pueden decidir si una persona puede salir bajo fianza de prisión o no. Últimamente, hemos visto como las redes sociales eliminan o remueven publicaciones legítimas de sus usuarios pues lo consideran como ”Fake News” o como “mensajes de odio” En todos estos casos, el sistema de IA tuvo que recopilar, almacenar, usar y procesar datos personales y en base a ese tratamiento tomó una decisión. ¿Qué ocurre si estos programas de IA se equivocan como consecuencia del sesgo algorítmico[1]? ¿Acaso no tenemos el derecho a no ser objeto de una decisión basada únicamente en medios automatizados?

Tal como se puede apreciar, el sesgo algorítmico es uno de los retos más grandes a los que se enfrenta la protección de datos personales, pues las decisiones automatizadas pueden conllevar no solo a un descontrol total sobre nuestra propia información sino a la...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR