El nuevo reglamento de IA en Perú progresa en transparencia, aunque presenta ambigüedades que ponen en riesgo los derechos fundamentales
Perú publicó finalmente el decreto reglamentario de su ley de IA. Promulgada en 2023, la ley tiene como objetivo apoyar el “desarrollo económico y social del país” al impulsar la innovación técnica en sintonía con la protección de los derechos fundamentales.
Durante el 2024, desde Access Now e Hiperderecho enviamos al gobierno peruano un conjunto de recomendaciones basadas en derechos humanos frente al primer borrador del reglamento. Si bien en la versión final se acogieron medidas importantes, se ignoraron muchas otras. En vez de basar el reglamento en la protección de los derechos fundamentales, el gobierno peruano optó por replicar la ley europea de IA. Ésta se basa en imponer obligaciones dependiendo del riesgo identificado en diferentes categorías de sistemas.
Los peligros del nuevo reglamento de IA en Perú
Los más riesgosos se definen como de “riesgo indebido”, los cuales, debido a su peligrosidad, deben quedar prohibidos. No obstante, el mismo texto incorpora excepciones que habilitan su uso. Un ejemplo son los sistemas que pueden influir de manera engañosa en el proceso de toma de decisiones de las personas. El reglamento solo dispone su prohibición cuando su uso tenga el fin de modificar el comportamiento de manera “sustancial”. Esto supone un concepto demasiado ambiguo para evaluar ya sea de manera cualitativa o cuantitativa.
El Estado debe prohibir cualquier tecnología que busque afectar de manera inconsciente el comportamiento de las personas. Estas tecnologías violan la libertad de pensamiento y no deben existir en un Estado de derecho.
Lo mismo ocurre con la prohibición a los sistemas de vigilancia masiva y de identificación biométrica en espacios públicos. Éstos son contrarios a los estándares internacionales de protección a la privacidad y a la libertad de expresión. Solo se consideran de riesgo indebido aquellos que afecten de manera “desproporcionada” a los derechos fundamentales. Su uso se ha habilitado incluso en investigaciones preliminares de “delitos contra la propiedad”, que son quizás los más comunes en la región.
Otras tecnologías incorporadas a la clasificación de sistemas de riesgo indebido son aquellas que presuntamente permiten inferir datos sensibles basados en biometría. También los que se utilizan para predecir actividad criminal, a pesar de que se encuentren ya en funcionamiento en el municipio de Miraflores.
Alto riesgo y supervisión insuficiente
En la siguiente categoría de sistemas, el reglamento aborda a los considerados de alto riesgo. Uno de los principales aciertos de la ley es la de disponer un registro a cargo del Estado donde inscribir a los sistemas de “alto riesgo” en funcionamiento en el país, así como indicar la necesidad de tomar medidas concretas para “preservar la seguridad y privacidad, promover la transparencia y la explicabilidad”. También se introducen elementos tendientes a aumentar la transparencia algorítmica al señalar que se debe garantizar supervisión humana suficiente en casos de potencial impacto en sectores de salud, educación y justicia.
Otras de las recomendaciones adoptadas y más esperadas supone la obligación al sector público de realizar un estudio previo al despliegue de un sistema riesgoso sobre cómo afecta la IA.
Sin embargo, el reglamento es incoherente e incomprensible porque permite que las empresas realicen el análisis de impacto de manera opcional. Esto genera problemas en países donde debería ser obligatorio, ya que el sector privado desarrolla la mayoría de los sistemas de IA. A su vez, en esta categoría también se incluye la IA que propone inferir emociones, tecnología que cuenta con poco sustento científico.
Cualquier intento computacional de hacer encajar el complejo universo de las emociones en categorías preconcebidas y limitadas caerá en escenarios sesgados y peligrosos y debería considerarse de riesgo indebido.
Un futuro con IA basado en los derechos fundamentales
Si bien Perú logra avanzar en su agenda regulatoria de IA incorporando algunas recomendaciones basadas en experiencias de la sociedad civil y otros actores, mantiene definiciones problemáticas o demasiado abstractas, y en su afán de esquematizar tipos de sistemas, deja abierta las puertas a usos contrarios a derechos fundamentales o que sencillamente no se sustentan en bases científicas serias y probadas.
La innovación es un valor deseable y debe ser fomentada en la región latinoamericana. Pero esta no debe impulsarse replicando modelos extranjeros que resultan ajenos a nuestros contextos. Sobre todo cuando han sido objeto de críticas por su flexibilidad a la hora de resguardar los derechos de la ciudadanía.
Access now insiste en la importancia de centrar el diseño regulatorio de tecnologías e inteligencia artificial en la protección de derechos fundamentales y ajustado a la realidad local.