Lunes 14 de Enero de 2019

Gobierno encargó diseño a la UAI

Expertos advierten riesgos en uso de big data para prevenir vulneraciones a niños

Mecanismo que comenzará a ser aplicado este año con un plan piloto, busca mapear a todos los menores de edad del país.

Por Nicolle Peña

Hay protección de datos y consideraciones éticas que estamos desarrollando. Habrá protocolos súper estrictos”,

Carol Bown,

subsecretaria de la Niñez

Esto no puede implicar en ningún caso la vulneración del derecho a la privacidad, ni tampoco una suerte de ranking o competencia entre niños”.

Gabriel Boric,

diputado

Esas decisiones automatizadas generan un alto riesgo por la probabilidad de error que representa, provocando injusticias o discriminación social”,

Jessica Matus,

Fundación Datos Protegidos.

En 12 comunas del país —entre ellas Colina, Santiago y La Florida— comenzará este año el plan piloto del nuevo instrumento de alerta que busca detectar, de manera temprana, a niños y adolescentes en riesgo de ser vulnerados.

Pese a que la propuesta fue incluida en el acuerdo nacional por la infancia al que se llegó en 2018, hoy algunos expertos manifiestan su preocupación por la base de datos personales que se construirá.

En diciembre pasado la Subsecretaría de Evaluación Social licitó el desarrollo de una propuesta del instrumento, trabajo que se adjudicó la Universidad Adolfo Ibáñez por $159 millones.

El mecanismo será utilizado como herramienta de gestión en las nuevas oficinas locales de la niñez, que se instalarán en cada comuna. El objetivo, será determinar de manera temprana condiciones individuales y familiares que conlleven riesgo de caer en situaciones “no deseadas”. En lo concreto, se levantarán factores de riesgo presentes en el entorno de los menores, para construir una calificación que ordenará a través de puntajes a toda la población menor de 18 años —sobre la base de big data— priorizando a quienes tengan mayor probabilidad de ser vulnerados en sus derechos. Y una vez activada la alerta, el personal de la oficina local de la niñez acudirá a constatar el caso y tomará las acciones correspondientes, interviniendo al niño y su familia.

La base de datos se alimentará de otras provenientes de organismos públicos, como el Registro Civil (para obtener el listado de las personas, edades y relaciones de parentesco), educación (rendimiento, matrícula escolar, escolaridad de los padres y otros), Servicio Nacional de Menores (si el niño está en algún programa o si sus padres fueron parte de alguno), registro social de hogares, datos territoriales, entre otras.

Voces de alerta

Pablo Viollier, de la Fundación Derechos Digitales, considera que es “sumamente delicado establecer una base de datos unificada” con información sensible sobre los menores de edad y sus familias, vinculados a temas socioeconómicos, elementos psicosociales, historial médico y otros, ya que a su juicio esto puede generar una estigmatización y prejuicios sociales. “Tener una gran base de datos de todos los niños de Chile es muy peligroso. Existe el riesgo de que se pierda, se vulnere, se filtre o incluso que se mal utilice para fines políticos”, dice.

Viollier agrega que existen dudas sobre qué tan útil es este tipo de herramientas, y acota que en Nueva Zelanda —país que inspira el modelo—se hizo una evaluación que concluyó que antes de establecer el sistema de alerta, la tasa de acierto en la detección de vulnerabilidades era 60% y luego de implementarla subió a 66%. “¿Es un 6% suficiente para justificar la existencia de todos los gastos que significa esta política pública y, por otro lado, de los riesgos de estigmatización de los niños y los riesgos de filtración de datos?”, opina.

Jessica Matus, directora ejecutiva de la Fundación Datos Protegidos, concuerda en que un sistema que recopile de manera automatizada un alto volumen de antecedentes es riesgoso. “Este tipo de modelos realiza predicciones, es decir, con datos del pasado evalúa y califica la información, sin que necesariamente intervenga el factor humano, y esas decisiones automatizadas generan un alto riesgo por la probabilidad de error que representa, provocando injusticias o discriminación social. Los errores en las decisiones automatizadas de los algoritmos contaminan los modelos predictivos, pero ¿quién los audita? ¿Se pueden evaluar de forma objetiva? ¿Son transparentes?”, cuestiona.

Matus añade que el marco regulatorio vigente “es insuficiente para resguardar los datos en el contexto de algoritmos, tanto desde el derecho a impugnar u oponerse a decisiones automatizadas, como a la responsabilidad de quienes deben explicar el procedimiento seguido por el algoritmo, las decisiones que toma y cómo llegan a ellas”.

¿Con o sin proyecto de ley?

El diputado Gabriel Boric (Movimiento Autonomista), quien formó parte de la comisión de Infancia del Gobierno señala que “lo que se discutió es poder detectar prematuramente a niños con riesgo de vulneración derechos en cualquiera de sus dimensiones. Esto no puede implicar en ningún caso la vulneración del derecho a la privacidad, ni tampoco una suerte de ranking o competencia entre niños”. Agrega que “se busca poder identificar a tiempo las amenazas de vulneración para poder prevenir en vez de tener que llegar al momento de reparación. Eso es lo que acordamos en la Comisión de Infancia, eso es en lo que vamos a trabajar y cuando se presente el proyecto de ley a la Cámara, haremos las indicaciones necesarias para que se ajuste a los términos que lo que se discutió en la Comisión Nacional de Infancia”.

Sin embargo, la subsecretaria de la Niñez, Carol Bown, dice que no es necesaria una iniciativa legal para implementar este sistema, ya que se trata de un instrumento de focalización para la toma de decisiones. Aunque sí, precisa, se incorporará la creación de las citadas oficinas locales por medio de indicaciones al proyecto de ley de Sistema de Garantías de Derechos de la Niñez, que está actualmente en tramitación en el Senado.

“No es un ranking, porque no se establece un listado priorizado de niños ni mucho menos, sino que son alertas que van llegando”, precisa Bown. “Hay alertas más graves que otras, por supuesto, y en ese sentido sí podría existir una especie de ranking, pero no es información en que haya un listado de niños más vulnerables”.

Sobre la inquietud de los expertos, la subsecretaria señala que “hay todo un sistema de protección de datos y de consideraciones éticas que estamos desarrollando en esta materia, con toda la experiencia internacional que existe porque efectivamente de lo primero que hicimos cuando empezamos a levantar esto, fue establecer que no se podía estigmatizar. Por lo tanto, todos los niños estarán en el sistema y habrá protocolos súper estrictos, de forma tal de que no se haga pública”.

En tanto, Marcelo Drago, presidente del Consejo Para la Transparencia, discrepa con la subsecretaria. “Para que se desarrolle un sistema de este tipo se requiere de una ley, no basta con una política, un decreto o reglamento. Requiere un respaldo legal y medidas de fiscalización para el cumplimiento de las exigencias. La experiencia internacional indica que también se requiere un estudio de impacto previo”, advierte.

VOLVER SIGUIENTE