Hombre en traje con webcam en una cabeza

Ilustración original por Gabriela Sánchez. Creative Commons BY SA.

La pandemia del Coronavirus nos presenta varios desafíos en el espacio en línea. Uno, y quizás el principal es el garantizar que se respeten nuestros derechos digitales. En América Latina la respuesta de los Estados ha sido, mayoritariamente, el solucionismo tecnológico. Apelar a la tecnología para prevenir los contagios del virus. Esto en sí mismo no es un problema, el conflicto en todo caso responde a los diversos intereses que hay detrás de cada iniciativa.

En exclusiva para GenderIt.org, nuestra colaboradora Florencia Flores Iborra conversó con varios referentes de la región en el ámbito tecnológico.

Solucionismo tecnológico

Entrevista a Maricarmen Sequera y Paloma Lara Castro, TEDIC, Paraguay

De acuerdo con la serie #Antivirus de Tecnología, Investigación y Comunidad -TEDIC-1, varias son las iniciativas del gobierno paraguayo para lidiar con la pandemia. En su investigación mencionan algunas de las malas prácticas en el tratamiento de datos sensibles que se evidencian en las propuestas del Estado guaraní. A saber:

«La aplicación Rastreo COVID–19, creada por un grupo de jóvenes informáticos, es una app que “registra contactos con otras personas y recibe notificaciones en caso de que se confirme un infectado”. […] También se suman iniciativas municipales como el Programa Ñangareko de la Gobernación de Paraná, que es una plataforma web para la distribución de kits de alimentos y la entrega de recursos económicos para personas en situación de vulnerabilidad. Para recibir esta ayuda, la persona debe completar un formulario con datos personales, por lo que la plataforma está construyendo una base de datos sensibles_2_ de toda la población vulnerable de Paraná. […] Otro ejemplo es el formulario del supuesto Censo de emergencia COVID–19, a través del cual se recolecta información sensible, sin responsable del tratamiento de datos personales y sin el aval del Ministerio de Salud Pública de Paraguay. Las instituciones del Estado comunicaron que no es un sitio oficial y solicitaron a la población que no se inscriba en portales falsos. Por otro lado, la iniciativa ciudadana autoreporte.org ofrece información sobre los síntomas de la enfermedad, para intentar evitar la saturación del sistema de atención primaria del Ministerio de Salud, y además brinda información estadística. Y por último, tenemos la plataforma del Ministerio de Salud, que es de acceso restringido y de uso interno de la institución, así como para las personas diagnosticadas con COVID-19. Esta plataforma almacenará datos personales y datos sensibles, trámites médicos y geolocalización, de acuerdo con las indicaciones de la Dirección General de Vigilancia de la Salud3


Glen Carrie en Unsplash.

Consultadas por GenderIt.org Maricarmen Sequera4 y Paloma Lara Castro5, integrantes de TEDIC, analizan la vigilancia y control social sobre los datos personales en contexto de emergencia sanitaria.

Florencia Flores Iborra: ¿Cómo impactan las iniciativas del Gobierno paraguayo en los derechos digitales de sus habitantes?

Maricarmen Sequera: La conversación que tenemos en TEDIC en relación a temas de datos personales y privacidad viene hace bastante tiempo y en este espacio específico lo que remarcamos realmente es que justamente en tiempos de emergencia venimos alertando con mucha preocupación que el solucionismo tecnológico no puede ser la respuesta ante esta pandemia. Hay que entender que esta respuesta hoy tiene cara de máscara médica y la discusión está muy lejos de terminarse. En ese sentido, Paraguay, junto a la región está teniendo una tendencia de implementar tecnología para solucionar un hecho, que es súper precarizada, que es la salud pública de calidad. Y este tipo de soluciones que vienen tanto de la sociedad civil como de la comunidad técnica y de sectores privados que construyen y lanzan aplicaciones de autovigilancia. Creemos que es un tema bastante sensible porque estamos hablando de almacenamiento de información de datos personales sin garantías.

Paloma Lara Castro: Una cuestión que nos preocupa bastante es que si miramos la historia de Paraguay en un sentido amplio, creemos siempre que hay que historizar la historia. Es decir, que las cuestiones que suceden no son hechos aislados, sino que tienen una relación y una lógica que se puede ver de manera bastante palpable en cuestiones sobre todo de vigilancia y control ciudadano. Entonces, en ese sentido también destacamos que, por ejemplo, durante la dictadura de Stroessner, uno de los grandes pilares que tuvo esa dictadura militar fue que justamente se sustentó a través de y por el control social. Solamente que, la diferencia de esa lógica aplicada en ese momento es que la tecnología era menor. No había tanto desarrollo tecnológico por aquel entonces, pero si se operaba en un sentido de necesitar el control ciudadano para mantener el Status Quo. En el Estado de excepción, se utilizó ante la ciudadanía un discurso de una supuesta protección, alegando que las medidas implementadas eran para la seguridad de los ciudadanos, para en realidad violentar derechos fundamentales mediante la vigilancia del control social. Y estas medidas devinieron en las cuestiones que ya conocemos: tortura, desapariciones forzadas, arrestos ilegítimos, etcétera. Haciendo una comparación, vemos que actualmente se está utilizando esa misma lógica. Se aprovecha una crisis sanitaria mundial para elaborar un discurso que apunta a una supuesta protección de la ciudadanía en términos de salud, pero que en realidad lo que hace es valerse de la situación de la crisis para implementar medidas de vigilancia y reforzar el control que termina violentando derechos humanos de las personas.

MS: Es importante entender que los Estados necesitan información tanto de datos personales; tradicionalmente hablando; nombre, apellido, etcétera. Son los Estados los que más generan información, entre ellos datos sensibles, y son los que mayormente almacenan información sensible a nivel global desde hace muchísimo tiempo. Y ese almacenamiento no solamente significa tener una base de datos para después vigilarnos. Si se trata realmente de un Estado de derecho lo que hace es ofrecernos mejores garantías del ejercicio pleno de nuestros derechos. Nosotros desde TEDIC no estamos en contra del almacenamiento de datos sensibles, pero el problema es que países como el nuestro nunca han garantizado el ejercicio pleno de nuestros derechos y en lugar de ofrecernos derechos, lo que ha hecho es vigilarnos. Por eso es muy importante entender que aplicaciones como Rastreo COVID-19, no son realmente una medida de prevención de contagio. Por el contrario de lo que estamos hablando es de un claro control social. Y este control social es justamente un reflejo de esa preocupante vigilancia de la tecnología. Siempre creemos que la tecnología es justamente la que genera estas vigilancias y en realidad lo que estamos diciendo es que la tecnología en sí misma no es una forma de vigilancia, sino que de ahí se despliegan las intenciones de un Estado o de políticos o de un sector privado que justamente aprovecha esto como mercancía para ofrecer o vigilar con otros sectores. En países con mucha precariedad de ejercicio democrático, es muy común que estas aplicaciones sirvan de vigilancia. Hay un alto riesgo, cuando hablamos de almacenamiento de datos sensibles que tienen que ver justamente con los datos de contacto, de rastreo de celulares. Y ahí la interrogantes que surgen son varias: ¿qué garantías legales tenemos para que esto no se fugue o se utilice de mala manera? ¿Cuál es el impacto de estas app en la etapa de prevención? Justamente creemos que el fin de la aplicación, no sirve. Y esto ya se ha demostrado en otros países, inclusive en la zona de Valle del Silicio de California, lugar donde se generan todo este tipo de tecnología. Al mismo tiempo en países como España, donde fue el boom de utilizar este tipo de aplicaciones, hay ciertos estados que ya están prohibiendo estas apps no solo por el tema de datos personales, sino también por la efectividad de la información. Pues no hay forma de analizarla de manera preventiva y eficaz con este tipo de tecnologías.

FFI: Y a esto se le suma la complejidad de que la aplicación Rastero COVID-19 es una iniciativa privada que no necesariamente respeta las garantías individuales.

MS: Si bien en TEDIC somos bastante críticos cuando el sector privado almacena datos personales, es importante entender que ellos no son los mayores generadores de información sensible a nivel global. En todo caso, pueden ser plataformas hegemónicas como Facebook o Twitter, que son las que conocemos. Ellas sí tienen una trazabilidad y una capacidad de análisis de datos, de big data o grandes bases de datos. Pero en el caso de empresas locales o empresas regionales que están buscando de alguna manera solucionar la emergencia sanitaria, este sector tiene graves problemas en términos de análisis de derechos humanos, o de una inclusión de perspectiva de género, ya que no se están implementando porque es un sector que nunca tuvo ese ejercicio. Por lo tanto, lo que hace es justamente excluir en términos prácticos. Paraguay, es un país que no tiene una alta conectividad de internet. Tenemos como máximo 45% de conexión, de acceso a la red. Actualmente tenemos un problema gravísimo para resolver la educación remota durante la pandemia. Nuestra internet es muy cara, entonces es muy poca la gente que tiene acceso a una aplicación de rastreo. Esta es otras de las cuestiones que demuestra que este tipo de soluciones no funcionan porque se recolectan datos de un poco menos de la mitad de la población. Por lo tanto, en términos prácticos, desde TEDIC y en Paraguay en general no estamos muy preocupados en que estas aplicaciones puedan proliferar porque su impacto o sus mediciones van a ser mínimas. Sin embargo sí creemos que es importante regular su uso. Esto no significa prohibir el almacenamiento de datos sensibles, pero sí es importante que haya un consentimiento informado de las personas que van a formar parte de esa base de datos y también analizar el tiempo a almacenar esa información. Por ejemplo ¿qué pasará con los datos después de la etapa de emergencia? Esa es la información que hoy este sector privado de manera irresponsable no está pudiendo responder, suponemos, por un lado que es por negligencia. Pero por otro parte, creemos que tiene que ver con las intenciones muy comunes, que existen en países como el nuestro, de la venta de bases de datos.

PLC: Además, a esto se le suma una gravedad jurídica o una laguna jurídica que hasta el momento en Paraguay no contamos con una Ley de protección de datos personales. Entonces, eso genera una mayor dificultad en cuanto a cómo exigimos o qué herramientas tenemos para exigir que se dé cumplimiento a estas cuestiones que mencionaba Maricarmen. En concreto: ¿cuánto tiempo se van a almacenar nuestros datos? ¿Quién va a tener acceso? ¿Cómo evitamos realmente, mediante una herramienta jurídica, que esa base de datos no sea utilizada para otros fines o que no exceda el tiempo de la pandemia?

Es importante tener en cuenta que no es solamente el Estado el que tiene acceso a estas bases de datos. Por ejemplo en el programa Ñangareko, se trata de una base de datos que se van generando con un perfil muy específico. O sea, que se elabora un listado de personas que pertenecen a una situación de vulnerabilidad ya que justamente solicitan ayuda para acceder a un kit alimentario. Entonces gracias a esta iniciativa conocemos personas que viven en ciertas localidades, en donde sabemos que tienen ciertas restricciones o cierta falta de accesibilidad a derechos básicos y que necesitan, por ejemplo, de A, B o Z cuestión. Y eso puede ser utilizado con fines de campaña política, por poner solo un ejemplo. No estoy diciendo que esto ya está sucediendo, ni que está probado, sino que es un mero riesgo que me parece que está sustentado en cómo funciona la política en Paraguay. No es algo que se pueda inventar, algo fantasioso, tomando en cuenta un contexto generalizado y una historia de grandes vulneraciones dentro de un sistema democrático que es bastante débil. Este tipo de cosas hay que considerarlas en una totalidad cuando implementamos estas soluciones. Donde se agrave el escenario, además, por no contar con un marco jurídico que pueda proteger de alguna manera y que pueda ser una herramienta para poder exigir garantías.

FFI: ¿Cuáles son los estándares de privacidad y protección de datos personales que deben tener las aplicaciones utilizadas para combatir al COVID-19?

PLC: Hay ciertas cuestiones que deben tenerse en cuenta cuando se quiere implementar soluciones que tienen la potencialidad de vulnerar derechos de las personas en cuanto a su privacidad y por ende también a otros derechos conexos como pueden ser la libertad de expresión, libertad de asociación, manifestación, etcétera. En principio tiene que haber un aviso de privacidad y datos personales que pueda ser accesible a los usuarios y las usuarias y que en este sentido incluya un consentimiento informado que explique la finalidad de la solución de manera clara y que haya una calidad del dato, es decir, que no sean datos que no corresponden y que además sean datos que estén por un tiempo determinado y que sirvan a la finalidad aludida. Que haya una confidencialidad sobre la información que está siendo recabada, que eso a su vez tenga un sistema de seguridad. Que haga un respaldo, es decir una garantía de seguridad y confidencialidad de esos datos recabados y también que incluya una privacidad por diseño. O sea, que no solamente se ponga la cuestión del estudio de la privacidad una vez que la aplicación o la plataforma esté funcionando como una cuestión anexa, sino que desde el comienzo, cuando se empieza a desarrollar, se tenga como eje regulador el acceso o la garantía al derecho a la privacidad.

FFI: ¿Creen que las aplicaciones planteadas por el gobierno paraguayo puedan afectar más o distinto a las feminidades?

PLC: Sí, definitivamente sí. Las mujeres de por sí nos encontramos a nivel global en una situación de desventaja en cuanto a una asimetría de poder existente desde un poder hegemónico como es el machismo, el patriarcado y las cuestiones que ya conocemos. En países donde no se tienen un nivel de avance en políticas públicas destinadas a equiparar o a tratar de avanzar en acortar la brecha de género existente, como pasa en Paraguay, evidentemente, todas las políticas públicas que se pretenden implementar en este contexto, donde no apuntan a una cuestión específica de las mujeres, sino que apuntan a la ciudadanía sin hacerlo con perspectiva de género, evidentemente tienen un trato diferenciado o una afectación diferenciada en cuanto a las mujeres. A qué datos se van a recabar y cómo esos datos pueden ser utilizados en forma discriminatoria, por ejemplo, o de forma que no asegure el cumplimiento de sus derechos, sino al revés. O sea, hay cuestiones que se están implementando que no tienen realmente una perspectiva como el derecho a la intimidad de las mujeres debe ser asegurado también. No es que el derecho a la intimidad puede ser sacrificado en base a otras cuestiones que se están planteando. Y en ese sentido también es una cuestión que surgió durante la pandemia. Específicamente en Paraguay te puedo decir que durante el confinamiento, el aislamiento social, se subió a un 80% las denuncias por violencia de género. Porque claramente las mujeres están encerradas con su agresor, o sea, con la persona que las violenta día a día, con la diferencia de que antes esta persona tenía una rutina fuera del hogar y ahora está encerrado todo el tiempo con su víctima. Entonces, evidentemente las cifras suben y al mismo tiempo no existen políticas públicas que apunten a una disminución no solo de la brecha de género, sino además que contemplen esta situación específica dentro de la pandemia y que promuevan acciones directas y efectivas ante esta problemática. Existe un falta de respuesta a las mujeres en términos generales. Si bien en Paraguay tenemos una ley de violencia contra la mujer, no ha sido implementada en todas sus instancias y no ha sido efectiva tampoco, pero no por falta de voluntad política del Ministerio de la Mujer_, sino más bien por falta de voluntad política del Estado en su generalidad. En términos de presupuesto, por ejemplo, el del Ministerio de la Mujer es ínfimo y de hecho fue uno de los que sufrió mayores recortes cuando se hizo la reestructuración presupuestaria. Actualmente se invierten 18 guaraníes (el equivalente al 0,002 dólares) por mujer para combatir la brecha de género. Lamentablemente Paraguay es uno de los países de la región que sufre mayores índices de femicidio, de violentación a mujeres menores de edad y embarazos adolescentes. Por lo tanto, todas estas problemáticas ya preexistentes se agravan en esta situación de pandemia y además se entrecruzan con otras cuestiones de recabación de datos que no tienen en cuenta derechos de privacidad, ni tampoco lo ponen como un eje a tener en cuenta en estas políticas públicas.

FFI: ¿Quién controla a quiénes nos vigilan?

MS: En TEDIC creemos que justamente para regular a estas grandes empresas hegemónicas, porque sabemos que quienes desarrollan estas tecnologías, siempre se encuentran en el norte global. Nuestros Estados no tienen esa capacidad de generar este tipo de tecnología de vigilancia masiva. Por lo tanto, sería importante hacer un trabajo regional de articulación y solidaridad que incluya también una perspectiva de género, una mirada feminista, para poder hacer un control o una regulación que realmente impacte. Que tenga realmente efectos en ciertos cambios de comportamiento de estas empresas hegemónicas que no necesariamente tienen sus oficinas comerciales en países como el nuestro y generalmente están centradas en dos o tres países de la región: mayoritariamente ubicadas en Brasil. Por lo tanto, para hacer una acción judicial en países como Paraguay, tenemos que irnos a Estados Unidos y eso genera una defensa mucho más costosa. En instancias donde justamente nuestras organizaciones no son especializados. Nuestra sugerencia entonces es que podría ser interesante evaluar una articulación regional para poder tener mejor defensa de los derechos humanos en general y de los digitales en particular. Y en ese aspecto también tiene que ver con potenciar economías no tangibles como tema de propiedad intelectual o datos personales. Y en ese caso es muy interesante también cómo los Estados se dan cuenta de la importancia de esta soberanía de información, una información política, lo cual creemos que si nuestro país no solamente piensa de esa manera, podría asociarse con otros países que quizás tengan mejores criterios. Y así, desde una mirada más regional, con instancias regionales como por ejemplo desde el Mercado Común del Sur (MERCOSUR) o inclusive desde espacios como la Organización de los Estados Americanos (OEA) se podrían pensar mejor y desde una perspectiva regional para establecer cómo regular a estos intermediarios.

---

La falta de neutralidad de la tecnología es concreta. Por ello sus soluciones reproducen violencias. Como organizaciones es nuestra tarea monitorear a quienes nos vigilan. Hasta que no existan garantías para que los Estados respeten nuestros derechos digitales, seguiremos denunciando los abusos de los gobiernos.

La sociedad civil cumple un rol clave en esta tarea. Es necesario visibilizar los intereses creados detrás de política pública. De cada no intervención tecnológica. No dejemos que silencien nuestros reclamos… mucho menos durante la pandemia.

El cambio es urgente y necesario

Entrevista a Beatriz Busaniche, Fundación Vía Libre, Argentina

Si bien la pandemia del Coronavirus impacta en nuestra vida social, muchas veces las medidas de los gobiernos intervienen de manera directa en nuestras actividades en el espacio en línea. Con la propagación del virus han salido a la luz muchas desigualdades estructurales además de evidenciarse prácticas non sanctas que han estado al servicio del establishment desde hace décadas: tanto en el mundo analógico como en el espacio digital.

La vigilancia y el ciberpatrullaje son prácticas habituales que, COVID-19 mediante, se han acrecentado. Este fue el caso de Argentina, en donde se conoció un protocolo de ciberpatrullaje que llevaba adelante el Estado desde la gestión del ex presidente Mauricio Macri.

Para comprender la complejidad del tema, en GenderIt.org conversamos con Beatriz Busaniche6, presidenta de la Fundación Vía Libre, una organización que lleva veinte años de trabajo en la intersección de derechos fundamentales, derechos humanos y la incorporación de tecnologías en la vida social.


Marjan Blan en Unsplash

Florencia Flores Iborra: ¿Cuáles son los mecanismos existentes en Argentina para garantizar el derecho a nuestra privacidad en el uso de aplicaciones elaboradas por privados?

Beatriz Busaniche: Todas las bases de datos del sector privado tienen que necesariamente estar registradas frente a la Dirección Nacional de Protección de Datos Personales_, que es el órgano rector de aplicación de la norma aquí en Argentina. Y ahí no sólo debería estar declarado qué hacen con los datos, sino que también deberían estar detallados en los términos de uso de las aplicaciones todos los derechos que los ciudadanos tenemos frente a los datos personales y a la administración de la información que haga el sector privado. En este sentido, no son ajenos a la legislación vigente. Legislación que, por ejemplo, es taxativa en prohibir la confección de bases de datos sensibles, como pueden ser los datos médicos, salvo, por supuesto, para aquellos que tienen la cuestión médica como tarea principal. Es decir, no se le va a prohibir a un sanatorio que tenga una base de datos con historias clínicas de sus pacientes. Pero si cualquier cosa que implique datos que tengan que ver con su estado de salud: fiebre, condiciones preexistentes y demás. Claramente si la empresa que realiza no tiene entre su misión la tarea sanitaria, está infringiendo la ley.

El control lo tiene que hacer la autoridad de aplicación, que digamos todo, es una autoridad de aplicación muy pobre en Argentina, que en los casi veinte años de vigencia de la ley no se ha caracterizado por tener una mano firme frente al sector privado. Y esto es uno de los problemas que tenemos en Argentina, que tenemos una autoridad de aplicación que es demasiado laxa y en este momento no parece estar tomando medidas frente a este tipo de bases de datos que están construyendo el sector privado. Así que ahí hay una situación de conflicto que debería resolverse por la vía legal. Y acá es importante mencionar que Argentina es uno de los primeros países, si no el primero de la región, en tener una Ley de Protección de Datos Personales  (Ley número 25.326). Además, nuestro país tiene el principio de protección de la privacidad en su Constitución de 1853. Tiene también en la Reforma Constitucional de 1994 la incorporación del derecho de hábeas data. Es decir, el derecho de protección de datos se incorpora con rango constitucional en la reforma de 1994 y en el año 2000 se aprueba la Ley de Protección de Datos Personales, que también logra su homologación frente a la Unión Europea. Entonces tenemos una legislación interesante, que si bien ya está bastante vieja y que requiere una serie de revisiones, entre ellas una revisión importante, justamente al fortalecimiento de las capacidades de la autoridad de aplicación, que es el punto flaco de nuestra Ley y por ende el más problemático. Se trata de un marco legal de protección de datos que está vigente y que se debe hacer respetar.

FFI: ¿Es posible implementar tecnologías de inteligencia artificial que permitan contener el avance de la pandemia y, asimismo, garantizar el derecho a la privacidad?

BB: Los mecanismos de los sistemas de inteligencia artificial pueden ser útiles, sobre todo cuando uno maneja grandes volúmenes de datos. En general se pueden hacer proyecciones, se pueden hacer estimaciones, se puede hacer una serie de cosas en donde los sistemas de software y muchos sistemas sirven para hacer prospectiva y delinear escenarios y por ende lograr un impacto de mucha utilidad. De hecho, cuando vemos los gráficos, las curvas y las proyecciones del Coronavirus lo que estamos viendo es el uso de este tipo de herramientas, algunas más simples y otras más sofisticadas. El problema que tienen en general los sistemas de inteligencia artificial cuando son usados para la definición de políticas públicas es que trasladan al futuro los prejuicios del pasado. En muchos casos, muchos de esos prejuicios del pasado son elementos que hay que tener en cuenta para planear el futuro, el conflicto surge cuando esas cuestiones son usadas de forma discriminatoria. Por ejemplo, hacer algún tipo de prospectiva sobre qué pasa con poblaciones de fuerte hacinamiento, que suelen ser a su vez poblaciones marginadas, históricamente discriminadas y que administrar ese tipo de datos nos podría dar herramientas diferenciales para tratar la pandemia. Estoy pensando en barrios vulnerables, frente a barrios donde tenés una población que vive en otras condiciones, con mucha menos gente por metro cuadrado. En barrios populares que son habitados por personas en situaciones de vulnerabilidad extrema y que no es casual que son los que hoy están pagando la pandemia aquí en Argentina. Entonces, me parece que algún elemento de inteligencia artificial podría ser usado, siempre y cuando eso implique una mejora de las condiciones de vida de las personas y no un empeoramiento de las condiciones de discriminación. Últimamente he visto algunos proyectos de segmentar la ciudad con lugares donde se puede pasar y donde no, que bien bien podrían ser homologables a los guetos y a otros otro tipo de políticas de fuerte discriminación hacia distintos sectores.

_Dicho esto, el tema que yo creo que es grave a nivel no solo nacional o regional sino a nivel global, es lo que Evgeny Morozov llamaba el solucionismo tecnológico. Es decir, tenemos un problema, le ponemos una app y lo solucionamos, y en la gran mayoría de los casos este tipo de “soluciones” generan otros problemas o generan otro tipo de situaciones que son indeseables y que esconden la posibilidad de tomar medidas. Medidas que muchas veces son menos marketineras, menos modernas pero que eventualmente pueden ser más eficientes y de mayor impacto.

FFI: A comienzos de abril Sabina Frederic, titular Ministerio de Seguridad de la Nación, anunció que se iba hacer “ciberpatrullaje”7. Tanto Fundación Vía libre como otras organizaciones repudiaron los dichos de la ministra8. *¿Podrías explicarme el impacto en la vulneración de derechos que puede tener el ciberpatrullaje en nuestras vidas?***

BB: En Fundación Vía Libre estamos haciendo un fuerte seguimiento junto las autoridades por este tema. El ciberpatrullaje es un problema serio a nivel global. En Argentina se instala el concepto de ciberpatrullaje a partir de la gestión de la ex ministra de seguridad Patricia Bullrich y un protocolo que ella estableció en el año 2018 y al que las organizaciones no pudimos acceder en ese momento debido a que el protocolo no se hizo público. Recién supimos sus detalles y conocimos su letra chica a partir del anuncio que hizo la ministra Frederic. Y claro, cuando ella menciona la política de ciberpatrullaje se arma flor de escándalo. En paralelo se producen varios casos, en particular el de detención de Kevin Guerra, un chico de la localidad de Balcarce que fue detenido por haber tuiteado, en plan de broma e ironía, un tweet con la palabra saqueo. Otra causa que en Fundación Vía Libre seguimos trabajando y que está vinculada con el patrullaje digital, es una causa que se inició en la gestión anterior contra Javier Smaldone, que derivó en el allanamiento de su domicilio sin que fuera imputado de ningún delito concreto. A Javier le allanaron el domicilio y le incautaron todas sus pertenencias tecnológicas sin tener ninguna imputación concreta en un delito efectivamente bajo investigación. Fue allanado bajo la categoría de sospechoso de algo que no sabemos qué es. Fruto de ciberpatrullaje justamente. Es decir, el ciberpatrullaje es un problema con el que venimos lidiando desde hace varios años. Y en términos de derechos digitales es una práctica que tiene muchas consecuencias. La principal y que atenta contra la libertad de expresión es la autocensura y la erosión de los espacios de debate público. Una erosión que se produce en particular cuando se toman medidas como las ejecutadas contra Kevin o Javier y que son fuertemente intimidatorias para las personas que quieren manifestar sus opiniones en la esfera pública, en particular en momentos de pandemia, en el cual el derecho a la libre circulación está suspendido. A raíz del virus ya no podemos ir a protestar a las plazas de nuestras ciudades para conquistar derechos, por lo que la esfera privada de acceso público de las redes sociales se convierte en ese nuevo lugar de protesta y, por lo tanto, el ciberpatrullaje no solo es intimidatorio para la libertad de expresión, sino también para el derecho a la protesta, que es uno de los derechos que está reconocido en la Constitución Nacional, en varios tratados de derechos civiles y políticos entre otros. Y también hay un impacto directo sobre la privacidad y la intimidad de las personas, porque aunque nosotros estemos dialogando en un espacio que podemos provisoriamente definir como público sin ponerle candados o pautas de privacidad segmentada como te ofrecen las plataformas, también tenemos un supuesto, una presunción y una hipótesis de privacidad que debemos respetar. Por ejemplo, cuando la ministra y los funcionarios de seguridad decían que el ciberpatrullaje era homologable a la ronda que hace un oficial de las fuerzas de seguridad por la calle y eventualmente, si es testigo de la comisión de un delito tiene la potestad de actuar o su mera presencia es también una forma de prevención del delito. Esto no es equiparable a lo que ocurre en el ciberpatrullaje en las redes sociales. ¿Por qué? Porque en este caso, primero, cuando vos estás en la esfera del ámbito público analógico, el oficial tiene obligación de estar identificado. El oficial no puede venir a pararse frente a tu casa y tomar fotografías de tu entrada, tu salida. Cuando prendés la luz, cuando apagás la luz y ese tipo de cuestiones. Eso es hacer inteligencia sobre las personas. El oficial tampoco puede, si vos estás en una plaza o en la calle o en la puerta de tu casa conversando con tus vecinos, pararse a un metro de distancia y registrar tus conversaciones. Eso también se califica como espionaje, inteligencia. Y eso es lo que ocurre con el ciberpatrullaje. Hay un registro de tus conversaciones. Hay un registro de tus movimientos. Hay un registro de tus acciones y eso califica más de inteligencia y de hecho, técnicamente es inteligencia de fuente abierta y no acciones para la prevención del delito.

En definitiva, emitir una opinión en un ámbito público no puede, sin más, ser objeto de seguimiento, y menos, puede ser causa suficiente para la apertura de una investigación criminal. El sistema de justicia tiene que cumplir su función de protección de garantías, sobre todo en estos casos en los que se pone en juego una ampliación de las facultades estatales de vigilancia. Por estos motivos es que en Fundación Vía Libre repudiamos este tipo de iniciativas por parte del Estado.

Dicho esto, y si bien nosotros somos una organización muy crítica de estas decisiones, tampoco quiero ser injusta. Quiero mencionar que tanto la ministra Frederic como la responsable del área de Innovación, Micaela Sánchez Malcom, han sido muy abiertas a escuchar las demandas de la sociedad civil y en buena medida muchas de estas demandas han sido recogidas, pese a que aún así tenemos algunos reparos. Pero me parece importante destacar que en ambos casos ha habido una apertura al diálogo y una apertura a los aportes que es muy importante, y que es una actitud que no he visto en otras gestiones. Sin ánimo de salir a defender a ningún gobierno, pero sería injusto no aclarar este aspecto.

FFI: ¿Qué pasa con las feminidades? Estas iniciativas tecnológicas ¿nos afectan más o distinto?

BB: No estoy segura. La verdad es que no sabría darte una respuesta precisa. Puedo esbozar algunas ideas. Sí claramente puedo decir que el retorno a la esfera privada en general, implica en buena medida un retorno también a una reverberación, si se quiere, de las condiciones desiguales estructurales de género. Y bueno, ni hablar de las problemáticas de las de las disidencias y demás. Hay colectivos que están directamente impactados por la situación y estoy pensando en los colectivos vinculados con el trabajo sexual, por ejemplo, que ahí hay todo un sector que está siendo expulsado, que ya previo a la pandemia vivían en condiciones estructurales de marginalidad muy grandes y que a partir de esta situación muchas de estas personas están siendo expulsadas de los lugares donde residen, expulsadas a la calle. Que están siendo privadas, además, de algunas de las pocas fuentes de ingreso que tienen. Entonces, cuando, por ejemplo, vos tenés personas donde en buena medida el trabajo sexual es la principal fuente de ingresos. Vemos múltiples variables de marginalidad, marginación y expulsión que deberían ser atendidas definitivamente, que son fundamentales y urgentes y que se deben poner sobre la mesa en relación a las cuestiones de género.

Otra problemática que es importante destacar es que en la restauración a la vida doméstica hay también una sobrecarga del trabajo doméstico y las tareas de cuidado que impactan directamente sobre las mujeres. Y otro sector que está fuertemente impactado, que también es un sector eminentemente femenino, tiene que ver con las trabajadoras de casas particulares, en donde no solo sabemos que es un sector muy precarizado, sino además que en plena pandemia está prácticamente perdiendo sus fuentes de trabajo por no poder trasladarse para realizar sus labores, ya que no se considera al trabajo doméstico como una de las tareas esenciales. Pero la contracara que vemos es que en muchos casos, familias ricas que tienen el personal doméstico cama adentro y que están haciendo la cuarentena en su lugar de trabajo, personas que hace meses que no puede salir a ver a sus familias y a sus hijos. Entonces estamos en una etapa de restauración de una virtual esclavitud y eso me parece que también hay que atenderlo. Hemos visto muchas celebridades en Tik Tok mostrando a su servicio doméstico, pasando el aislamiento con ellos en sus casas lujosas de sus barrios privados. Y ese personal mayoritariamente mujeres, es además y en buena medida soporte de una familia que ha quedado sola. Y esa realidad no la estamos tomando en cuenta y a mi entender eso es una situación de virtual esclavitud. Y es una forma de precariedad y de restauración de relaciones que son de absoluta desigualdad y que tienen un sesgo de género muy marcado.

---

La pandemia ha puesto en evidencia una serie de desigualdades estructurales que debemos superar. Por ello no queremos volver a la antigua realidad. Debemos entender que estamos ante un oportunidad única de generar un cambio social en pos de lograr la equidad tanto en el mundo analógico como en el espacio digital. El cambio es urgente y necesario. Hablar del tema es un primer paso, pero no suficiente. Está en nuestras manos dar la batalla.

Sin información no hay futuro

Entrevista a Carolina Botero, Fundación Karisma, Colombia

En el marco de la emergencia sanitaria, donde la educación se pretende garantizar de manera remota, el problema de la brecha digital se hace cada día más evidente. La desigualdad social se traslada al espacio en línea, logrando dejar a muchas personas fuera del acceso al sistema educativo. En Colombia son pocas las iniciativas estatales que permitan resolver esta cuestión. Al igual que varios de los países de la región latinoamericana, la decisión del gobierno colombiano para superar la crisis ocasionada del Coronavirus recurre al solucionismo tecnológico y CoronApp se posiciona como la aplicación aliada del Estado, la dificultad radica en que su uso es, al menos, invasivo.

Desde Bogotá la Fundación Karisma9 trabaja para que las políticas públicas y prácticas del Estado y de particulares, garanticen los derechos a la intimidad y seguridad digital de las personas. En GenderIt.org conversamos con su directora ejecutiva Carolina Botero10 para entender el impacto de la desidia de las autoridades.


Naciones Unidas en Unsplash

Florencia Flores Iborra: ¿Qué es y cómo funciona CoronApp?

Carolina Botero: CoronApp es la aplicación del gobierno colombiano para enfrentar el COVID-19. Ellos partieron de una aplicación que ya tenía el Instituto Nacional de Salud, que había lanzado en 2017 de una aplicación que hubo en Brasil en 2016 y que lo trajeron para Colombia. Nosotros somos país tropical como Brasil, como Venezuela, Ecuador y tenemos epidemias constantes. Así fue que importamos la app, con el mismo propósito que se usó en Brasil: ayudarle a la gente a detectar contagio por enfermedades endémicas en el país, que son, por ejemplo, chikungunya, dengue, malaria, fiebre amarilla, entre otras. Básicamente se utilizaba como un registro de síntomas para que quienes venían a visitar Colombia y que no tenían tanta familiaridad con este tipo de enfermedades tropicales, pudieran hacer el monitoreo. Cuando se desata la pandemia y Corea y China comienzan a utilizar apps, el gobierno inmediatamente piensa en eso y anuncia que va a usar una aplicación para prevenir los contagios. Al poco tiempo de lanzada la iniciativa, en Fundación Karisma revisamos la aplicación, que en ese momento se llamaba Guardianes de la Salud11 y que pronto le cambiaron el nombre a CoronApp. En concreto la aplicación pide datos personales y de salud a la persona que se registra, quien también puede aportar los de su familia. Adicionalmente, se activan permisos en el celular para acceder y transmitir periódicamente datos de localización y también tiene los permisos para bluetooth y wifi lo que le permitirá desarrollar la funcionalidad de rastreo de contagio por proximidad.

En el primer análisis que realizamos en marzo, detectamos que había unas doscientas mil personas que ya la habían descargado y notamos además que funcionaba muy mal. Técnicamente estaba mal construida. La información incluso estaba desactualizada. No había nada relacionado al Coronavirus, por lo que pensamos que el gobierno la iba a dejar de lado. Sin embargo, quince días después (para principios de abril) la app había cambiado sustancialmente. Invirtieron un montón de dinero y estaba funcionando mejor. A estas alturas tenía una versión disponible para IOS y otra para el sistema operativo de Android. Y contaba con más de un millón setecientos mil usuarios/as.

Nosotros lo primero que hicimos fue un análisis de seguridad digital y privacidad_12_ que dio pésimos resultados. Encontramos dos vulnerabilidades particularmente importantes. La primera consistía en que la transmisión de los datos se hacía sin usar el protocolo seguro HTTPS, esto se corrigió y de hecho había sido reportado previamente por Threatpost una organización internacional que realiza análisis de seguridad a nivel global. El problema más grave era de autenticación que fue corregida en la versión del 14 de abril. Esto podría haber comprometido la base de datos de las cientos de miles de personas registradas -y sus familias- hasta ese momento permitiendo el acceso por terceros no autorizados a los datos personales y de salud.

El segundo problema era aún más grave. CoronApp no ofrece información sobre la forma como gestiona de manera segura y respetuosa la privacidad de los datos. No explica cómo es la temporalidad de su naturaleza, ni lo que sucederá con los datos al finalizar esta emergencia. En los términos y condiciones de uso hacen referencias generales a que cumplen la ley, que toman medidas seguras o indican que la información de salud quedará alojada en una infraestructura dedicada, pero no dan mayores detalles.

FFI: ¿Cuáles son los problemas de implementar una aplicación de estas características desde el Estado?

CB: En Fundación Karisma invitamos a reflexionar acerca del desarrollo de este tipo de tecnologías. Lo primero que uno debería preguntarse es ¿para qué quiere el gobierno colombiano una app? Después de eso, ¿cómo encaja esa app dentro del sistema general? Por ejemplo, ¿quién nos garantiza que la aplicación no sea utilizada para discriminar? Es necesario que haya un análisis de equidad frente a una tecnología que se despliega particularmente en algo tan importante como lo es la salud pública. Pero además, sean cuáles sean las respuestas a estas preguntas, hay que revisar que tenga un desarrollo y una implementación equitativa. En el caso de una estrategia como la que ha adoptado el gobierno, tendrían que estar claras las medidas adicionales para quienes no pueden acceder a esta tecnología. Es decir, cómo prevé el Estado garantizar el derecho a asistencia e información en un plan nacional de salud. Además, una característica importante es considerar las capacidades concretas de la tecnología, porque no necesariamente la tecnología sirve para todo. Entonces hay que dimensionar sus capacidades reales.

Con la realización del análisis del que te hablé anteriormente, nuestra intención era mostrar que un desarrollo express es un mal desarrollo, y que siempre se van a arrastrar problemas cuando trabajamos sin una mirada global de la cuestión que queremos solucionar. Quisimos resaltar, además, la necesidad e importancia de contar con mecanismos de auditoría, tanto interna como externa, tanto pública como independiente. Y que todas las auditorías tuvieran informes públicos, y que pudieran cumplir con los estándares adecuados en relación por ejemplo a las políticas de privacidad. Cosa que hoy no podemos garantizar ya que en Colombia no existe información oficial sobre la aplicación. Todo lo que conocemos del gobierno y sus medidas es a través de medios de prensa o por publicación en redes sociales. Y para nosotros todo ello equivale a una muy mala información. A una falta de transparencia, de control, y de participación ciudadana. Todo eso son ausencias relevantes.

FFI: ¿Te parece que a las mujeres o feminidades nos afecta distinto el uso de estas aplicaciones?

CB: Pues ahí quizás el primer problema que se me ocurre como organización digital es el problema de la brecha digital. Y eso tiene que ver con otras cosas, primero, una aplicación debería ser complementaria a otras demás medidas. Porque por lo menos hay dos razones que me hacen afirmar esta idea. La primera es que no hay ninguna prueba para decir que la tecnología funciona en este proceso, por tanto, cualquier cosa que se está haciendo es un ensayo […] y por tanto, es una hipótesis. Entonces ante este escenario lo primero que hay que hacer es saber cómo vas a tratar, cuál es el plan epidemiológico que alcancé a todo el mundo. Y uno de los graves problemas que tenemos en países como Colombia es el problema de la brecha digital, o sea, aquí se supone que el 50 por ciento de las personas están desconectadas, no tienen acceso a internet y eso en buena medida se da en la ruralidad. Pero también en poblaciones vulnerables. Sabemos que las poblaciones pobres no tienen conexión a internet y los dispositivos a los que acceden no necesariamente aguantan una aplicación. Muchos de estos son lo que llamamos en Colombia las panelistas que no son teléfonos inteligentes. Y la aplicación por el tipo de componentes que tienen: bluetooth, GPS. Es decir tienen que ser equipos relativamente nuevos y a estos dispositivos no acceden las personas pobres. Eso te limita la cantidad de gente que tiene la app, pero encima si tu ya sabes que los más afectados son las poblaciones vulnerables. Si uno mira la demografía de la población vulnerable, en países como Colombia, pues te encuentras con que usualmente son los hombres los que tienen los celulares e incluso hay muchas poblaciones en donde el celular se utiliza por familia. Y si el celular es usado por la familia, usualmente la mujer no es la que lo usa. No es la que tiene el control sobre el celular. Entonces si vamos a pretender que sea la herramienta número uno para hacer vigilancia de la enfermedad, que para nosotros realmente termina siendo más una vigilancia de las personas, pues tienes que las mujeres son uno de los grupos más afectados, incluso dentro de otras poblaciones vulnerables, porque a ellas esta medida no les está llegando.

FFI: En términos de derechos digitales ¿qué visibiliza la emergencia sanitaria?

CB: Para nosotros el problema gravísimo es el de la educación. Llegamos a la conclusión de que el problema no es solo de conectividad, sino también de equipamiento. En el sector público de la enseñanza la situación es particularmente grave. Recientemente el Laboratorio de Economía de la Educación de la Universidad Javeriana relevó que el 96% de de los municipios no podrían utilizar la educación virtual porque ni siquiera la mitad de los/as estudiantes tienen computadora e internet en sus casas. Lo que significa que al limitarse la presencialidad, los/as alumnos/as, especialmente en zonas rurales, tienen dificultades para seguir sus estudios entre otras cosas por falta de dispositivos.

Creo que otro problema que se visibiliza es el de infraestructura o de la información que contamos sobre la infraestructura. Cuando empezó la pandemia nos decían que internet se iba a caer por la demanda. Eso no sucedió, pero tampoco había forma desde la sociedad civil de saber qué querían decir con eso, porque no hay datos que nos permitan saber cómo es la infraestructura y eso explica mucho. Incluso de la ausencia de conectividad en el campo, porque empezamos a mirar y por lo poco que se sabe, la conectividad está hecha para servir a las grandes ciudades. Las áreas rurales están muy abandonadas y no tenemos datos sobre ¿qué es lo que se consume? ¿Cómo se consume? O ¿a qué hora se consume? No hay información al respecto. Le tocó al gobierno crear un sistema para que las compañías telefónicas brindaran estos datos. Entonces, hoy por hoy los que saben cómo es el mapa de conectividad en Colombia son las empresas privadas. Y esto es gravísimo. Espero que esto nos sirva para pensar estratégicamente en cómo tenemos que mejorar este aspecto.

El Coronavirus además vino a romper con la dicotomía de conectados o desconectados. Porque la realidad es que hay mucha gente que sí está obligada a habitar un contexto digital, pero igualmente están en una zona gris. Es decir, no es que esas personas estén desconectadas, pero tampoco podemos afirmar que porque un miembro de la familia, en general el varón, tenga un teléfono celular con internet, no podemos contar a ese grupo familiar como un grupo con acceso real. Entonces, ¿cómo garantizar las clases en línea si solo un integrante de la casa tiene internet? Los contenidos del Ministerio de Educación están hechos para computadoras con conexión wifi, o para radio y televisión. Y quienes desarrollaron estos contenidos no tuvieron en cuenta que actualmente la mayor parte de la gente se conecta por celular.

Pareciera que en educación superior, educación universitaria la cosa es menos grave, pero aún así existe un 30% de chicos/as que no pueden seguir con las clases en línea. Entonces es importante comprender que estas realidades existen en Colombia y que seguramente será una situación que nos lleve años solucionar. La pandemia nos obliga a pensar en las brechas y a reflexionar sobre las alternativas tecnológicas en materia educativa. El COVID-19 puso en evidencia la enorme desigualdad en relación al acceso a la tecnología.

---

Con CoronApp los derechos a la intimidad, privacidad y seguridad digital de las personas se ven amenazados por la injerencia ilegítima de actores públicos y privados en procesos como la vigilancia masiva, el control de la información y la explotación de datos. Se invierte mucho dinero para estar a la moda y lanzar estrategias con mucho impacto mediático pero con poca efectividad en evitar los contagios.

Mientras que las autoridades colombianas anuncian con bombos y platillos la innovación tecnológica, poco invierten para garantizar la continuidad de la enseñanza. El impacto de la falta de educación es irreversible. Necesitamos Estados que estén a la altura de las circunstancias. Sin políticas públicas de calidad poco se puede hacer para superar la emergencia sanitaria… y mucho menos para garantizar derechos humanos básicos.

Perú en tus manos: ¿ficción distópica o realidad vigilada?

Entrevista a Miguel Morachimo, Hiperderecho, Perú

El solucionismo tecnológico parece ser la respuesta de muchos Estados Latinoamericanos frente a la pandemia del Coronavirus. El gobierno peruano no fue la excepción. A comienzos de abril presentó la aplicación Perú en tus Manos. Con esta iniciativa se trata de usar la tecnología y los teléfonos inteligentes para brindar información sobre zonas de riesgo para “prevenir contagios” y “monitorear los traslados de la población”.

Desde Hiperderecho13, una organización que trabaja para que internet sea un espacio libre de intromisiones estatales y privadas al ejercicio de derechos digitales, vienen analizando de cerca la implementación de la app y detectaron varios problemas con su diseño.14 En GenderIt.org charlamos con Miguel Morachimo15, director ejecutivo de asociación, para conocer los detalles de la iniciativa y sobre por qué es importante alertar a la población peruana sobre su utilización.


Naciones Unidas en Unsplash

Florencia Flores Iborra: ¿Qué problemas encuentran en la implementación de Perú en tus manos?

Miguel Morachimo: El Estado peruano desde el inicio de la emergencia, ha estado intentando muchas estrategias relacionadas con el uso de la tecnología para ofrecer una respuesta oportuna e inmediata al problema de la emergencia sanitaria. Quizás la respuesta más extendida es la aplicación Perú en tus manos. Una aplicación para IOS y Android que el Estado lanzó a comienzos de abril. Al inicio se presentó como una versión peruana de otras aplicaciones que ya existen en Corea del Sur o en Singapur para hacer seguimiento de contactos. Pero lo cierto es que en sus casi primeros meses de uso pudimos detectar que básicamente la aplicación tiene dos módulos principales. Uno de triage en donde se les hacen preguntas a los/as usuarios/as sobre sus síntomas, sobre sus contactos recientes con la finalidad de determinar si hay nuevos contagios. El otro módulo es un mapa de calor que tiene puntos geo referenciados que indican dónde ha habido uno o más pacientes con síntomas de COVID-19. Entonces, supuestamente uno pueda ver el mapa de calor y elegir mejor sus decisiones sobre dónde transitar y/o circular. Además, el gobierno peruano ha afirmado que en un futuro cercano la app tendrá una tercera funcionalidad, que es la de seguimiento de contactos a través de la tecnología Bluetooth. Aquí radica una de las primeras críticas que le hemos hecho a la aplicación. Es importante mencionar que el desarrollo de la app ha sido a puertas cerradas. En Perú no sabemos cuál es el equipo que conforma el diseño de la aplicación. Sabemos que hay colaboración de empresas privadas. Conocemos cuáles son las empresas que están asistiendo al gobierno, pero no se sabe muy bien bajo qué autoridad legal o de acuerdo a qué mandato. Tampoco se tiene la hoja de ruta del desarrollo de la aplicación. Entonces, en Hiperderecho pensamos que el gobierno está improvisando sobre la marcha con esta iniciativa y eso podría ser inofensivo si fuese una estrategia de comunicación o una campaña de publicidad; pero aquí hablamos de una crisis sanitaria y lo que estamos perdiendo de vista es que esta aplicación no solamente es muy novedosa en términos técnicos, sino que también es novedosa en términos legales. En definitiva, con su implementación podemos decir que hablamos de un mecanismo de vigilancia estatal a través de una app que paradójicamente cuenta con el consentimiento de sus usuarios/as. Porque, y a diferencia de otros países, en Perú el uso de esta aplicación no es obligatorio.

FFI: ¿Qué se pretende hacer con el uso de la tecnología bluetooth?

MM: Un primer problema es que la aplicación parece no cumplir con las expectativas de los/as usuarios/as. Quienes se bajan la app, la descargan pensando que la aplicación le va a decir exactamente dónde es que hay zonas de mayor exposición al virus o dónde existen zonas de menor riesgo. Es decir, que nos facilite la ruta seguir o qué camino evitar. Sin embargo, Perú en tus manos no hace eso. Además la app tiene problemas técnicos. Por ejemplo, al momento de su instalación le pide al/la usuario/a la posibilidad de acceder a su geolocalización y a su Bluetooth, pese a que actualmente no usa el dato de Bluetooth para nada.

Desde Hiperderecho, por lo que hemos podido investigar, porque no hay que perder de vista que lo único que tenemos para evaluar es la aplicación en sí misma. Pues, y pese a que es un software desarrollado por el Estado, no tenemos acceso al código fuente, entonces no podemos realmente estudiarla. Lo poco que hemos podido analizar haciendo la ingeniería inversa a la aplicación es que aunque recoge datos como la geolocalización o el Bluetooth, realmente no usa esa información. Por lo que nos queda la pregunta de ¿para qué recoge estos datos? Y esto es interesante porque yo te decía al inicio que el Estado está desarrollando varias iniciativas. Una de las cosas que está intentando y que ha sido menos publicitado que la aplicación, es el grupo de trabajo Te cuido Perú. Un grupo integrado por el Ejército, el Poder Ejecutivo, el Ministerio de Salud, etcétera. Y una de las tareas que tiene este grupo de trabajo es precisamente darle seguimiento a los casos reportados de pacientes contagiados. Y una de las atribuciones legales que tiene desde el mes de abril, es poder solicitar a los operadores de telecomunicaciones la información de la geolocalización de todos los/as usuarios/as que llamen a la central telefónica o que se comuniquen a través de la aplicación reportando síntomas y que sean calificados/as como sospechosos/as.

Entonces por un lado está la estrategia de geolocalización a través de los operadores, y que desconocemos su funcionamiento, ya que no existen datos públicos sobre ¿cuántas solicitudes se han hecho? ¿De qué casos de éxito existen? Y por otro lado, tenés la aplicación que al día de hoy actúa simplemente como un portal de puntos en un mapa. Que tampoco se sabe de dónde vienen esos puntos o con qué frecuencia se actualizan. Y en el futuro, de acuerdo al Estado peruano, tendremos también el seguimiento por Bluetooth, y del que no se sabe si va a usar la infraestructura lógica de Apple y Google. Si se va a usar una autoridad central para las credenciales de identificadores de Bluetooth o si será una cuestión descentralizada. Todas estas son preguntas que en otros lugares del mundo se han discutido, o en el Congreso o en la esfera pública. O en su defecto han sido objeto de debate nacional. En nuestro país, lamentablemente, para nuestras autoridades no es una discusión que se deba hacer de manera pública. Estas decisiones que tienen que ver con los derechos humanos, que tienen que ver con seguridad digital, parecen ser problemas de implementación. Cuestiones menores que podrían ser equiparables a qué tipo de letra ponemos en un documento, en lugar de informar las decisiones sobre cómo escribir el documento, cómo redactar la política.

FFI: ¿Cuáles son los derechos vulnerados con el uso de Perú en tus manos?

MM: En Hiperderecho creemos que la estrategia, que estableció el gobierno desde que empezó la emergencia amenaza y viola varios derechos fundamentales. En otras palabras: en Perú desde que se declaró el estado de emergencia, se suspendieron varios derechos esenciales como lo son la libertad de tránsito, la libertad de reunión o la inviolabilidad del domicilio. Estos derechos se paralizaron porque son los únicos que, y según la Constitución peruana, se pueden suspender en el contexto de estado de emergencia. Esto a nosotros nos preocupa y mucho porque, por un lado, la aplicación (aunque su descarga es opcional), para empezar a usarla se debe consentir a la política de tratamiento de datos personales. Entonces ¿hasta qué punto el Estado puede estar usando la información que recoge a través de la aplicación para fines más allá de los consentidos? Lamentablemente, la única manera de evaluar eso es mirando el código fuente de la aplicación, cosa que no hemos podido hacer ya que no ha sido público su desarrollo. También nos inquieta la conformación del grupo de trabajo Te cuido Perú y su estrategia de geolocalización, porque ha sido creada a través de un reglamento. No ha sido establecida por ley, sino por una norma de menor rango. Con esto se ha creado una nueva excepción a la Ley de Protección de Datos Personales, que tenía una serie de excepciones, incluyendo algunas para la salud pública, pero que ninguna de ellas abarcaba el uso de datos de geolocalización. Entonces y amparados en la metáfora del estado de emergencia, el gobierno peruano está creando nuevas excepciones a la Ley de Protección de Datos, sin que se necesite debatirlo en el Congreso. Y creemos que esto no responde solo a una situación de pandemia mundial, porque al menos en Perú, es muy común que se declare un estado de emergencia cuando hay un conflicto socioambiental. Cuando hay una emergencia por un desastre natural. No queremos que esta situación siente un precedente a futuro y que dentro de unos años, se declare una emergencia nacional o regional y que se instale el acceso a datos de geolocalización o el control de la población a través de las tecnologías de la información y que finalmente sea una herramienta al servicio del gobierno para intentar subvertir el Estado democrático.

FFI: Y desde una perspectiva de género ¿cómo afecta las medidas implementadas por el gobierno a las feminidades?

MM: En general, en la respuesta que ha tenido el Estado peruano durante la emergencia no hubo un genuino enfoque de género. Una de una de las etapas de la orden de inmovilidad social obligatoria (que es como le llaman a la cuarentena aquí en Perú), fue designar días en los que podían salir hombres y días en los que podían salir las mujeres. Eso salió muy mal por muchas razones, pero sin lugar a dudas lo más notorio fue la violencia contra personas trans. Porque quien hace cumplir estas normas son los militares que están en las calles y sabemos que los militares no necesariamente están entrenados en reconocer la autodeterminación de género de una persona. Lo que generó una discriminación muy concreta y por lo que tuvieron que dar marcha atrás con la disposición. Por otra parte y cuando entramos a la aplicación Perú en tus manos. Un primer problema que es transversal, pero que tiene un correlato desde una perspectiva de género, es que el Estado está aglomerado información sobre todos nosotros (documento de identidad, nombres, dirección) y la está soltando en una base de datos a la que tiene acceso mucha gente. Una de las denuncias que nosotros hemos hecho ante la Autoridad de Protección de Datos Personales tiene que ver con que precisamente el Estado está usando el mismo nombre de usuario y la misma contraseña para acceder a esta base de datos, y que por un error se hizo pública en varios medios de prensa, porque figuró en una fotografía que donde se veía a varios militares frente a una pantalla. Entonces, cualquier persona con acceso a esta base de datos ya sea lícito o ilícito puede inmediatamente seleccionar esta información y acosar o ejercer actos de violencia sobre los grupos más vulnerables. Lamentablemente, en nuestro país muchas de estas víctimas tienden a ser mujeres. Asimismo, en general la aplicación no ha sido sensible a aspectos de género. Diferenciar por ejemplo los hábitos o conductas o incluso las realidades particulares que pueden tener las mujeres o feminidades en diversos lugares del país. Creemos que esto no fue tenido en cuenta en el diseño de la app. Pero no lo podemos asegurar a ciencia cierta ya que todavía no conocemos cómo funciona la parte de seguimiento de contactos. En Hiperderecho estamos convencidos/as que la perspectiva de género no es un asunto que se haya considerado en las respuestas del gobierno y mucho menos que sea una preocupación estatal.

---

Muchas veces, las emergencias generan soluciones apresuradas, sin diseños robustos que respeten nuestros derechos. En Perú y la región el desarrollo de la pandemia del Coronavirus está debilitando las garantías individuales y colectivas, creando nuevas formas de vigilancia.

No se trata de un futuro distópico, es el contexto actual. Mientras descargamos aplicaciones en pos de una seguridad virtual nos prestamos a formas de control concretas o en el mejor de los casos a una realidad vigilada.

Si te interesó este artículo no dejes de escuchar Intersecciones, el podcast tecnopolítico de GenderIT.org. Un espacio sonoro donde se cruzan los efectos de la pandemia en los derechos digitales, desde una perspectiva feminista.
 

Footnotes

1 TEDIC es una organización sin fines de lucro paraguaya que desarrolla tecnología cívica y defiende los derechos digitales por una cultura libre en internet.

2 Al momento de editar esta entrevista el sitio web del programa tiene publicado el listado de beneficiarios de la ayuda alimentaria Ñangareko. La lista incluye 1242 páginas con el número de cédula, nombre completo, departamento y distrito de quienes recibieron la ayuda.

3 Se puede leer la nota completa Las emergencias no deberían ser un cheque en blanco, aquí.

4 Maricarmen Sequera es directora ejecutiva y cofundadora de TEDIC. Trabaja en el área de políticas públicas y dirige proyectos de derechos digitales en la organización, investigadora en Derechos Humanos y Tecnología. Abogada de la Universidad Nacional de Asunción. Tiene varias publicaciones sobre ciberseguridad, privacidad, libertad de expresión y género en internet. Es originaria de Villarrica.

5 Paloma Lara Castro es abogada. Candidata a Magister de Derecho Internacional de los Derechos Humanos de la Universidad de Buenos Aires (UBA). Tiene una amplia experiencia de trabajo en políticas públicas con perspectiva de Derechos Humanos, litigio en organismos internacionales y dictado de capacitaciones y talleres dentro de la misma temática. Además de contar con un enfoque en la transversalidad de género y su conexión con la materialización de los Derechos Humanos.

6 Beatriz Busaniche es Licenciada en Comunicación Social por la Universidad Nacional de Rosario. Magíster en Propiedad Intelectual de FLACSO. Es docente de la Universidad de Buenos Aires (UBA) entre otras casas de estudio de la Argentina.

7 Lo anunció el 7 de abril de 2020 en una reunión informativa por videoconferencia de la Comisión de Seguridad Interior de la Cámara de Diputados de la Nación. La videoconferencia completa se encuentra disponible aquí.

8 Fundación Vía Libre, el Centro de Estudios Legales y Sociales (CELS) y el Instituto Latinoamericano de Seguridad y Democracia (ILSeD) fueron las organizaciones que alertaron al Ministerio de Seguridad sobre las implicancias de una política de ciberpatrullaje.

9 Fundación Karisma es una organización colombiana de la sociedad civil que busca responder a las amenazas y oportunidades que plantea la “tecnología para el desarrollo” al ejercicio de los derechos humanos.

10 Carolina Botero es abogada. Máster en Derecho internacional y de la cooperación por la Vrije Universiteit Brussel (Bélgica). Máster en Derecho del comercio y la contratación por la Universidad Autónoma de Barcelona (España). Desde hace más de una década trabaja en la promoción y defensa de los derechos humanos en internet. Forma parte de la junta directiva de Creative Commons.

11 Franklyn Prieto. Director de Vigilancia y Análisis del Riesgo del Instituto Nacional de Salud de Colombia explica el desarrollo de la aplicación en el canal de Youtube del INS Colombia.

12 La Fundación Karisma cuenta con K+LAB, el primer laboratorio de seguridad digital y privacidad en Colombia pensado desde y para sociedad civil. Realizan análisis técnicos para apoyar el trabajo de incidencia de su Fundación, alertar sobre las amenazas de seguridad provenientes del mundo digital y capacitar a periodistas, personas defensoras de derechos humanos y que están ejerciendo liderazgos sociales en los territorios, las organizaciones que los agrupan, y entidades con las que se relacionan. Pueden conocer más información de sus relevamientos aquí.

13 Hiperderecho es una asociación civil peruana sin fines de lucro dedicada a investigar, facilitar el entendimiento público y promover el respeto de los derechos y libertades en entornos digitales.

14 Se puede seguir la cobertura completa de Perú en tus manos aquí.

15 Miguel Morachimo es abogado por la Pontificia Universidad Católica del Perú. Máster en Derecho, Ciencia, y Tecnología por la Universidad de Stanford (California, Estados Unidos).

Add new comment

Plain text

  • Lines and paragraphs break automatically.
  • Allowed HTML tags: <br><p>