Pasar al contenido principal

¿Quiénes somos? ¿Cómo impactan las políticas en nuestros cuerpos? ¿Cuáles son los factores que determinan nuestra identidad? ¿Qué queremos para nuestro futuro? Estas son algunas de las preguntas que aparecen en la biblioteca de los feminismos. En el último tiempo, estos interrogantes trascendieron la vida física y se ubicaron en el espacio digital: la recolección, el almacenamiento y el procesamiento de datos sobre usuarios crearon las fases de un negocio que se desarrolla entre likes y cookies. Los avances tecnológicos permitieron identificar a los individuos por sus características físicas, o relativas a la conducta, bajo lo que conocemos como datos biométricos. Datos para los que no hay claridad respecto a su almacenamiento o uso, y es ahí dónde los feminismos entran en disputa al preguntarse qué hacen las empresas y los estados con toda la información oculta en nuestros cuerpos. Para empezar, necesitamos hablar sobre el iris y la empresa WorldCoin.

El iris es una característica biológica inmodificable. Un tejido que puede ser verde, celeste, negro o marrón o una combinación a veces intensa de esos colores, contiene 256 puntos únicos que diagraman una cartografía íntima. “El iris guarda características personales que no se replican, y por lo tanto, es un dato biométrico que permite identificar a una única persona”, explica Jamila Venturini, co directora de la asociación Derechos Digitales, organización con sede en Chile y miembro de la red de APC. Este no es el único dato biométrico de estas características: las huellas dactilares también permanecen inalterables al paso del tiempo. En ellas hay alrededor de 40 puntos únicos que se combinan y generan patrones que a simple vista simulan pequeñas montañas o remolinos. 

En nuestros ojos hay una identidad oculta que, sin embargo, está a nuestra vista. Una unión de puntos tan azarosa que resulta un misterio incluso para nosotres mismes. Un sitio al que siempre entramos pero cuya contraseña desconocemos. Esta definición del iris tiene un atractivo para la empresa WorldCoin, liderada por Sam Altman, quien es también el CEO de Open AIempresa que desarrolló Chat GPT. Desde julio de 2023, la empresa comenzó a escanear el iris de ciudadanos y ciudadanas de más de veinte países. En los últimos meses se hizo presente en ciudades de la región latinoamericana como Buenos Aires, Santiago de Chile, Mendoza, Viña del Mar y Mar del Plata a través de la utilización de “orbs”. Estas bolas metálicas, que podrían ser parte de la utilería de la serie Black Mirror, se instalaron en diversos parques, centros comerciales y establecimientos bailables. 

Quienes se acercaron a estos puntos de escaneo experimentaron una escena casi de otra vida, anterior, analógica: la sensación de estar sentade en un estudio de fotografía, la obligación de quedarse inmóvil y ¡flash! Pero no salió ningún flash. Tampoco una foto. Solo aparecieron 10 worldcoins en la pantalla del celular del usuario escaneado, la criptomoneda que comercializa la empresa homónima, que luego puede cambiarse por el tipo de moneda que se desee ya sea euros, dólares o pesos. ¿Qué hace luego WorldCoin con esa cartografía íntima? Es algo que desconocemos. 

“Cuando pensamos en organizaciones como WorldCoin, estamos reflexionando acerca de qué hacen las empresas con nuestros datos”, comenta Jamila Venturini. “Como usuarias, estamos atravesando un proceso de naturalización de la necesidad de ceder datos. En lo común esperamos un tipo de servicio a cambio de ellos, pero muchas veces estas empresas argumentan que la recolección tiene como objetivo mejorar nuestra experiencia como usuarias y ahí empieza un proceso menos transparente”

Para WorldCoinel escaneo de iris serviría para reemplazar sistemas de autenticación que actualmente se utilizan para realizar transacciones de forma segura. Un ejemplo de este tipo de sistemas es el reconocimiento facial. En un futuro cercano, esta tecnología podría resultar insuficiente para combatir los fraudes realizados por sistemas de inteligencia artificial. 

Al ser traducido a un código matemático, también conocido como hashes, el iris podría convertirse en una contraseña única para cada usuario, imposible de replicar. Esto serviría para participar en la red financiera de la empresa de Sam Altman cuyo alcance sería global. Lo cierto es que este fundamento resulta poco convincente para muchos organismos de derechos humanos.  

Según explica la co directora de Derechos Digitales, “la información que se encuentra en nuestro iris es un dato indisociable del cuerpo de una persona, es decir, un dato sensible según la mayoría de las leyes de protección de datos personales. Como tal requiere un conjunto de resguardos que desconocemos si son atendidos en este caso.” En Argentina, de acuerdo a la Ley de Datos Personales (ley 25.326), los datos sensibles son aquellos que refieren a la salud, la orientación sexual, las opiniones políticas y la convicción religiosa de una persona. Estos se diferencian de datos personales como la ocupación, el domicilio y la fecha de nacimiento. 

Según la Red Internacional de Organizaciones de Libertades Civiles (IGLO) en la que se encuentra el Centro de Estudios Legales y Sociales (CELS), “la proliferación de datos biométricos y otras recolecciones de datos de la vida cotidiana –para acceder a servicios bancarios, servicios esenciales, edificios, teléfonos celulares, etc– puede tener un efecto corrosivo en la privacidad debido a la sensibilidad de los datos recopilados sin un control o supervisión adecuados”.

“En América Latina estas discusiones son bastante recientes, más allá de la existencia de legislaciones como la de Argentina y Chile que tienen casi veinte años”, señala Venturini. Luego añade que “en Europa estas preocupaciones tienen por lo menos cinco décadas”.  Esto llevó a la promoción de principios que rigen la Protección de Datos Personales. Entre ellos se encuentran: la minimización en la recolección, es decir, recolectar lo que es estrictamente necesario para ofrecer determinados servicios, la limitación en el tiempo, limitación en el propósito, es decir, que ese dato se utilice para un determinado objetivo, y la transparencia.

Pero son pocas las empresas que toman en cuenta estos principios, y no muchos los Estados que los hacen cumplir. La Asociación para el Progreso de las Comunicaciones  (APC), que tiene un rol consultivo ante el Consejo Económico y Social de la ONU, mostró su preocupación respecto al informe sobre “privacidad en la era digital" emitido en 2020 por Naciones Unidas. “La resolución dejó pasar la oportunidad de hacer recomendaciones contundentes hacia los Estados respecto a las amenazas a la privacidad que implican las novedosas tecnologías, entre ellas la de reconocimiento facial, una de las tecnologías biométricas más invasivas en el mundo”, expresó APC.

Según APC, estas tecnologías, que no son únicamente empleadas por empresas, están cada vez más presentes en el espacio público. Pero la forma en la que operan es un misterio para muchas ciudadanas y ciudadanos, en particular en países donde se tienen registros de altas vulneraciones a los derechos humanos. En Kenia, uno de los primeros lugares donde se instaló WorldCoinel gobierno decidió suspender el proyecto debido a la gran cantidad de habitantes que estaba entregando esta información. 

En Argentina, la Agencia de Acceso a la Información Pública (AAIP) lleva adelante un proceso de investigación sobre la empresa para determinar la posible existencia de violaciones a la Ley 25.326 de Protección de Datos Personales. En Chile, un recurso de protección fue presentado por el director de la Fundación Kamanau, una organización civil que protege derechos humanos frente al avance de tecnologías disruptivas. Pero la Corte de Apelaciones de Valparaíso declaró inadmisible el recurso. Otro recurso similar fue presentado ante la Corte de Apelaciones de Santiago. El querellante denuncia que el iris de su hija fue escaneado sin su consentimiento ni autorización. 

¿Hasta dónde es posible otorgar consentimiento? 

Para Jamila Venturini la información transparente es necesaria para que las personas tomen una decisión informada sobre la entrega o no de datos. “Pero leer la información que aparece en los términos y condiciones no significa entenderla. Muchas académicas feministas critican la idea de autodeterminación informativa, es decir, la concepción de que la protección de datos dependería de la acción individual de una persona porque esta asunción parte de unas condiciones de igualdad en la sociedad que no necesariamente están dadas”. 

Dentro de las filas que se hicieron alrededor de los “orbs”, se encontraban adolescentes, mujeres con niñes en brazos. Así resulta esclarecedor un artículo publicado por APC sobre principios feministas que deben ser incluidos en la agenda digital global. Entre estos puntos encontramos la necesidad de implementar acciones concretas para que los estados y las empresas globales puedan garantizar el ejercicio del derecho a la privacidad por parte de mujeres y niñas. Esto solo puede hacerse efectivo por medio de un consentimiento informado. 

“Para que el consentimiento sea válido tiene que ser libre, expreso e informado. En mi caso, “expreso” significa decir: “Yo Jamila Venturini autorizo la recolección de datos para determinado motivo”. "Libre” quiere decir que no deberían haber estímulos ni negativos ni positivos de por medio. Es decir, si estoy en una comunidad pobre que está peleando por su derecho de alimentación y entrego mis datos a cambio de dinero, no estoy en una situación de igualdad”, explica la co directora de Derechos Digitales. 

Hablar de esa cartografía íntima que es el iris es una forma de reflexionar sobre nuestro derecho a la privacidad. Una preocupación no menor cuando pensamos en grupos que están sujetos a distintas formas de marginalización. Es necesario que los feminismos se sumerjan en el universo de las innovaciones tecnológicas para denunciar los nuevos peligros que enfrentan millones de mujeres y niñes en todo el mundo.