Nina da Hora: ¡°La tecnolog¨ªa refuerza el problema de racismo estructural de Brasil¡±
La ¡®hacker¡¯ antirracista es una de las voces j¨®venes m¨¢s activas del movimiento que busca aumentar la participaci¨®n de mujeres negras en la tecnolog¨ªa
EL PA?S ofrece en abierto la secci¨®n Am¨¦rica Futura por su aporte informativo diario y global sobre desarrollo sostenible. Si quieres apoyar nuestro periodismo, suscr¨ªbete aqu¨ª.
La cient¨ªfica Nina da Hora (R¨ªo de Janeiro, 27 a?os) es una de las voces j¨®venes m¨¢s activas del movimiento brasile?o que busca aumentar la participaci¨®n de las mujeres negras en el ¨¢mbito de la tecnolog¨ªa y la innovaci¨®n en Brasil. Nacida en la periferia de R¨ªo y criada por cinco mujeres profesoras, entre madre, t¨ªas y abuela, asegura que a los 6 a?os descubri¨® que se dedicar¨ªa a la computaci¨®n, fascinada por las posibilidades de juego y creaci¨®n que le ofrec¨ªa su primer ordenador. En el camino, sin embargo, observ¨® que eran muy pocas las personas negras que acced¨ªan al pujante universo tecnol¨®gico brasile?o. Y mujeres negras, menos a¨²n. De acuerdo con diversas investigaciones citadas por el laboratorio Preta Lab, ellas representan el 28% de la poblaci¨®n total del pa¨ªs, pero solo un 3% de las matriculadas en carreras de ingenier¨ªa de la computaci¨®n y un 11% de quienes trabajan en empresas tecnol¨®gicas.
Para empezar a cambiar esta realidad, Nina da Hora, cient¨ªfica de la computaci¨®n, investigadora, profesora y hacker antirracista, propone democratizar el acceso a la tecnolog¨ªa y transparentar su funcionamiento con un lenguaje accesible, como el que ella misma emplea con su abuela para explicarle la raz¨®n de ser de los algoritmos. ¡°Tenemos que hacernos un tiempo para reflexionar sobre la inteligencia artificial y lo que ella puede generar¡±, le dice a Am¨¦rica Futura tras haber participado en el encuentro latinoamericano de inteligencia artificial KHIPU, que tuvo lugar en Montevideo a comienzos de marzo. Convencida, defiende la idea de una ciencia plural, abierta a la sociedad, y aboga especialmente por la prohibici¨®n de la tecnolog¨ªa de reconocimiento facial, como ha ocurrido en ciudades como San Francisco, porque considera que es ineficiente y refuerza el racismo estructural que persiste en Brasil.
Pregunta: ?A qu¨¦ se dedica una hacker antirracista?
Respuesta: Es alguien que utiliza sus habilidades en ciberseguridad o programaci¨®n para combatir el racismo y promover la igualdad. Por ejemplo, exponiendo a individuos racistas, eliminando contenido discriminatorio en l¨ªnea, protegiendo a las comunidades marginadas de ataques cibern¨¦ticos. Adem¨¢s, en mi caso, cuando ingres¨¦ a estudiar computaci¨®n me encontr¨¦ con un universo que marginaba a las personas como yo: mujer, negra, de la periferia de R¨ªo de Janeiro. Entonces me propuse buscar maneras de acercar ese colectivo a la tecnolog¨ªa. Soy hacker para quebrar esos patrones sociales y mitigar los da?os del racismo en la sociedad.
P. ?C¨®mo le ha ido en esa tarea?
R. He creado algunas iniciativas, como el podcast Ogunh¨º, en el que presento la historia de cient¨ªficos negros y sus contribuciones al mundo. Adem¨¢s, puse en marcha un instituto de investigaci¨®n con un equipo compuesto ¨ªntegramente por personas ind¨ªgenas y negras. Con ellos estamos abriendo caminos para que las tecnolog¨ªas sean accesibles para las comunidades marginadas en Brasil.
P. ?Qu¨¦ le ha explicado a su abuela sobre los algoritmos o la inteligencia artificial?
R. Le ense?¨¦ qu¨¦ es un algoritmo tomando como ejemplo la receta de un pastel. Ambos pueden parecerse porque son conjuntos de instrucciones que, si se siguen correctamente, producir¨¢n un resultado concreto. El algoritmo se usa para resolver un problema o realizar una tarea espec¨ªfica en el ¨¢mbito de la inform¨¢tica o de la matem¨¢tica. La inteligencia artificial es un ¨¢rea en desarrollo que estudia las posibilidades de crear m¨¢quinas que utilicen algoritmos, para desempe?ar tareas repetitivas que puedan ayudar a la sociedad.
P. En t¨¦rminos generales, ?cree que nos est¨¢ ayudando o volviendo m¨¢s perezosos y acr¨ªticos?
R. Nos hace falta m¨¢s pensamiento cr¨ªtico. No razonamos sobre lo que estamos usando, hacemos tareas repetitivas, como m¨¢quinas. Por eso tenemos que conversar con los ni?os, con los j¨®venes, para volver m¨¢s accesibles los conceptos relacionados con la tecnolog¨ªa y hacernos un tiempo para reflexionar sobre la inteligencia artificial y lo que ella puede generar. Pero la apertura de la ciencia a la sociedad lleva tiempo.
P. ?Qu¨¦ ¨¢reas de la inteligencia artificial resultan m¨¢s problem¨¢ticas?
R. La visi¨®n artificial (del ingl¨¦s computer vision) es una de ellas, porque es invasiva y no hay privacidad para quien la utiliza. Por ejemplo, cuando desbloqueo mi celular con una foto del rostro, est¨¢ invadiendo mi privacidad. El riesgo es que no sabemos para d¨®nde va esa imagen, d¨®nde va a ser almacenada ni todo lo que es capaz de hacer con la reconstrucci¨®n de ese rostro. En Brasil, muchos negros han sido detenidos err¨®neamente, porque en los bancos de im¨¢genes las personas con piel oscura son etiquetadas como peligrosas o con mayor probabilidad de cometer un delito. La Red de Observatorios de Seguridad monitore¨® en 2019 la tecnolog¨ªa de reconocimiento facial en cinco estados y demostr¨® que agrava el encarcelamiento de los negros, adem¨¢s de ser ineficiente.
P. Pero ese sesgo racial de las m¨¢quinas no es magia, proviene en todo caso de quienes las programan.
R. Brasil usa tecnolog¨ªas importadas y las utiliza en nuestra sociedad, que tiene un problema de racismo estructural. La tecnolog¨ªa refuerza eso cuando una persona es detenida por reconocimiento facial, mediante c¨¢maras que est¨¢n en el espacio p¨²blico. Esas c¨¢maras tienen un algoritmo que reconoce rostros y busca en su banco de fotos qui¨¦n puede ser esa persona. Nosotros no tenemos acceso a esa base, no hay transparencia. No conocemos las etapas de su desarrollo y no entendemos sus asociaciones. El movimiento Tire meu rosto da sua mira (Quite mi rostro de su vista, en espa?ol), del que participo, intenta prohibir el uso de esa herramienta en Brasil.
P. ?Descarta que se pueda mejorar?
R. Desde mi punto de vista, la tecnolog¨ªa del reconocimiento facial no tiene posibilidades de mejorar, es extremadamente peligrosa y como sociedad no tenemos la madurez necesaria como para tener una tecnolog¨ªa como esa, sin discutir antes sobre el racismo, sobre la violencia contra la mujer o la comunidad LGBTI. Estamos intentando combatir estos problemas y esa tecnolog¨ªa solo los refuerza.
P. Usted habla de descolonizar la tecnolog¨ªa para mejorar el uso de la inteligencia artificial. ?Qu¨¦ implica?
R. El primer paso es escuchar y observar el territorio donde vivimos, desde una visi¨®n de Brasil y no de Sillicon Valley, en EEUU. He buscado referentes en tecnolog¨ªa en M¨¦xico, Chile, Uruguay o Argentina, que est¨¢n m¨¢s pr¨®ximos a nuestra cultura y movimientos sociales. Por ejemplo, aprender otros idiomas diferentes al ingl¨¦s es una forma de poner en pr¨¢ctica esa descolonizaci¨®n. Si solo aprendo ingl¨¦s, voy a pensar en personas referentes en ingl¨¦s y har¨¦ investigaciones en esa lengua, con lo cual ya estoy siendo direccionada, a concordar y a no a discrepar. Hay mucho poder concentrado en la tecnolog¨ªa, unos pocos dominan a muchos pa¨ªses. La descentralizaci¨®n de ese poder implicar¨ªa tener m¨¢s soberan¨ªa digital y crear tecnolog¨ªas propias en lugar de importarlas. Pero hoy no tenemos una estrategia para organizar y gobernar nuestros propios datos.
P. Seg¨²n la ONU, de las 15 plataformas digitales m¨¢s importantes, 11 son de EEUU y cuatro chinas.
R. De esas 15 grandes empresas, hay cinco, Amazon, Google, Apple, Google y Microsoft, que comparten entre ellas lo que conversamos, c¨®mo intercambiamos ideas, c¨®mo investigamos. Mi propuesta es desarrollar m¨¢s programas abiertos, que sean transparentes en cuanto a la forma en que fueron hechos. O sea, que la ciencia sea m¨¢s accesible para disminuir la concentraci¨®n y el control. Claro que esas empresas no lo quieren y desarrollan un capitalismo de vigilancia m¨¢s agresivo, en el que las personas no importamos, lo que importa son los datos.
P. Sin embargo, esas empresas levantan la bandera de la diversidad. ?No lo ve as¨ª?
R. Buscan adaptarse a lo que nosotros reclamamos; por ejemplo, que haya m¨¢s personas negras en el sector tecnol¨®gico. Pero el perfil promedio de quienes investigan y desarrollan estas tecnolog¨ªas es el de un hombre blanco, investigador de clase media o alta, que habla varios idiomas y que no sabe escuchar.
P. ?Qu¨¦ posibilidades tiene Brasil de desarrollar su propia tecnolog¨ªa?
R. Varios representantes de la sociedad civil y de los centros de investigaci¨®n estamos dialogando con este Gobierno (de Lula da Silva), que es m¨¢s democr¨¢tico, para elaborar una estrategia de gobernanza de internet en Brasil. Tenemos excelentes investigadores y profesionales que est¨¢n organizando una estrategia de soberan¨ªa digital para que nuestros datos se queden en el pa¨ªs, con una inversi¨®n del Estado y no del sector privado.
P. Eso suena complejo en estos tiempos de l¨ªmites digitales tan difusos
R. Si comenzamos de a poco, por etapas, es posible. Y todo lo que hacemos hoy, alguien lo va a continuar.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.