Facebook afronta otra demanda por orientar sus anuncios de forma discriminatoria
Segunda acci¨®n legal contra la red social por permitir a los anunciantes filtrar la publicidad de vivienda y productos financieros por raza, g¨¦nero y edad
Cuando Neutah Opiotennione, una residente de Washington DC de 54 a?os, descubri¨® que Facebook le ocultaba algunos anuncios sobre productos financieros por ser una mujer mayor, decidi¨® que deb¨ªa hacer algo al respecto. El pasado mes de octubre, Opiotennione se uni¨® a otros usuarios de la red social para presentar una demanda colectiva por la discriminaci¨®n que sufren debido a la herramienta de anuncios que utiliza la plataforma.
Los demandantes afirman que Facebook permite a los anunciantes discriminar por edad y g¨¦nero a la ahora de ofrecer publicidad de ciertos servicios financieros, tales como cuentas bancarias, seguros, inversiones o pr¨¦stamos, ya que este tipo de anuncios no le aparecen a mujeres y personas mayores con la misma frecuencia que al resto de los usuarios. Seg¨²n la demanda, Facebook persiste en este tipo de discriminaci¨®n, a pesar de que la compa?¨ªa asegur¨® hace unos meses que tomar¨ªa medidas al respecto.
No es la primera vez que la red social es criticada por este motivo. El pasado mes de marzo, el Gobierno federal acus¨® a la compa?¨ªa por discriminaci¨®n en la publicidad relacionada con la vivienda. "Facebook est¨¢ discriminando a las personas en base a qui¨¦nes son y d¨®nde viven", asegur¨® el secretario del Departamento de Vivienda y Desarrollo Urbano, Ben Carson, en un comunicado.
La situaci¨®n salt¨® tras una investigaci¨®n publicada por el medio estadounidense ProPublica en 2016, que encontr¨® que una herramienta de Facebook pod¨ªa utilizarse para excluir a los usuarios negros y latinos de que se les mostraran ciertos anuncios inmobiliarios, algo que no permite la ley. Seg¨²n la Ley Federal de Vivienda Justa, es ilegal publicar un anuncio "con respecto a la venta o alquiler de una vivienda que indique cualquier preferencia, limitaci¨®n o discriminaci¨®n por motivos de raza, color, religi¨®n, sexo, discapacidad, estado familiar u origen nacional¡±.
Seg¨²n la Ley Federal de Vivienda Justa, es ilegal publicar un anuncio "con respecto a la venta o alquiler de una vivienda que indique cualquier preferencia, limitaci¨®n o discriminaci¨®n por motivos de raza, color, religi¨®n, sexo, discapacidad, estado familiar u origen nacional¡±
La red social anunci¨® entonces que tomar¨ªa medidas al respecto, pero, un a?o m¨¢s tarde, una nueva investigaci¨®n del medio norteamericano mostr¨® que las medidas de control a¨²n no eran del todo eficaces.
Ahora, los demandantes alegan que la empresa sigue permitiendo que las compa?¨ªas de servicios financieros filtren los anuncios por edad y g¨¦nero, lo que supondr¨ªa una violaci¨®n de la ley de derechos civiles de California. "Internet no es un lugar donde se pueda discriminar a las personas por su edad o g¨¦nero, particularmente en las oportunidades de servicios financieros", asegur¨® a Reuters Peter Romer-Friedman, representante de los demandantes. "Ser¨ªa como si General Motors se negara a ofrecer a las mujeres o a los mayores las mismas caracter¨ªsticas en un coche que a los hombres o a los j¨®venes¡±.
M¨¢quinas que aprenden a ser racistas y machistas
La demanda se ha producido en medio de un debate sobre c¨®mo la actual legislaci¨®n norteamericana protege a los ciudadanos no solo de la discriminaci¨®n directa, como la que se produce en el caso de los anuncios de Facebook, sino tambi¨¦n de la generada por la inteligencia artificial, cuyos efectos de segregaci¨®n son similares, pero cuyo origen es m¨¢s dif¨ªcil de rastrear.
La actual legislaci¨®n estadounidense establece que incluso las exclusiones no intencionadas, como las generadas por una inteligencia artificial, pueden ser penadas, con lo que una aplicaci¨®n de alquiler de vivienda cuyo algoritmo excluya a las minor¨ªas podr¨ªa considerarse ilegal. Sin embargo, el pasado mes de agosto se plante¨® una reforma para que solo que se considerasen punibles aquellas que introducen directamente par¨¢metros discriminatorios en el algoritmo.
El problema, seg¨²n los expertos, es que la no inclusi¨®n de ciertos par¨¢metros en un algoritmo no impide que el resultado sea discriminatorio, como demostr¨® recientemente un estudio que determin¨® que un algoritmo usado para analizar los riesgos para la salud de millones de pacientes en EE UU discrimina sistem¨¢ticamente a la poblaci¨®n negra, a pesar de que el sistema desconoc¨ªa la raza de los afectados.
Tambi¨¦n la reciente pol¨¦mica de la Apple Card, cuyos algoritmos pueden llegar a ofrecer 20 veces menos cr¨¦dito a una mujer que un hombre en una situaci¨®n econ¨®mica similar, es un ejemplo de c¨®mo la ausencia de ciertos datos de entrada no implica que el resultado no sea discriminatorio, ya que Goldman Sachs, banco con el que Apple ha sacado su tarjeta de cr¨¦dito, ha asegurado que en los datos que se introducen en el sistema no se incluye el g¨¦nero o el estado civil de los usuarios.
Seg¨²n un estudio publicado a principios de este a?o en arXiv sobre los problemas generados por los algoritmos, esta discriminaci¨®n de salida se puede producir porque ¡°los datos son un producto de muchos factores, desde el contexto hist¨®rico en el que fueron generados hasta las formas particulares de error de medici¨®n que contienen¡±, por lo que pueden contener sesgos impl¨ªcitos que no son f¨¢ciles de identificar a simple vista.
En este sentido, un estudio publicado en 2017 en la revista Science mostr¨® que cuando una inteligencia artificial aprende un idioma, ¨¦sta termina por asumir los sesgos humanos que est¨¢n incluidos impl¨ªcitamente en el lenguaje, reproduciendo comportamientos que pueden ser machistas y racistas.
Los algoritmos son ideolog¨ªa
El problema no se encuentra solo en las caracter¨ªsticas m¨¢s menos sesgadas de los datos de entrada, sino en el hecho de que el propio sistema de aprendizaje autom¨¢tico tambi¨¦n puede generar sesgos, ya que ¡°incluye una serie de opciones y pr¨¢cticas, desde la metodolog¨ªa de evaluaci¨®n hasta la definici¨®n del modelo, que pueden conducir a efectos no deseados¡±.
¡°El aprendizaje autom¨¢tico no solo se basa en la muestra de entrada, sino en las decisiones se toman en base a esos datos¡±, afirma Liliana Arroyo, investigadora del Instituto de Innovaci¨®n Social de ESADE. ¡°Como es algo automatizado creemos que son neutros, pero la realidad es que los algoritmos son ideolog¨ªa¡±.
La importancia de c¨®mo legislar sobre estos algoritmos, que tienden a reproducir los sesgos de los seres humanos, es vital, ya que son ¨¦stos los que deciden no solo qu¨¦ videos le pueden gustar a un usuario, sino tambi¨¦n si se le ofrece o no un cr¨¦dito bancario, una vivienda o un seguro m¨¦dico. "Los algoritmos hacen lo que hemos hecho siempre, pero de una forma autom¨¢tica y a una escala mucho mayor, por lo que el impacto que tienen es mucho m¨¢s grande", concluye Arroyo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.