Kashmir Hill: ¡°El rostro es el ¨²ltimo basti¨®n de la privacidad, por eso el reconocimiento facial es peligroso¡±
La reportera de ¡®The New York Times¡¯ explora en su ¨²ltimo libro los desaf¨ªos que plantea una tecnolog¨ªa que ni siquiera Google o Facebook decidieron usar
La periodista Kashmir Hill recibi¨® en noviembre de 2019 el soplo de que una startup llamada Clearview AI dec¨ªa ser capaz de poder identificar a cualquiera a partir de una imagen. Su fuente dec¨ªa que la compa?¨ªa hab¨ªa recogido miles de millones de fotos de redes sociales como Facebook, Instagram o LinkedIn ¡ªsin avisar ni a las plataformas ni a los interesados¨D, y que si introduc¨ªas en la app la foto de alguien, te mostraba todos los sitios web en los que aparec¨ªa esa persona, adem¨¢s de su nombre completo y de informaci¨®n personal.
Nadie se hab¨ªa atrevido a desarrollar nada parecido hasta la fecha. Una aplicaci¨®n capaz de identificar a extra?os era demasiado. Pod¨ªa usarse, por ejemplo, para fotografiar a alguien en un bar y saber en pocos segundos d¨®nde vive y qui¨¦nes son sus amigos. Hill, reportera en The New York Times, public¨® la historia de esta peque?a empresa, que en pocos meses pas¨® de ser una total desconocida a contar con el apoyo de Peter Thiel, uno de los padrinos de Silicon Valley, y a convertirse en el objeto de deseo de los cuerpos de polic¨ªa de EE UU y del extranjero. Lleg¨® hasta Hoan Ton-That, el impenetrable ingeniero responsable de la herramienta que mont¨® junto a Richard Schwartz, un pol¨ªtico con una larga trayectoria entre bambalinas en el Partido Republicano. Su investigaci¨®n sigui¨® hasta dar forma a su libro Your Face Belongs to Us (Tu cara nos pertenece, editado por Random House en 2023 y sin traducci¨®n al espa?ol hasta el momento).
¡°Me pareci¨® que los fundadores de la startup eran personajes ins¨®litos y fascinantes, y que la historia captaba algo esencial en esta industria: ese deseo de crear nuevas tecnolog¨ªas realmente transgresoras sin tener en cuenta sus implicaciones sociales¡±, explica por videoconferencia desde Nueva York. Nacida hace 43 a?os y criada en Florida, Kashmir Hill, que se llama as¨ª en honor a uno de los temas m¨¢s m¨ªticos de Led Zeppelin, trabaj¨® en publicaciones como Gizmodo, Forbes o The New Yorker antes de unirse al Times en 2019. Le llam¨® la atenci¨®n tambi¨¦n que una empresa tan joven pudiera dominar en poco tiempo una tecnolog¨ªa tan compleja como el reconocimiento facial.
PREGUNTA. ?Qu¨¦ tienen de particular los sistemas autom¨¢ticos de reconocimiento facial? ?Por qu¨¦ le interesa esta tecnolog¨ªa?
RESPUESTA. Es clave para vincular a las personas del mundo real a lo que se sabe sobre ellas en internet. Un uso descontrolado del reconocimiento facial erradicar¨ªa el anonimato, ya no se podr¨ªa navegar por el mundo sin que la gente lo supiera todo sobre nosotros. Los gobiernos sabr¨ªan d¨®nde estamos y qu¨¦ hacemos todo el tiempo. Eso ya sucede en China. Rusia lo usa para identificar a quienes se manifiestan contra la invasi¨®n de Ucrania. El rostro es, esencialmente, el ¨²ltimo basti¨®n de la privacidad. Volviendo a China, han desarrollado una lista roja para quienes est¨¢n en el poder y no quieren que les vean. Estar en esa lista significa ser invisible para el sistema de vigilancia, la eliminaci¨®n de los registros de las c¨¢maras. Es muy revelador que no ser visto sea un privilegio exclusivo de los poderosos.
P. ?Cree que la historia de Clearview AI es representativa de la del reconocimiento facial?
R. S¨ª. La tecnolog¨ªa de reconocimiento facial es un arma de doble filo. Se puede usar para resolver cr¨ªmenes, encontrar asesinos y violadores, pero tambi¨¦n para rastrear a los disidentes o para obtener informaci¨®n sobre actrices porno y llegar hasta ellas. Los fundadores de Clearview AI ten¨ªan ideas muy preocupantes sobre qu¨¦ hacer con esta herramienta. Cre¨ªan que analizando el rostro de una persona se pod¨ªa inferir su inteligencia o su propensi¨®n al consumo de drogas. Han tratado con Hungr¨ªa, que quer¨ªa su producto para perseguir a activistas e identificar a los liberales. As¨ª que, en cierto sentido, es casi tranquilizador que al final solo trabajen con la polic¨ªa.
En China, el anonimato es un privilegio exclusivo de los poderosos
P. Clearview AI ha sido multada o prohibida en varios pa¨ªses. ?Cu¨¢l es su situaci¨®n actual?
R. Siguen operando en Estados Unidos. Trabajan con muchas fuerzas del orden locales, as¨ª como con el Departamento de Seguridad Nacional y el FBI. Est¨¢n un poco asediados legalmente, pero han tenido algunos ¨¦xitos, como que un tribunal de Reino Unido haya anulado una multa que le impuso el regulador. En ¨²ltima instancia, el hecho de que hayan decidido orientarse exclusivamente a las fuerzas del orden les ha permitido evitar muchos resultados negativos. Veremos qu¨¦ pasa en los dem¨¢s pa¨ªses europeos.
P. ?Cree que el boom de la inteligencia artificial (IA) generativa ha servido como cortina de humo para la expansi¨®n de empresas como Clearview AI?
R. La gente est¨¢ muy centrada en la IA generativa, y eso ha desviado la atenci¨®n, tal vez por la forma en que esa tecnolog¨ªa amenaza nuestra privacidad. Pero en cierto modo, las preocupaciones son las mismas. El New York Times, donde trabajo, ha demandado a OpenAI por usar todos nuestros art¨ªculos sin pedir permiso. De forma similar, la base de datos de Clearview AI est¨¢ compuesta por decenas de miles de millones de im¨¢genes de nuestras caras sacadas de internet sin el consentimiento de nadie. Me preocupa mucho el reconocimiento facial combinado con la IA generativa. Puedes generar el rostro de alguien en una imagen pornogr¨¢fica o en alg¨²n tipo de situaci¨®n embarazosa y simplemente publicarlo, sabiendo que alg¨²n d¨ªa alguien buscar¨¢ a esa persona con una herramienta de reconocimiento facial y la encontrar¨¢. Escrib¨ª el libro porque quiero que la gente comprenda lo poderosa que se ha vuelto la tecnolog¨ªa de reconocimiento facial. Ahora es realmente trivial identificar a alguien y encontrar todas sus fotos en internet. Y creo que eso tiene implicaciones muy preocupantes para el futuro.
P. ?Cu¨¢l es la percepci¨®n social del reconocimiento facial en EE UU?
R. Existe una resistencia real al uso de la tecnolog¨ªa de reconocimiento facial en vivo. Los legisladores dicen que rechazan la idea de buscar personas en tiempo real en las calles, algo que est¨¢ sucediendo, por ejemplo, en el Reino Unido. Al mismo tiempo, creo que la mayor¨ªa acepta usar esta tecnolog¨ªa despu¨¦s de que se haya cometido un delito para tratar de identificar al culpable.
P. ?C¨®mo es posible que una empresa que basa su negocio en un producto construido a partir de la descarga no consentida de millones de fotograf¨ªas de rostros humanos pueda operar como si nada?
R. Cuando escrib¨ª por primera vez sobre Clearview AI, ten¨ªan 3.000 millones de fotos. Cuando termin¨¦ el libro, creo que ten¨ªan 20.000 millones. Ahora, tienen 40.000. Hay pa¨ªses que han dicho que lo que est¨¢n haciendo es ilegal. No deber¨ªan recopilar fotos de la gente sin su consentimiento, pero siguen haci¨¦ndolo y nadie los detiene. En EE UU tenemos alg¨²n precedente, por lo que esa ilegalidad no est¨¢ tan clara. Estamos viendo lo mismo con la IA generativa: ?se debe permitir a estas empresas recolectar lo que quieran y usarlo como quieran para lucrarse? Creo que esa es una de las preguntas m¨¢s importantes de nuestro tiempo.
Eric Schmidt, presidente de Google en 2011, dijo que el reconocimiento facial era la ¨²nica tecnolog¨ªa que su compa?¨ªa desarroll¨® y no lanz¨®
P. Se?ala en el libro que Google y Facebook ten¨ªan su propia tecnolog¨ªa de reconocimiento facial ya desarrollada antes que Clearview AI, pero decidieron no lanzarla.
R. Realmente me pareci¨® sorprendente. Son empresas que han sido muy escrutadas por posibles abusos de privacidad, y eso les ha hecho m¨¢s cuidadosas. Tambi¨¦n creo que estaban preocupadas por la tecnolog¨ªa en s¨ª. Sus ingenieros se alarmaron y vieron las desventajas obvias de divulgar algo as¨ª. Eric Schmidt, presidente de Google en 2011, dijo que el reconocimiento facial era hasta la fecha la ¨²nica tecnolog¨ªa que su compa?¨ªa desarroll¨® y no lanz¨®. Me ha parecido interesante, por cierto, que haya sucedido lo mismo ahora con la IA generativa: Google ten¨ªa su propio ChatGPT, pero pensaron que el mundo no estaba preparado para esto todav¨ªa.
P. ?Cree que vamos hacia una sociedad hipervigilada?
R. Vivimos en un mundo en el que hay c¨¢maras por todas partes, pero no tienen sistemas de reconocimiento facial. Creo que en Europa ten¨¦is ese debate ahora mismo: si secuestran a tu hijo o hay un fugitivo suelto, ?deber¨ªamos poder encontrarlos en tiempo real? Una vez que configuras esa infraestructura, podr¨ªa usarse de muchas otras formas. Creo que a¨²n podemos decidir si permitimos o no que este sea un mundo en el que nos rastreen por la cara todo el tiempo, cada vez que salimos de nuestras casas. Y es una decisi¨®n que hay que tomar ahora mismo.
Poder identificar a alguien y encontrar todas sus fotos en internet tiene implicaciones muy preocupantes para el futuro
P. ?C¨®mo trazamos la l¨ªnea entre lo que es un uso adecuado y no adecuado del reconocimiento facial?
R. Creo que un elemento importante ahora mismo es retroactivo versus proactivo. ?Lo usas para resolver un delito que ya se ha cometido o para tratar de prevenir delitos o encontrar personas en tiempo real? Esa es una gran brecha, es la que estamos atravesando ahora mismo. Otro punto clave es la seguridad. En Estados Unidos, si eres polic¨ªa, puedes usar reconocimiento facial para resolver cr¨ªmenes. Si eres una empresa, puedes usarlo para tratar de identificar a los ladrones de tiendas y expulsarlos. Lo que incomoda a la gente son las aplicaciones ajenas a la seguridad.
P. ?Cree que la ciudadan¨ªa se acostumbrar¨¢ y tolerar¨¢ esta tecnolog¨ªa?
R. Tendremos enfrentarnos a distintos casos de uso y ver cu¨¢n c¨®modos son. Fue muy impactante cuando en el Madison Square Garden se comenz¨® a detener en la puerta a los abogados de las marcas que les hab¨ªan demandado. La gente se dio cuenta de que el reconocimiento facial pod¨ªa usarse de una manera alarmante. Hubo un tiempo en el que se grababan las llamadas telef¨®nicas de la Casa Blanca. Se vio con todas esas cintas de Richard Nixon haciendo sus planes para el Watergate. Eso caus¨® alarma social y se aprobaron leyes que ilegalizaron las escuchas telef¨®nicas, excepto las que contaban con orden judicial. Por eso, las c¨¢maras de vigilancia solo graban v¨ªdeo y no sonido: porque decidimos que no quer¨ªamos vivir en un mundo en el que todo lo que dices quede grabado. Creo que pasar¨¢ lo mismo con nuestras caras.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.