¡°La vigilancia de China podr¨ªa ser menos nociva que la de Google¡±
La investigadora, experta en filosof¨ªa y ¨¦tica de la inteligencia artificial, valora con algo de optimismo y mucha cautela los cambios de estrategia de IBM y Amazon en cuanto al reconocimiento facial
Catherine Stinson saca una clara conclusi¨®n de su experiencia como profesora de Historia y Filosof¨ªa de la Ciencia en la Universidad de Bonn: ¡°Nadie conoce la historia de la ciencia y ahora estamos viendo los resultados de esto¡±. La investigadora, experta en filosof¨ªa y ¨¦tica de la inteligencia artificial advierte de las oscuras ra¨ªces decimon¨®nicas presentes en las tecnolog¨ªas del momento y de la importancia de conocer bien sus implicaciones para, como siempre, evitar repetir la historia.
- P. IBM anuncia que abandona el reconocimiento facial, Amazon proh¨ªbe a la polic¨ªa estadounidense usar sus aproximaciones a esta tecnolog¨ªa... ?C¨®mo valora estas decisiones?
- R. Es dif¨ªcil saber qu¨¦ pensar ahora mismo. Obviamente, est¨¢n actuando en respuesta a las protestas que est¨¢n ocurriendo en Estados Unidos. Muchas compa?¨ªas est¨¢n haciendo estas muestras de solidaridad. ?Hasta d¨®nde llegan? No est¨¢ claro. Podr¨ªa pasar que Amazon dejara de vender tecnolog¨ªas de reconocimiento facial a la polic¨ªa solo durante un a?o e incluso que siguiera desarroll¨¢ndolas en este periodo. Habr¨¢ que esperar para ver si realmente es un movimiento significativo.
Parece positivo y mucha gente lo est¨¢ celebrando como una victoria para quienes han estado tratando frenar el crecimiento del reconocimiento facial, especialmente en su uso por parte de fuerzas de seguridad y gobiernos.
- P. ?Veremos otras empresas siguiendo este camino?
- R. Ahora mismo parece que est¨¢ de moda hacerlo. Supongo que no hay muchas m¨¢s compa?¨ªas que est¨¦n en la vanguardia del reconocimiento facial, as¨ª que solo unas pocas pueden hacer un manifiesto de este tipo. Un lugar en el que ciertamente se est¨¢ desarrollando esta tecnolog¨ªa, no se sabe con qu¨¦ prop¨®sito, es Facebook. Esta es una de las que falta en la lista.
- P. Si estos compromisos fueran reales, ?dir¨ªa que son una buena manera de abordar los riesgos asociados al uso del reconocimiento facial?
- R. Creo que es un buen primer paso y un reconocimiento p¨²blico de que se ha escuchado lo que se ha venido diciendo sobre los puntos cr¨ªticos de la tecnolog¨ªa de reconocimiento facial. Es algo que intento celebrar, aunque sea de forma recelosa.
- P. ?Cu¨¢l ser¨ªa el siguiente paso?
- R. Estamos bajo vigilancia, se recurra o no al reconocimiento facial. Creo que la gente se inclina a aceptar las c¨¢maras porque crean una ilusi¨®n de que vamos a estar m¨¢s seguros si tenemos grabaciones y podemos retroceder y ver exactamente lo ocurrido. Pero hay muchas maneras en las que no necesariamente nos dan m¨¢s seguridad. ?De qui¨¦n es la grabaci¨®n? ?Qui¨¦n tiene acceso a ella? Adem¨¢s, est¨¢ la cuesti¨®n de los deep fakes. En el futuro no vamos a poder depender tanto del v¨ªdeo.
- P. En China, c¨¢maras y vigilancia son parte inseparable de la vida p¨²blica...
- R. Lo que China est¨¢ haciendo con esta tecnolog¨ªa no es tan diferente de lo que hacen empresas como Amazon, Google y Facebook. Google en particular tiene una red de vigilancia bastante grande solo con Google Maps. Cualquiera que conduce a un lugar desconocido dice a Google donde est¨¢, y tambi¨¦n est¨¢n sus coches conduciendo por el mundo y sacando fotos de todo. Existe una amplia y profunda red de vigilancia que Google ha estado construyendo durante mucho tiempo. Y esto no es tan distinto de lo que hace China.
Una gran diferencia es el prop¨®sito. Al menos en China se supone que se usan para el bien com¨²n. Y al margen de que estemos de acuerdo con esa visi¨®n paternalista que tienen de c¨®mo el bien com¨²n debe imponerse, al menos buscan eso. No como Google, cuyos objetivos son enriquecer a algunas personas que ya son rid¨ªculamente ricas. La vigilancia de China podr¨ªa ser menos nociva que la de Google.
- P. En un reciente art¨ªculo profundizaba en la relaci¨®n que las tecnolog¨ªas de reconocimiento facial parecen tener con disciplinas como la desacreditada frenolog¨ªa, que durante el siglo XIX proclamaba la posibilidad de determinar las facultades mentales y rasgos personales de un individuo a partir de la forma de su cr¨¢neo. ?Est¨¢n resucitando esos prejuicios?
- R. No creo que llegaran a irse. Es alarmante que se est¨¦n literalmente reinventando pseudociencias del siglo XIX que han sido repudiadas durante mucho tiempo y que la gente usa como un ejemplo de la mala manera de hacer ciencia. M¨¢s gente deber¨ªa conocer la historia de la ciencia, especialmente en el sector tecnol¨®gico. Ahora parece que hay m¨¢s apertura a la formaci¨®n en ¨¦tica e historia en el campo de la ingenier¨ªa y las ciencias de la computaci¨®n, pero durante d¨¦cadas ha habido una resistencia activa a esto.
Con suerte, no es demasiado tarde para las pr¨®ximas generaciones, pero s¨ª parece que hace falta alg¨²n tipo de reeducaci¨®n para la gente que no accedi¨® a esto. Y no solo en Estados Unidos o en China, porque se est¨¢n publicando un mont¨®n de estudios de este tipo. Cada par de semanas aparece alg¨²n ejemplo.
- P. Por otra parte, se?alaba que no deber¨ªamos llamar frenolog¨ªa al reconocimiento facial sin saber lo que est¨¢ en juego.
- R. Me molesta esa vaga acusaci¨®n que puede ser malinterpretada. Si alguien no sabe lo que es la frenolog¨ªa, el insulto no funciona. Y no creo que ahora tengamos que ponernos a leer un pu?ado de libros del siglo XIX. Pero si somos m¨¢s espec¨ªficos en qu¨¦ es lo que est¨¢ mal con estas tecnolog¨ªas es m¨¢s ¨²til. Ser¨ªa algo mejor referirse a ello como eugenesia, porque es algo con lo que la gente est¨¢ m¨¢s familiarizada y en lo que est¨¢ m¨¢s claro cu¨¢l es el problema.
- P. ?Son estas tecnolog¨ªas m¨¢s propensas a acabar da?ando a la gente?
- R. Uno de los peligros es que es m¨¢s dif¨ªcil asignar culpas o responsabilidades?cuando es una m¨¢quina la que lo hace. Es m¨¢s dif¨ªcil se?alar a la m¨¢quina y decir que lo que est¨¢ haciendo es pol¨ªtico, sesgado o discriminatorio, porque existe una respuesta preestablecida: "Es solo un algoritmo. Los algoritmos no son racistas. Solo son matem¨¢ticas".
Hay un amplio margen para la imaginaci¨®n en cuanto al da?o que podr¨ªa hacerse con esto. Lo m¨¢s reciente que he visto en este sentido fue una aplicaci¨®n que te hace m¨¢s atractivo, y su manera de conseguirlo es hacerte parecer m¨¢s blanco, m¨¢s p¨¢lido, con una nariz m¨¢s peque?a... Esto es lo que siempre hace este tipo de tecnolog¨ªa.
- P. ?Son fen¨®menos aislados?
- R. Definitivamente no. Hay muchos ejemplos similares. Pr¨¢cticamente todos los a?os hay alg¨²n caso que no solo es enviado, sino que tambi¨¦n se acepta en las grandes conferencias. Adem¨¢s, hay empresas privadas desarrollando este tipo de cosas: sistemas de reconocimiento facial que supuestamente son capaces determinar la etnicidad de alguien a partir de su cara. En China se est¨¢n usando para determinar qui¨¦n es de la etnia Han y quien no; para detectar qui¨¦nes no son parte de la mayor¨ªa ¨¦tnica. Y compa?¨ªas de otros lugares est¨¢n desarrollando cosas parecidas. No me queda nada claro para qu¨¦ prop¨®sito leg¨ªtimo podr¨ªa utilizarse esto.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.