Carissa V¨¦liz: ¡°La empat¨ªa, la atenci¨®n, la verdadera comunicaci¨®n y el contacto humano nos convierten en irreemplazables¡±
Especialista en privacidad y en los dilemas ¨¦ticos y pr¨¢cticos que plantean la inteligencia artificial y la econom¨ªa de datos, los libros y art¨ªculos de esta doctora en Filosof¨ªa son una referencia. Seg¨²n ella, cada d¨ªa, cada hora, se producen peque?os y grandes acontecimientos que modifican continuamente lo que entendemos por IA y sus implicaciones ¨¦ticas y pr¨¢cticas.
En una larga y discontinua conversaci¨®n digital durante varios d¨ªas, Carissa V¨¦liz defiende que redes neuronales y algoritmos, creaciones humanas a fin de cuentas, no son el enemigo. Cualquier desarrollo tecnol¨®gico implica riesgos, pero tambi¨¦n una potencia civilizadora si se orienta en la direcci¨®n adecuada. Son el af¨¢n de lucro y la falta de escr¨²pulos de la moderna econom¨ªa de datos los que socavan esa privacidad en la que centra gran parte de su reflexi¨®n. De hecho, es un campo apenas explorado por la filosof¨ªa, adem¨¢s de un instinto compartido con la mayor¨ªa de especies animales y un derecho universal que las sociedades no siempre preservan.
Mexicana de nacimiento, espa?ola y brit¨¢nica, V¨¦liz empez¨® a interesarse por ese derecho como estudiante de grado en Salamanca, cuando en los archivos universitarios recab¨® una gran cantidad de datos que desconoc¨ªa sobre su familia, empezando por sus abuelos. Quiz¨¢ esos familiares, como cualquiera de nosotros, hubiesen preferido mantener algunos de esos datos en una ¨®rbita privada, ajena al dominio p¨²blico.
V¨¦liz, que trat¨® en profundidad estas cuestiones en su ensayo Privacidad es poder. Datos, vigilancia y libertad (Debate, 2021), sostiene que el tablero donde nos jugamos el futuro ¡°se transforma cada d¨ªa, cada hora, porque no dejan de producirse peque?os y grandes acontecimientos que modifican continuamente lo que entendemos por IA y sus implicaciones ¨¦ticas y pr¨¢cticas¡±.
Entrevistarla ha resultado una experiencia peculiar. Predica con el ejemplo y propone dos condiciones. La primera, un ritmo de conversaci¨®n pausado y reflexivo, m¨¢s filos¨®fico que period¨ªstico. La segunda, hablar a trav¨¦s de Signal, la aplicaci¨®n de mensajer¨ªa instant¨¢nea que, desde su punto de vista, mejor preserva la privacidad de sus usuarios.
?C¨®mo y por qu¨¦ se despert¨® su inter¨¦s por la inteligencia artificial?
Estaba escribiendo mi tesis doctoral sobre la privacidad y quise ir un poco a los fundamentos, a su historia y sus or¨ªgenes, recurriendo tanto a la etimolog¨ªa como a la antropolog¨ªa, pero tambi¨¦n me interesaba el estado actual de la cuesti¨®n, c¨®mo la privacidad se articula en el presente. Y ah¨ª me asom¨¦ a un gran campo de estudio que tiene que ver con la econom¨ªa de datos, la inteligencia artificial y las implicaciones ¨¦ticas del uso de informaci¨®n sensible que hacen los medios digitales. En el ¨¢mbito de la IA, el sistema dominante en la actualidad es el autoaprendizaje profundo o machine learning, que se nutre de gran cantidad de datos. Una parte sustancial de esos datos son personales y comprometen de manera directa la privacidad de muchos seres humanos.
La tecnolog¨ªa no es un destino divino ni una fuerza de la naturaleza. Si la dise?amos mal, tenemos que asumirlo y corregirla
?C¨®mo ha evolucionado su opini¨®n con el tiempo?
La fui adquiriendo de manera gradual. Cuando empec¨¦ a interesarme por la privacidad, el uso de la IA no era a¨²n tan prominente, pero ya me llam¨® la atenci¨®n que las redes neuronales se basasen en la acumulaci¨®n indiscriminada de datos. As¨ª que, aplicando la m¨¢xima de las investigaciones period¨ªsticas follow the money [sigue el rastro del dinero], me propuse seguir el rastro de esos datos. Los riesgos actuales no exist¨ªan hace 20 a?os. Para empezar, ha cambiado incluso lo que definimos como IA. Algunas tecnolog¨ªas, al generalizarse su uso, han perdido ese car¨¢cter casi m¨¢gico que tendemos a atribuirles cuando son incipientes. Es el caso de los traductores digitales, en su d¨ªa fueron una de las manifestaciones de IA m¨¢s espectaculares, pero hoy apenas nos llaman la atenci¨®n porque nos hemos acostumbrado a ellos. Con la adopci¨®n universal por parte de personas e instituciones, que es lo que ha ocurrido en los ¨²ltimos a?os, aparecen los riesgos sist¨¦micos.
?Alg¨²n acontecimiento concreto ha transformado, o matizado al menos, su percepci¨®n sobre la estrecha interacci¨®n entre tecnolog¨ªa digital y privacidad?
Un punto de inflexi¨®n importante fue el esc¨¢ndalo de Cambridge Analytics, demostr¨® lo sensibles que son los datos personales y c¨®mo pueden tener un efecto pol¨ªtico. Hasta entonces, gran parte de la sociedad tend¨ªa a pensar que la exposici¨®n digital de la privacidad era algo trivial o anecd¨®tico. ChatGPT tambi¨¦n ha tenido un enorme impacto. Cuando apareci¨®, dediqu¨¦ mucho tiempo a jugar con ¨¦l y tratar de entender c¨®mo funciona. Pronto llegu¨¦ a la conclusi¨®n de que ese sistema confabula, tiene un sesgo que le conduce a hacerlo. Y lo interesante es plantearse por qu¨¦ ese sesgo, por qu¨¦ confabula, y qu¨¦ cambios se deber¨ªan introducir en los generadores de lenguaje natural para que no lo hagan.
?Y ahora? ?Aprecia alg¨²n nuevo punto de inflexi¨®n que pasa desapercibido?
Por supuesto. Cada d¨ªa cambian los algoritmos, aparecen nuevas empresas tecnol¨®gicas, cambian las regulaciones en alg¨²n lugar del mundo, y todo eso modifica las reglas del juego. Mientras converso contigo, veo que medios de comunicaci¨®n como The New York Times han interpuesto una demanda contra OpenAI por nutrir sus sistemas con informaciones que les pertenecen. En paralelo, tambi¨¦n veo que OpenAI est¨¢ llegando a acuerdos con algunos de esos medios, El Pa¨ªs entre ellos. Tambi¨¦n me llama la atenci¨®n que cada vez m¨¢s gobiernos muestran su disposici¨®n a invertir en modelos de lenguaje generativo, lo que deber¨ªa darnos una pista muy clara sobre lo importantes que han llegado a ser.
Ha formado parte del equipo de expertos reunido por el Gobierno espa?ol para elaborar una Carta de Derechos Digitales...
Ha sido una experiencia muy positiva. Los esfuerzos de regulaci¨®n democr¨¢tica siempre son complicados, forma parte de la l¨®gica de las democracias que la elaboraci¨®n de leyes sea siempre un proceso largo, hay que escuchar muchas voces y llegar a acuerdos que impliquen hacer concesiones. La democracia es imperfecta, pero es el mejor sistema pol¨ªtico que conocemos. El solo hecho de reunir a gente muy v¨¢lida, de gran cantidad de disciplinas distintas, para debatir en qu¨¦ consisten los derechos digitales y qu¨¦ puede hacerse para garantizarlos, ya me result¨® muy interesante. Al final, nos pusimos de acuerdo en una definici¨®n de la privacidad como derecho digital que no llega a lo ya previsto en la Ley General de Protecci¨®n de Datos. Yo era partidaria de ir bastante m¨¢s all¨¢: una de mis propuestas fue que los datos personales no se pudiesen comprar ni vender. No prosper¨®, pero lo fundamental es que nos pusimos de acuerdo en algo tan esencial como que existen derechos digitales fundamentados en principios ¨¦ticos. A partir de ah¨ª, hay m¨¢s preguntas que respuestas, es l¨®gico y bueno que as¨ª sea.
Dada la velocidad de los desarrollos tecnol¨®gicos, ?esos esfuerzos legislativos, tan prudentes, pueden acabar en intentos de ponerle puertas al campo?
Esa frase me resulta muy interesante. Decimos que no se puede poner puertas al campo cuando la realidad es que s¨ª se puede. El campo est¨¢ lleno de puertas, bardas y l¨ªmites. Es normal que el desarrollo tecnol¨®gico vaya mucho m¨¢s deprisa que el legislativo, porque la f¨¢brica democr¨¢tica implica pensar las cosas con calma, incluir a mucha gente en la conversaci¨®n y buscar acuerdos satisfactorios para todos. Todo eso es normal. No se podr¨ªa hacer de otra manera. Adem¨¢s, de la experiencia se aprende. Poco a poco se va legislando con mayor precisi¨®n y afinando los detalles.
En ¨²ltima instancia, ?de qu¨¦ depende que sea una oportunidad de desarrollo humano o una amenaza?
De los seres humanos, por supuesto. Demasiado a menudo se asume que la tecnolog¨ªa es algo inevitable, que es nuestro destino y solo se puede desarrollar de una manera determinada, la que han decidido sus impulsores. Pero es un invento humano y podemos dise?arla como nos vaya mejor. Va a depender, sobre todo, de que las personas encargadas de dise?arla no piensen solo en su propio beneficio, sino en el de todos. En consecuencia, resulta imprescindible incluir la ¨¦tica en la formaci¨®n de todos los profesionales, pero muy especialmente en la de ingenieros, cient¨ªficos de datos e inform¨¢ticos. Tambi¨¦n depender¨¢ de que haya suficiente competencia, porque as¨ª tendremos empresas que vean en la defensa de la privacidad una posible ventaja competitiva y nos ofrezcan mejores opciones. Es importante que los gobiernos la regulen para asegurarse de que apuntale la democracia y no la erosione. Y depender¨¢, adem¨¢s, de los ciudadanos, de nuestra capacidad de presionar a las empresas para que respeten nuestros derechos. Y de elegir bien cuando tengamos alternativas.
?Cu¨¢les son los principales obst¨¢culos a los que nos enfrentamos?
Por una parte, que la IA est¨¦ dise?ada para ahorrar dinero y solo se vea a trav¨¦s de un prisma econ¨®mico. Tambi¨¦n es un obst¨¢culo muy serio la falta de visi¨®n hist¨®rica. Estamos comprando el relato de la grandes tecnol¨®gicas, y es un relato interesado. El producto que nos est¨¢n vendiendo no tiene nada de excepcional. Nuestros padres y abuelos ya regularon en su d¨ªa industrias como las farmac¨¦uticas y las automovil¨ªsticas, y ahora nos toca a nosotros regular las tecnol¨®gicas.
Decimos que no se puede poner puertas al campo cuando la realidad es que s¨ª se puede. El campo est¨¢ lleno de puertas, bardas y l¨ªmites
?Alg¨²n avance sustancial en ese camino? ?Hay motivos para la esperanza?
Hay grandes motivos para la inquietud, sin duda. Ahora mismo, Rusia y China est¨¢n usando ChatGPT como potenciador de sus operaciones de hackeo. Pero los trabajos regulatorios en la Uni¨®n Europea marcan el camino y son muy esperanzadores. Y se ha incrementado el nivel de conciencia entre el gran p¨²blico de los riesgos que generan la hiperconectividad y el comercio de datos. Se empiezan a plantear debates como si deber¨ªamos prohibir los m¨®viles en las escuelas o incluso restringir de manera dr¨¢stica su uso entre los ni?os. Es positivo que estemos empezando a hablar de ello m¨¢s all¨¢ de las reglas que acabemos consensuando.
?La tecnolog¨ªa puede ser parte de la soluci¨®n?
Por supuesto. Pero debemos empezar por entender el desarrollo tecnol¨®gico de otra manera. Hoy llamamos desarrollo a cualquier novedad, pero algunas implican una regresi¨®n ¨¦tica. Si una tecnolog¨ªa sesgada viola los derechos humanos, estamos hablando de las consecuencias de un mal dise?o. La tecnolog¨ªa no es un destino divino ni una fuerza de la naturaleza. Si la dise?amos mal, tenemos que asumirlo y debemos corregirla.
Hoy que tanto se habla del fin de la privacidad, ?qu¨¦ pueden hacer los ciudadanos por preservarla, por resistirse a esa deriva?
Dedico a ello todo un cap¨ªtulo en mi libro. No se trata de resistir, como si fu¨¦semos soldados en una guerra. Es todo m¨¢s sencillo. Ve al ba?o e intenta colarte en el cub¨ªculo de tu vecino y ya ver¨¢s como ¨¦l no renuncia a su privacidad e insiste en protegerla. La privacidad es contextual, no se tiene o se pierde. A todos nos interesa no incurrir en comportamientos que faciliten la suplantaci¨®n de nuestra identidad o que perdamos nuestro trabajo. Siempre hay recursos, como con las dietas: que no en todas las situaciones sea posible llevar una dieta ¨®ptima no implica renunciar a la salud o atiborrarnos por sistema de grasas y az¨²car. Lo mismo ocurre con la privacidad. Siempre hay recursos para conservarla, o al menos para no perderla del todo.
?Por ejemplo?
Estamos teniendo esta conversaci¨®n por Signal porque WhatsApp recolecta decenas y decenas de datos. Signal solo conserva dos: tu n¨²mero de tel¨¦fono y la ¨²ltima vez que te conectaste. Lo mismo ocurre con Google Research, con Gmail o Dropbox: existen alternativas que no comercian con tus datos o lo hacen en menor medida. B¨²scalas. Y luego, apaga el WiFi o el Bluetooth cuando no los necesites. No es tan dif¨ªcil. Cada esfuerzo cuenta, cada hoja de lechuga que te comes va a ser mejor para tu salud que una gominola. Yo, cuando quiero tener una buena conversaci¨®n con mis alumnos, les pido que apaguemos m¨®viles, ordenadores y c¨¢maras. Y si organizo una buena fiesta en casa, va a ser mejor si todos los invitados suben sin sus dispositivos digitales y nos centramos en disfrutar la compa?¨ªa de los otros.
?Existe alg¨²n reducto de actividades genuinamente humanas en las que centrarnos si no queremos que un robot nos sustituya?
Esta pregunta pide una respuesta especulativa, porque ni siquiera sabemos a qu¨¦ vamos a llamar IA dentro de 50 a?os. Se habla de sus progresos recientes a la hora de emular la creatividad humana, pero lo cierto es que a d¨ªa de hoy alcanzan niveles mediocres, muy alejados de lo que pueden hacer los individuos verdaderamente creativos. Adem¨¢s, creo que la experiencia humana no puede reducirse a conceptos y tareas. La empat¨ªa, la atenci¨®n, la verdadera comunicaci¨®n, el contacto humano, nos convierten en irremplazables en aspectos que nada tienen que ver con el trabajo. Ya veremos c¨®mo organizamos el mercado laboral en el futuro. Pero la gran tarea del presente es, en mi opini¨®n, darle a la tecnolog¨ªa una orientaci¨®n ecol¨®gica, porque sin medio natural no hay futuro para nadie, y respetuosa con los derechos humanos. El resto es secundario y vendr¨¢ solo. Pero, como reflexi¨®n final, a m¨ª siempre va a interesarme el tipo de producci¨®n cultural creativa, pongamos una novela, en la que un ser humano comparte conmigo el valor de su propia experiencia. Ning¨²n robot puede ofrecerme eso, de la misma manera que nos siguen interesando los Juegos Ol¨ªmpicos porque nos muestran a seres biol¨®gicos con un cuerpo parecido al nuestro haciendo cosas extraordinarias, aunque existan m¨¢quinas que corran mucho m¨¢s que cualquier ser humano.