Carme Artigas: ¡°Queremos impulsar un c¨®digo deontol¨®gico de los cient¨ªficos de datos¡±
La secretaria de Estado de Digitalizaci¨®n e Inteligencia Artificial conf¨ªa en la autorregulaci¨®n del sector para lograr que los algoritmos no discriminen
El presidente del Gobierno, Pedro S¨¢nchez, present¨® el mi¨¦rcoles la Estrategia Nacional de Inteligencia Artificial (ENIA), uno de los pilares de la Agenda Espa?a Digital 2025. El documento pretende sentar las reglas de juego de una tecnolog¨ªa ausente en el d¨ªa a d¨ªa del debate pol¨ªtico, pero clave para el desarrollo econ¨®mico de los pa¨ªses y con enormes implicaciones ¨¦ticas porque mal gestionada puede discriminar o perjudicar a parte de la ciudadan¨ªa.
La secretaria de Estado de Digi...
Reg¨ªstrate gratis para seguir leyendo
Si tienes cuenta en EL PA?S, puedes utilizarla para identificarte
El presidente del Gobierno, Pedro S¨¢nchez, present¨® el mi¨¦rcoles la Estrategia Nacional de Inteligencia Artificial (ENIA), uno de los pilares de la Agenda Espa?a Digital 2025. El documento pretende sentar las reglas de juego de una tecnolog¨ªa ausente en el d¨ªa a d¨ªa del debate pol¨ªtico, pero clave para el desarrollo econ¨®mico de los pa¨ªses y con enormes implicaciones ¨¦ticas porque mal gestionada puede discriminar o perjudicar a parte de la ciudadan¨ªa.
La secretaria de Estado de Digitalizaci¨®n e Inteligencia Artificial, Carme Artigas (Vilassar de Mar, 1968), ha liderado la elaboraci¨®n de la ENIA y una Carta de Derechos Digitales que establece, entre otros, el derecho a no ser perfilado o a que los datos cerebrales recogidos por las neurociencias sean de los ciudadanos. Iniciativas como estas, opina Artigas, sit¨²an a Espa?a a la vanguardia de un debate ¨¦tico-normativo que tarde o temprano todas las sociedades deber¨¢n afrontar.
Ha presentado un plan sobre un tema a que a muchos ciudadanos les suena a ciencia ficci¨®n. ?C¨®mo convencerles de que ser¨¢ un asunto crucial en sus vidas?
La inteligencia artificial es la capacidad de extraer inteligencia a partir de los muchos datos que generamos en nuestra vida cotidiana y, a partir de ellos, detectar patrones de comportamiento que nos ayuden a predecir lo que va a ocurrir. No es algo del futuro, est¨¢ embebido en nuestras vidas: est¨¢ en la capacidad de abrir el m¨®vil con reconocimiento facial o en la herramienta que nos recomienda una pel¨ªcula. Se diferencia de otras tecnolog¨ªas en que no solo automatiza o hace m¨¢s eficientes los procesos, sino que permite pensar y tomar decisiones. Por eso decimos que es la tecnolog¨ªa con mayor potencial de transformaci¨®n y crecimiento econ¨®mico.
Ser¨¢ necesario entonces un gran esfuerzo de pedagog¨ªa para explicar esta tecnolog¨ªa a los ciudadanos.
Desde luego. La IA se ve como una amenaza, pero desrobotiza al ser humano porque lo libera de las tareas repetitivas. Para abordar una transformaci¨®n tan importante hemos incluido en el plan Espa?a Digital 2025 un programa de competencias digitales, que entre otras cosas aborda la educaci¨®n primaria y secundaria y el desarrollo de m¨¢s perfiles especializados: expertos en datos, en inteligencia artificial y en ciberseguridad. Tenemos que formar 20.000 nuevos profesionales en esta tecnolog¨ªa y atraer talento externo.
El plan incluye una inversi¨®n p¨²blica de 600 millones en tres a?os, pero otros pa¨ªses cercanas han destinado cantidades mucho mayores (Francia 1.500 millones en cuatro a?os), por no hablar de China. ?Es suficiente?
Los 600 millones no incluyen otros planes que tambi¨¦n suman al impulso de la IA. Por ejemplo, el Plan Nacional de Competencias Digitales, que incluye una partida importante en formaci¨®n en distintos ¨¢mbitos universitarios, el plan de modernizaci¨®n de la administraci¨®n p¨²blica¡ Adem¨¢s habr¨¢ que sumar la cifra del fondo de capital p¨²blico privado Next Tech, que se est¨¢ articulando y que se anunciar¨¢ en un mes.
¡°Si creamos el entorno para que las empresas declaren sus algoritmos, sean transparentes y publiquen sus sesgos, podemos impulsar un sello de calidad de los algoritmos que en un primer momento sea voluntario¡±
?Es partidaria de auditar los algoritmos? ?C¨®mo y con qu¨¦ baremos?
Tiene que haber un equilibrio entre regulaci¨®n ex ante y ex post. Pensamos que no hay que regularlo todo a priori, sino generar espacios de prueba para detectar las zonas de riesgo o de discriminaci¨®n. Antes de llegar a la hiperregulaci¨®n tenemos que apoyar la autocensura o la autorregulaci¨®n. Si creamos el entorno para que las empresas declaren sus algoritmos, sean transparentes y publiquen sus sesgos, podemos impulsar un sello de calidad de los algoritmos que en un primer momento sea voluntario, hasta que tengamos clara la manera en la que los vamos a limitar. Estamos por la creaci¨®n de un sello de calidad de la IA. Hay esfuerzos a nivel europeo en este sentido, pero queremos ser los primeros, igual que queremos ser los primeros en proponer un c¨®digo deontol¨®gico de los cient¨ªficos de datos. De la misma manera que hay un juramento hipocr¨¢tico de los m¨¦dicos, deber¨ªa haber un juramento tecnocr¨¢tico de los desarrolladores de software y de dichos cient¨ªficos. Porque no solo es la ley lo que hace que las cosas no ocurran: a veces es la responsabilidad individual.
Conf¨ªan entonces en la autorregulaci¨®n de las empresas.
En una primera fase hay que aumentar la transparencia. A veces se consiguen cosas sin normativas. Administraci¨®n e industria tenemos que trabajar de manera conjunta para ir desarrollando ese sello de calidad de la IA, modelos que den confianza a la gente y que certifiquen que esos algoritmos han sido bien entrenados, que no han utilizado datos sesgados y que el resultado de esas decisiones son ponderados y no hay m¨¢s falsos positivos que falsos negativos. Debemos estar muy vigilantes para regular aquellos aspectos que son lesivos para la sociedad y donde el algoritmo introduce discriminaci¨®n.
Eso ser¨ªa una primera fase. ?Contemplan en la segunda establecer sanciones para los algoritmos que no se ajusten a lo establecido?
Soy incapaz de pensar m¨¢s all¨¢ de un a?o vista. A¨²n no sabemos lo que es una amenaza o un riesgo, eso est¨¢ por establecer. Creo que el algoritmo que toma decisiones de forma autom¨¢tica lo debe hacer sobre cuestiones muy probadas a nivel t¨¦cnico. Otras cosas, como la concesi¨®n de un cr¨¦dito bancario, deben contar con intervenci¨®n humana. No se puede automatizar el 100% de seg¨²n qu¨¦ decisiones.
?C¨®mo se puede salvaguardar el derecho a no ser perfilado que contempla la Carta de Derechos Digitales?
En primer lugar tenemos que ver si es un derecho que queremos exigir. A m¨ª que me perfilen y que eso me evite ver publicidades o que el banco me haga una oferta a mi medida quiz¨¢ me interese. El perfilado puede ser positivo si se ajusta a mis posibilidades, pero puede ser negativo si discrimina: si soy una persona de renta muy baja, no voy a poder ver ni el anuncio de un coche de alta gama. No voy a saber ni que existe, y por tanto quiz¨¢s se est¨¢ limitando mi libertad, mi derecho a elegir o a so?ar. Es ah¨ª donde tenemos que vigilar que ese perfilado no discrimine. Ahora bien, yo tengo que poder elegir si quiero publicidad general o segmentada. Y eso no puede determinar el que yo pueda o no acceder a ese servicio. El problema es que a veces si no aceptas las cookies no tienes alternativa. Es un equilibrio complicado. No hay una soluci¨®n perfecta, lo que queremos es que la carta de derechos nos lleve a hacernos preguntas que ya tocaba hacerse.
¡°Estamos abriendo el debate sobre c¨®mo revisamos derechos fundamentales que tenemos garantizados por el ordenamiento jur¨ªdico y la constituci¨®n. ?Aplican exactamente estos derechos del mundo f¨ªsico al digital o hay que salvaguardarlos de otra manera?¡±
?Propone entonces movernos hacia un modelo basado en dar el consentimiento previo?
Esa es mi visi¨®n, pero hay muchos modelos y el futuro no est¨¢ escrito. Precisamente estamos abriendo el debate sobre c¨®mo revisamos derechos fundamentales que tenemos garantizados por el ordenamiento jur¨ªdico y la constituci¨®n. ?Aplican exactamente estos derechos del mundo f¨ªsico al digital o hay que salvaguardarlos de otra manera?
El proyecto estrella de su Secretar¨ªa de Estado ha sido la aplicaci¨®n de rastreo de contactos de la covid. De momento no ha tenido demasiada efectividad a la hora de frenar los contagios. ?Ha sido un lanzamiento precipitado? ?Qu¨¦ falta para que sea eficaz?
Para nada ha sido precipitado. Es un proceso complejo que requiere tres curvas de innovaci¨®n. La primera fue la tecnol¨®gica: poner de acuerdo a los pa¨ªses europeos para desarrollar una aplicaci¨®n m¨®vil que ten¨ªa la privacidad como principio de dise?o. Faltan dos curvas por completar. Una es la de adopci¨®n de la ciudadan¨ªa: estamos en 5.600.000 descargas, antes de que hubiera habido el 100% de operatividad en todas las comunidades. Hemos lanzado una campa?a institucional pensando en Navidad, para llegar a un 20% de la poblaci¨®n, lo que permitir¨ªa frenar la pandemia un 30%. La curva m¨¢s dif¨ªcil ha sido la adopci¨®n por parte del sistema sanitario de las distintas comunidades aut¨®nomas de una innovaci¨®n tecnol¨®gica que se solapa a los procedimientos rutinarios, como los rastreadores humanos, y hacer que todo fluya en un momento de tensi¨®n de la sanidad.
La app tiene una penetraci¨®n del 10% y estamos alrededor de un 8% de c¨®digos introducidos. Para hacerlo m¨¢s transparente en las pr¨®ximas semanas publicaremos un cuadro de mando con los c¨®digos que hemos dado a las comunidades y las comunidades podr¨¢n declarar, si quieren, los c¨®digos que se han dado a los ciudadanos. Yo sigo creyendo que es una gran herramienta. Estamos a nivel de interoperabilidad europeo, es decir, que Espa?a ya recibe c¨®digos de un alem¨¢n o un checo sin que tengan que bajarse nuestra aplicaci¨®n. A¨²n vamos a convivir bastante con la pandemia y esta herramienta va a demostrar su utilidad cuando tengamos que reabrir las fronteras para la pr¨®xima temporada tur¨ªstica.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.