El temor a la inteligencia artificial surge del recelo hacia los intereses econ¨®micos
Un estudio pionero apunta que el recelo hacia la tecnolog¨ªa proviene de la desconfianza hacia los intereses de quienes pagan su desarrollo y los problemas de privacidad
Es un topicazo, cuando se habla de los riesgos de la inteligencia artificial, citar el ejemplo de Skynet, el programa que decide exterminar a los humanos en Terminator. Pero se recuerda muy poco a Cyberdyne Systems, la empresa que lo desarrolla. ?Por qu¨¦ esta compa?¨ªa decide poner en marcha un proyecto tan peligroso sin estudiar a fondo las consecuencias? En la ¨²ltima d¨¦cada han surgido numerosos recelos hacia los desarrollos tecnol¨®gicos, incluidas las m¨¢quinas inteligentes, pero sabemos poco sobre c¨®mo se construye esta desconfianza. Ahora que se pretende que la inteligencia artificial entre en cada rinc¨®n de nuestras vidas, urge conocer cu¨¢l es la actitud de los ciudadanos ante esta tecnolog¨ªa decisiva. Por primera vez, un estudio ha analizado en detalle las respuestas de una gran muestra de espa?oles para descubrir por qu¨¦ desconf¨ªan de las m¨¢quinas que piensan y parece que la met¨¢fora de Cyberdyne funciona. Quienes recelan lo hacen, entre otros motivos, porque desconf¨ªan de los intereses econ¨®micos que pueda haber detr¨¢s del desarrollo de estos programas.
Un tercio cree que tiene m¨¢s riesgos que beneficios, un 38% opina lo contrario y un 28% considera que est¨¢n equilibrados
Al preguntarle a 5.200 espa?oles sobre la inteligencia artificial se descubre que un tercio cree que tiene m¨¢s riesgos que beneficios (33,3%), un 38,4% opina lo contrario y un 28,3% considera que riesgos y beneficios est¨¢n equilibrados. Pero lo m¨¢s interesante surgi¨® cuando los investigadores, de la Universidad Aut¨®noma de Madrid (UAM), analizaron esas respuestas junto con otras que los encuestados dieron sobre otros aspectos generales sobre ciencia y tecnolog¨ªa. Eso les permiti¨® hacer tres asociaciones muy claras entre los recelos que manifiesta estos espa?oles.
La primera es la relaci¨®n directa entre esta preocupaci¨®n y la que tiene que ver con la privacidad, un asunto que ha alarmado cada vez a m¨¢s gente en los ¨²ltimos a?os a partir de los numerosos esc¨¢ndalos de empresas como Facebook y Google. Precisamente, las mismas compa?¨ªas tecnol¨®gicas que en los ¨²ltimos a?os han tomado las riendas en el desarrollo de la inteligencia artificial atendiendo a sus intereses comerciales, como denuncian desde el mundo acad¨¦mico.
Esto nos lleva al segundo aspecto que destaca entre quienes desconf¨ªan de las m¨¢quinas pensantes. ¡°Se da sobre todo entre la gente que ya manifiesta una desconfianza sobre la financiaci¨®n de la ciencia, por ejemplo, y que dependiendo de qui¨¦n paga duda de que la aplicaci¨®n final vaya a ser positiva. Son gente que desconf¨ªa del uso que se le pueda dar por los intereses que pueda haber detr¨¢s¡±, resume Josep Lobera, autor principal del estudio, que se basa en los datos de la encuesta de Percepci¨®n Social de la Ciencia de Fecyt. Las mujeres en general desconf¨ªan m¨¢s.
"Quiz¨¢s habr¨ªa que alertar al 38% de la poblaci¨®n que cree que tiene m¨¢s beneficios que riesgos sobre los errores e injusticias que causa", advierte V¨¦liz
Tambi¨¦n es llamativo que los colectivos vulnerables no est¨¦n tan preocupados por las consecuencias negativas de la inteligencia artificial como cabr¨ªa esperar, incluso controlando la variable de la alfabetizaci¨®n cient¨ªfica. ¡°Los trabajadores menos especializados, los que est¨¢n m¨¢s en riesgo, no tienen una preocupaci¨®n proporcional a la situaci¨®n de riesgo en la que est¨¢n. Es como si supi¨¦ramos que viene una crecida y los que est¨¢n en la playa est¨¢n preocupados, pero no tanto como deber¨ªan, en comparaci¨®n con quienes est¨¢n en lo alto de la cumbre¡±, advierte el soci¨®logo de la UAM sobre las conclusiones de su estudio.
Adem¨¢s, no se encuentran diferencias con la percepci¨®n de la robotizaci¨®n, ¡°que se observa como un continuo: es igual un brazo rob¨®tico en la Ford que un algoritmo que se escribe una noticia¡±, afirma Lobera. Y a?ade: ¡°No distinguen del todo el concepto de m¨¢quina inteligente y mantienen actitudes muy similares hacia algoritmos, robotizaci¨®n¡ todo es lo mismo¡±.
?Google es Skynet?
?Por qu¨¦ Facebook, Google, Amazon y Microsoft gastan millones y millones en inteligencias que ganan al p¨®ker para el Pent¨¢gono y que muestran anuncios en sus plataformas? ¡°?Nos podemos fiar o son como Cyberdyne?¡±, podr¨ªan preguntarse los ciudadanos que le ponen pegas a esta tecnolog¨ªa. O sobre la pujanza que est¨¢ adquiriendo China en este campo, con investigaciones mucho m¨¢s centralizadas.
Por ese motivo, Carissa V¨¦liz, especialista en ¨¦tica digital de la Universidad de Oxford, se pregunta c¨®mo debemos usar estos resultados para cambiar la sociedad a mejor, porque no es obvio en el caso de una tecnolog¨ªa que est¨¢ en una fase tan temprana. ¡°Si la encuesta fuera sobre la vacuna para el polio, y 33% de la ciudadan¨ªa pensara que esa tecnolog¨ªa tiene m¨¢s riesgos que beneficios, estar¨ªa claro qu¨¦ hacer: campa?as de informaci¨®n¡±, explica. Pero en este caso, asegura V¨¦liz, la opini¨®n dividida de la ciudadan¨ªa parece alinearse con la divisi¨®n existente entre los expertos. ?Habr¨ªa que intentar convencer al 33% de la poblaci¨®n de que vale la pena cuando no est¨¢ claro que sea as¨ª (por lo menos en esta fase, con las maneras en las que se est¨¢ implementando)? ?O quiz¨¢s habr¨ªa que alertar al 38% de la poblaci¨®n que cree que tiene m¨¢s beneficios que riesgos sobre los errores e injusticias que ha causado y sigue causando?¡±.
¡°Los trabajadores menos especializados, los que est¨¢n m¨¢s en riesgo, no tienen una preocupaci¨®n proporcional a la situaci¨®n de riesgo en la que est¨¢n", asegura Lobera
Este es el tipo de pregunta que se hacen los que desconf¨ªan, seg¨²n los datos de Lobera. ¡°Hay una divisi¨®n muy clara: igualitaristas frente a individualistas. Los primeros, que se fijan en los riesgos de la inteligencia artificial, est¨¢n m¨¢s preocupados por la redistribuci¨®n; los segundos por un Estado demasiado intervencionista¡±, resume. ¡°Est¨¢n muy afectados por estos valores culturales, es algo muy parecido a lo que sucede con otras tecnolog¨ªas, como la energ¨ªa nuclear¡±, afirma Lobera.
¡°?La gente es consciente de que la causa por la que no obtuvo un pr¨¦stamo, o un trabajo, es por un algoritmo que no ofrece razones? No lo s¨¦. Lo dudo¡±, contin¨²a V¨¦liz. ¡°Y no porque la gente sea tonta o ignorante, sino porque no es f¨¢cil estar bien informado¡±, asegura. ¡°Podr¨ªas preguntarle a un experto mundial: ?cu¨¢ntos algoritmos han tomado decisiones sobre tu vida hoy y c¨®mo han llegado a esas decisiones? Incluso esa persona no podr¨ªa contestar la pregunta¡±, asegura la experta de Oxford. Y denuncia: ¡°El uso de algoritmos no es algo que se anuncie ni se explique. Son procedimientos a los que la ciudadan¨ªa es sometida de manera opaca¡±.
Por su parte, a la experta Nuria Oliver le parece que ¡°tiene sentido¡± esta resistencia a la entre aquellas personas que expresan una mayor preocupaci¨®n sobre la privacidad y la igualdad. Oliver, que form¨® parte del primer grupo de sabios del gobierno espa?ol en inteligencia artificial y asesora a la Comisi¨®n Europea, hace suyas las acciones propuestas en el estudio de Lobera, como mejorar la comunicaci¨®n sobre esta tecnolog¨ªa, ¡°evitando el sensacionalismo catastrofista e informando con rigor¡±, y colaborando con la ciudadan¨ªa para que se sienta involucrada y entienda mejor la tecnolog¨ªa. Y agrega: ¡°Yo a?adir¨ªa inversi¨®n en educaci¨®n en todos los niveles: educaci¨®n obligatoria, introduciendo el pensamiento computacional como asignatura troncal; la educaci¨®n a los profesionales, sobre todo a aquellos cuyas profesiones se van a ver afectadas por la inteligencia artificial; educaci¨®n a la clase pol¨ªtica, a la ciudadan¨ªa y a los medios de comunicaci¨®n¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.