Daniel Innerarity: ¡°Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles¡±
El fil¨®sofo pone en marcha una nueva c¨¢tedra de Inteligencia Artificial y Democracia para dise?ar ¡°un di¨¢logo en el que humanos y m¨¢quinas negocien escenarios aceptables¡± para aprovechar lo mejor de ambos mundos
Han pasado casi 20 a?os desde que ganara el Premio Nacional de Ensayo por La transformaci¨®n de la pol¨ªtica y, desde entonces, Daniel Innerarity se ha convertido en un analista fundamental para entender, como ¨¦l mismo se?ala, que ¡°la democracia no est¨¢ a la altura de la complejidad del mundo¡±. Hace ya unos a?os, tras leer una biograf¨ªa sobre Thomas Jefferson y su vocaci¨®n por la ciencia, comenz¨® a preguntarse qu¨¦ har¨ªa un fundador de la democracia revolucionaria como Jefferson ¡°si en lugar de artefactos y m¨¢quinas triviales tuviera delante la inteligencia artificial y los algoritmos m¨¢s automatizados¡±. Esa es la inquietud que llev¨® a este bilba¨ªno de 62 a?os a investigar sobre esa nueva complejidad derivada de la tecnolog¨ªa.
Ahora, Innerarity teje los mimbres de la nueva c¨¢tedra que dirige, de Inteligencia Artificial y Democracia, en el Instituto Europeo de Florencia, con el apoyo de la secretar¨ªa de Estado de Digitalizaci¨®n y el Instituto de Gobernanza Democr¨¢tica. Una c¨¢tedra con la que el investigador de Ikerbasque pretende renovar conceptos, porque Innerarity est¨¢ convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades derivadas de las m¨¢quinas pensantes y, por eso, surgen fricciones que tambi¨¦n amenazan a la democracia. ¡°Estamos en un momento de la historia de la humanidad en el que todav¨ªa se puede negociar, disentir, reflexionar sobre estas tecnolog¨ªas¡±, advierte en conversaci¨®n desde Florencia, antes de que se hayan solidificado y tomen decisiones sobre las que la sociedad no ha podido discutir.
Pregunta. ?C¨®mo percibe las pol¨¦micas cotidianas sobre la inteligencia artificial, como la del investigador de Google que cree que una de sus m¨¢quinas ya tiene conciencia?
Respuesta. Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las m¨¢quinas tambi¨¦n; si pagamos impuestos, tambi¨¦n, si contamos chistes, tambi¨¦n. Porque estamos hablando de dos inteligencias completamente distintas. Mi hip¨®tesis es que no va a haber una sustituci¨®n. Y tambi¨¦n vale para la democracia: no la vamos a abandonar en manos de m¨¢quinas, sencillamente porque hacen cosas muy bien, pero no precisamente la pol¨ªtica. Es una actividad hecha en medio de una gran ambig¨¹edad. Y las m¨¢quinas funcionan bien all¨¢ donde las cosas se pueden medir y computerizar, pero no funcionan bien all¨¢ donde tienes contextos, ambig¨¹edad, incertidumbre. En vez de pensar en la emulaci¨®n de los humanos por parte de las m¨¢quinas o en temer que las m¨¢quinas nos sustituyan, lo que debemos pensar es qu¨¦ cosas hacemos los humanos bien y qu¨¦ cosas hacen ellas bien, y dise?ar ecosistemas que saquen los mejores rendimientos de ambos.
Debemos pensar qu¨¦ cosas hacemos los humanos bien y qu¨¦ cosas hacen bien las m¨¢quinas, y dise?ar ecosistemas que saquen los mejores rendimientos de ambos
P. Su diagn¨®stico se aleja de la tecnofilia y la tecnofobia.
R. Hemos pasado en un a?o de pensar que la inteligencia artificial va a salvar a la pol¨ªtica a, despu¨¦s de lo de Cambridge Analytica, pensar que se va a cargar la democracia. ?Por qu¨¦ en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo contrario, como con las primaveras ¨¢rabes? Esa especie de ola de democratizaci¨®n que esper¨¢bamos internet no se ha producido. Y ahora la palabra internet la asociamos al discurso del odio, desinformaci¨®n, etc¨¦tera. Cuando ante una tecnolog¨ªa tenemos actitudes tan dispares, eso significa que no la estamos entendiendo bien. Porque es verdad que internet horizontaliza el espacio p¨²blico, acaba con la verticalidad que nos convertir¨ªa a los ciudadanos en meros espectadores o subordinados. Pero no es verdad que democratice por s¨ª misma, sobre todo porque la tecnolog¨ªa no resuelve la parte pol¨ªtica de los problemas pol¨ªticos.
P. Y lanzan esta c¨¢tedra para tratar de ponerle un poco de orden a esas ideas.
R. Hay que hacer una renovaci¨®n de conceptos. Y es aqu¨ª donde los fil¨®sofos tenemos un papel que desempe?ar. Por ejemplo, ahora se dice mucho: ?de qui¨¦n son los datos? A m¨ª me parece que el concepto propiedad es un concepto muy inadecuado para referirse a los datos, que m¨¢s que un bien p¨²blico son un bien com¨²n, algo que no se puede apropiar, sobre todo porque el nivel de recogida que yo tolero condiciona enormemente el de los dem¨¢s. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el concepto de soberan¨ªa, el concepto de poder... Hace falta una reflexi¨®n filos¨®fica acerca de unos conceptos que se est¨¢n utilizando de una manera inapropiada y que merecen una revisi¨®n. Y hay muchos centros en el mundo que lo est¨¢n reflexionando desde el punto de vista ¨¦tico y legal, y hay muy poca gente que lo est¨¢ revisando desde el punto de vista pol¨ªtico: ?cu¨¢l es la pol¨ªtica de los algoritmos, qu¨¦ impacto tiene esto en la democracia...?
P. En su reciente libro La sociedad del desconocimiento habla de los algoritmos como una nueva imprenta que viene a revolucionarlo todo.
R. El punto de inflexi¨®n se produce a partir del momento en que los humanos dise?amos m¨¢quinas que tienen vida propia, que ya no son meramente instrumentales. Cuando producimos inteligencia artificial entramos en un terreno bastante desconocido. El reparto del mundo que hab¨ªamos hecho, seg¨²n el cual los humanos somos sujetos de derechos y obligaciones y dise?amos una tecnolog¨ªa meramente pasiva, que est¨¢ sometida a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el momento en que Darwin acaba con la idea del Dios dise?ador de la creaci¨®n: nos oblig¨® a pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnolog¨ªa se est¨¢ en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las m¨¢quinas, los robots, la inteligencia artificial, deben tener un dise?o humano, tenemos que debatir sobre eso. Pero la idea de control, como la que hemos tenido cl¨¢sicamente para tecnolog¨ªas triviales, me parece que es completamente inadecuada. Lo que tenemos que hacer es establecer una especie de di¨¢logo en el que humanos y m¨¢quinas negociemos escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los valores democr¨¢ticos. La idea de controlar no va a funcionar cuando hablamos de m¨¢quinas que aprenden.
El concepto propiedad es inadecuado para referirse a los datos, que son un bien com¨²n
P. Pero es muy dif¨ªcil plantear esa negociaci¨®n cuando no sabemos qu¨¦ hay en la caja negra, no sabemos c¨®mo funcionan las cosas dentro del algoritmo.
R. Es un problema que hoy por hoy no tiene soluci¨®n f¨¢cil por varias razones. Primero, por la complejidad del asunto. Segundo, porque el algoritmo tiene una vida propia y, por tanto, tambi¨¦n es opaco para su dise?ador. Y en tercer lugar, porque la idea de auditar los algoritmos, de que haya transparencia, la entendemos, digamos, como una capacitaci¨®n individual, como aquel que firma un documento. Y yo creo que tenemos que ir a sistemas p¨²blicos que nos permitan establecer una confianza con las m¨¢quinas. Esa idea de que estos artefactos son una caja negra, como si los humanos no fu¨¦ramos tambi¨¦n cajas negras. Los algoritmos que se utilizan para decidir las pol¨ªticas penitenciarias generan muchos problemas, pero a veces se da a entender como que un algoritmo tiene sesgos y los humanos no. ?Las cabezas de los jueces no son tambi¨¦n cajas negras?
P. Pero los humanos sabemos que tenemos esos sesgos y dejamos que intervenga la m¨¢quina porque aspiramos a que est¨¦ menos sesgada.
R. Probablemente porque somos m¨¢s exigentes en relaci¨®n con la objetividad de la tecnolog¨ªa. De la tecnolog¨ªa esperamos objetividad y en el momento en que nos falla aunque sea en un grado peque?o nos resulta mucho m¨¢s intolerable que con un humano. El caso m¨¢s claro es el de los accidentes de coches aut¨®nomos. Nos producen mucho m¨¢s desasosiego que los que tenemos todos los d¨ªas en las carreteras, pero con la tecnolog¨ªa nos incomoda much¨ªsimo. Pero el accidente famoso del atropello en Arizona se hubiera producido exactamente igual si hubiera conducido un humano.
Detr¨¢s de procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos
P. Un escenario que plantea el problema de la responsabilidad, ?qui¨¦n tiene las riendas cuando act¨²an las m¨¢quinas inteligentes?
R. Es completamente inadecuado pensar que nosotros controlamos a los gobernantes, si acaso hacemos una monitorizaci¨®n, les revalidamos el mandato... Pero no les estamos controlando en todos los momentos del proceso pol¨ªtico. Hay muchas instituciones sobre las que no tenemos un control electoral, hay organismos independientes. Pues igual que en el mundo de las instituciones pol¨ªticas, en el mundo de la tecnolog¨ªa deber¨ªamos llegar a una idea de di¨¢logo con la m¨¢quina m¨¢s que de control. Cada vez conducimos coches sobre los que tenemos menos control, pero son m¨¢s seguros: mi coche no me permite dormirme al volante, adelantar sin se?alizar, frenar todo lo que quiera. El resultado final de la tecnolog¨ªa del coche es que pierdo el control absoluto, pero me ofrece a cambio una supervisi¨®n general de los procesos para que yo no me mate. Es como cuando los estados ceden soberan¨ªa en Europa. Si compartimos soberan¨ªa pol¨ªtica, ?por qu¨¦ no compartir soberan¨ªa tecnol¨®gica?
P. Hay muchas decisiones pol¨ªticas que tomar antes de dejar que las m¨¢quinas las tomen por s¨ª solas.
R. Reivindico la reflexi¨®n filos¨®fica sobre estos conceptos. ?Qu¨¦ tipo de sociedad queremos? La tecnolog¨ªa tiene el car¨¢cter de medio para un fin. La cuesti¨®n de fondo que nos deber¨ªa interesar es qu¨¦ valores, qu¨¦ democracia queremos.
P. En el libro cita a Nick Seaver: ¡°Si no ves a un humano en el proceso, tienes que mirar en un proceso m¨¢s amplio¡±. Cuando interactuamos con Alexa, no vemos al humano, pero es quien recogi¨® litio en la mina de Bolivia, est¨¢ en las granjas de clics en Asia.
R. Una de las cosas m¨¢s importantes para enfocar bien este asunto es pensar menos en contraposiciones. La tecnolog¨ªa tiene much¨ªsima m¨¢s humanidad, si me permites la provocaci¨®n, de la que los ¨¦ticos suelen reclamar. Frente a quienes conciben la tecnolog¨ªa como algo inmaterial, virtual, intangible, en el ciberespacio, en realidad es mucho m¨¢s material, con un impacto medioambiental brutal. Y esa parte material muchas veces est¨¢ fuera de nuestro ¨¢mbito de atenci¨®n. Y tiene que haber humanos en el proceso: detr¨¢s de procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos.
En esa transici¨®n laboral es posible que vayamos a tener un nuevo tipo de conflictos sociales
P. Estos procesos tecnol¨®gicos llevan a una polarizaci¨®n menos conocida que la polarizaci¨®n pol¨ªtica, que es la polarizaci¨®n laboral: el mercado de trabajo se va a dividir entre empleos cualificados y bien remunerados y otros muy b¨¢sicos y mal pagados.
R. Lo cual indica una paradoja: la promesa de la tecnolog¨ªa de liberarnos de los trabajos mec¨¢nicos no se ha cumplido. Y la otra paradoja puede ser que eso est¨¦ indicando que las m¨¢quinas no nos van a sustituir plenamente. La expectativa o el miedo de que nos sustituyan es completamente irrealista. Y eso tiene que ver con una distinci¨®n important¨ªsima entre tarea y trabajo; las m¨¢quinas hacen tareas, pero no propiamente trabajos. Y en esa transici¨®n es posible que vayamos a tener un nuevo tipo de conflictos sociales. Con el caso de la brecha digital, lo estamos viendo ahora, la revuelta de los ancianos: gente que se est¨¢ sintiendo expulsada de este espacio. Y en el fondo sabemos que vamos a ir a un mundo m¨¢s digitalizado y vamos a ahorrar mucho, porque es m¨¢s eficiente, con menos p¨¦rdida de tiempo. Pero en vez de pensar en t¨¦rminos de sustituci¨®n, tenemos que pensar qu¨¦ tareas pueden y deben ser realizadas por un robot y qu¨¦ aspectos de lo humano son irrealizables por un robot. No tanto si esto es bueno o malo. La llamada inteligencia artificial sirve para resolver cierto tipo de problemas pol¨ªticos, pero no otros. No tengamos tanto miedo a que las m¨¢quinas se hagan cargo de todas las tareas del gobierno y, en cambio, facilitemos aquellas tareas de gobernanza que puedan hacer mejor que nosotros.
P. ?Y qu¨¦ es lo que m¨¢s le preocupa en ese ¨¢mbito?
R. Lo que m¨¢s me preocupa es la falta de reflexividad. Que el entorno algor¨ªtmico nos acostumbre a que determinadas cosas se decidan de un modo sobre el cual no hemos reflexionado ni discutido suficiente. Que lo demos por garantizado, que no discutamos. ?Vamos a ir entornos algor¨ªtmicos, automatizados? Perfecto, pero que sepamos que detr¨¢s hay alg¨²n tipo de autoridad. Veamos de qu¨¦ autoridad se trata, y hagamos lo que siempre hemos hecho los humanos con toda autoridad: someterla a revisi¨®n.
Si el algoritmo no contempla un escenario abierto, no permitir¨¢ la innovaci¨®n y nos robar¨¢ el futuro
P. Sin embargo, la inteligencia artificial se est¨¢ desarrollando casi exclusivamente con el impulso de estas grandes tecnol¨®gicas. Son Facebook, Amazon, Google, etc., las que est¨¢n decidiendo qu¨¦ m¨¢quinas inteligentes tenemos, y con el ¨²nico objetivo de maximizar beneficios.
R. Estamos en un momento de la historia de la humanidad en el que todav¨ªa se puede negociar, disentir y reflexionar sobre estas tecnolog¨ªas. Es muy posible que dentro de no muchos a?os estas tecnolog¨ªas se hayan solidificado en instituciones, en procesos, en algoritmos sobre los que sea mucho m¨¢s dif¨ªcil discutir. Por eso es importante este trabajo de reflexi¨®n filos¨®fica. Hay mucha gente plante¨¢ndose la regulaci¨®n tecnol¨®gica, pero no vamos a regular bien una tecnolog¨ªa que no comprendemos porque fallan los conceptos. La reflexi¨®n tecnol¨®gica y la reflexi¨®n filos¨®fica deben ir de la mano como soportes de cualquier actividad regulatoria.
P. Critica que hay un conservadurismo impl¨ªcito en el big data, que es como preparar un plato recalentado.
R. El big data, y toda la anal¨ªtica predictiva, son muy conservadores porque se basan en el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos muy autom¨¢ticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar. Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de transformaci¨®n. Y si el algoritmo no es capaz de contemplar un escenario indeterminado, abierto, no permitir¨¢ ese elemento de innovaci¨®n, de novedad, que hay en la historia. Como dice Shoshana Zuboff, nos robar¨¢ el futuro. Cito a otra fil¨®sofa, Hannah Arendt, que dice que los seres humanos somos animales muy repetitivos y con grandes h¨¢bitos e inercias, pero tambi¨¦n somos capaces de hacer milagros, de dar lugar a cosas nuevas, de hacer algo ins¨®lito. No todos los d¨ªas, pero s¨ª de vez en cuando. Revoluciones, transformaciones, innovaciones, ruptura con la tradici¨®n, cuestionamientos, etc¨¦tera. Y en un momento de la historia de la humanidad tan singular, en el que somos muy conscientes de que tenemos que hacer grandes cambios por la crisis clim¨¢tica, la transformaci¨®n digital, la igualdad... En un momento as¨ª tendr¨ªamos que disponer de una tecnolog¨ªa que sea capaz de anticipar el futuro de verdad, desconocido, abierto, indeterminado, democr¨¢tico. O bien, tenemos que considerar que esas tecnolog¨ªas tienen unas determinadas limitaciones y trazar bien cu¨¢les son esas limitaciones, cu¨¢l es el ¨¢mbito de aplicaci¨®n de unos algoritmos, de unas tecnolog¨ªas b¨¢sicamente conservadoras. Y dejar espacios indeterminados y abiertos para la libre dimensi¨®n humana e imprevisible me parece una cuesti¨®n democr¨¢tica fundamental. Los humanos somos seres imprevisibles: buena parte de nuestra libertad se la debemos a eso y las m¨¢quinas deben reflejar bien esto.
Puedes escribir a jsalas@elpais.es, seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.