Adela Cortina, fil¨®sofa: ¡°Me parece sumamente peligroso decir que la IA puede solucionarlo todo¡±
La pensadora reflexiona en su nuevo libro sobre nuestra relaci¨®n con la tecnolog¨ªa del momento y reclama un esp¨ªritu cr¨ªtico a la hora de valorar su aportaci¨®n a la humanidad
Adela Cortina (Valencia, 77 a?os) nunca imagin¨® que escribir¨ªa un libro sobre inteligencia artificial (IA). ¡°A quienes trabajamos en el campo de la ¨¦tica nos interesa much¨ªsimo que el conocimiento progrese. La ciencia y la t¨¦cnica, bien encaminadas, son extraordinarias para la humanidad¡±, dispara para arrancar la conversaci¨®n con EL PA?S. ¡°La cuesti¨®n es que a veces lo est¨¢n y otras no¡±. De eso va su nueva obra, ??tica o ideolog¨ªa de la inteligencia artificial? (Paid¨®s).
Catedr¨¢tica em¨¦rita de ?tica y Filosof¨ªa Pol¨ªtica de la Universidad de Valencia y Doctora Honoris Causa por ocho universidades nacionales y extranjeras, Cortina es una de las pensadoras m¨¢s conocidas de Espa?a. Fue la primera mujer en ingresar en la Real Academia de Ciencias Morales y Pol¨ªticas y es autora de m¨¢s de una treintena de libros, entre los que sobresalen Aporofobia, el rechazo al pobre (2017) o ?Para qu¨¦ sirve realmente la ¨¦tica? (Premio Nacional de Ensayo 2014). En esta ocasi¨®n, la fil¨®sofa se fija en la tecnolog¨ªa que acapara la atenci¨®n mundial desde que hace dos a?os, cuando irrumpi¨® ChatGPT.
Pregunta. ?Por qu¨¦ le preocupa la IA?
Respuesta. Creo que [Karl-Otto] Apel y [J¨¹rgen] Habermas ten¨ªan raz¨®n cuando dec¨ªan que hay tres intereses del conocimiento: el t¨¦cnico, el pr¨¢ctico y el de la emancipaci¨®n. Cuando el inter¨¦s t¨¦cnico est¨¢ regido por el pr¨¢ctico, el de la moral, lleva a una verdadera emancipaci¨®n de la sociedad. La IA es un saber cient¨ªfico-t¨¦cnico que hay que encaminar en alguna direcci¨®n. Si quienes lo controlan son grandes empresas que quieren poder econ¨®mico o pa¨ªses que quieren poder geopol¨ªtico, entonces no queda nada garantizado que sea bien usado. Si esta tecnolog¨ªa afecta a toda la humanidad, tiene que beneficiar a toda la humanidad.
P. ?Cree que el debate en torno a la IA est¨¢ ideologizado?
R. En el libro me centro en las dos posiciones principales: la de los temerosos de la IA, que creen que va a ser la fuente de todos los males, y la de los m¨¢s entusiastas, los transhumanistas y posthumanistas, que creen que la IA nos ayudar¨¢ a llegar a un mundo absolutamente feliz. Hay quien, como Ray Kurzweil [director de Tecnolog¨ªa de Google], le pone fecha: ¨¦l dice que en 2048 habremos acabado con la muerte. Eso ser¨ªa ideolog¨ªa, en el sentido tradicional del t¨¦rmino: una visi¨®n deformada de la realidad que se mantiene para perseguir determinados objetivos. Ah¨ª no se est¨¢ actuando como ¨¦tica. Me parece sumamente peligroso mentir, decir que lo vamos a solucionar todo con la IA. El peligro de esa posici¨®n es que se est¨¢ asentando sobre la autoridad que tiene la ciencia, y eso hace que la gente se lo tome en serio. Yo soy seguidora de la Escuela de Fr¨¢ncfort, que dice que la ciencia y la t¨¦cnica son una maravilla, pero que si se convierten en ideolog¨ªa, porque ya son una fuerza productiva, entonces hemos cambiado el sentido del asunto.
P. ?Qu¨¦ principios ¨¦ticos deber¨ªa regir una IA confiable?
R. La sociedad emancipada es la que est¨¢ libre de ideolog¨ªas, y para eso debe dotarse de una ¨¦tica. Los principios b¨¢sicos son el de no maleficencia (no da?ar¨¢s), el de beneficencia (har¨¢s bien), el de autonom¨ªa y el de justicia. Adem¨¢s de esos est¨¢n los principios de trazabilidad y explicabilidad, un tema complicado cuando tratamos algoritmos, y el de rendici¨®n de cuentas. Y luego est¨¢ el principio de precauci¨®n, que los europeos llevamos a gala.
P. ?Se est¨¢ legislando bien sobre este asunto?
R. A los europeos se nos suele tildar de excesivamente normativistas, pero creo que no est¨¢ mal ser cautelosos, est¨¢n en juego vidas humanas. Eso no tiene que impedir que se siga investigando. Hace falta una ¨¦tica de la responsabilidad, marcar hasta d¨®nde llegamos en la investigaci¨®n no es sencillo.
P. En el libro debate si la IA puede ser sujeto o ser¨¢ siempre una herramienta. ?Ya es momento de discutir eso?
R. Dicen los especialistas que, hoy por hoy, no hemos llegado a la inteligencia artificial general, la que ser¨ªa equiparable a la de los seres humanos. Para eso ser¨ªa necesario que tuvieran un cuerpo biol¨®gico, porque es la manera de tener significatividad, intencionalidad, etc¨¦tera. Lo que s¨ª tenemos son inteligencias artificiales especiales, capaces de hacer muy bien, incluso mejor que nosotros, ciertas tareas. Creo que es muy importante que sepamos d¨®nde estamos y que se abra un debate serio sobre eso. A d¨ªa de hoy, es un instrumento, y, por tanto, tiene que ser utilizado con unos u otros fines, pero nunca tiene que sustituir a los seres humanos. No se puede reemplazar a los profesores, ni a los jueces, ni a los m¨¦dicos por algoritmos. Los algoritmos no toman decisiones, sino que aportan resultados. Quien tiene que ser responsable de la decisi¨®n ¨²ltima es la persona. Una de las mal¨ªsimas consecuencias que podr¨ªa tener el uso de la IA es convertir a las m¨¢quinas en protagonistas de la vida. Hay que ir con much¨ªsimo cuidado porque tenemos tendencia a la comodidad, y cuando te viene dado un resultado, puedes tener la tentaci¨®n de adoptarlo sin m¨¢s.
Los algoritmos no toman decisiones, sino que aportan resultados. Una de las mal¨ªsimas consecuencias que podr¨ªa tener el uso de la IA es convertir a las m¨¢quinas en protagonistas de la vida
P. ?Tiene sentido hablar de roboeticistas o de ¨¦tica de las m¨¢quinas?
R. Desde hace un tiempo se est¨¢n intentando crear m¨¢quinas ¨¦ticas, que tengan incorporados una serie de valores. Me parece muy interesante que se puedan asumir de alguna manera esos c¨®digos, ya sea en los algoritmos que conducen veh¨ªculos o los robots que cuidan de ancianos, para que tomen decisiones sin necesidad de tener un humano encima todo el rato.
P. Dedica la ¨²ltima parte del libro a tratar la relaci¨®n entre la educaci¨®n y la IA. ?Por qu¨¦ se fija en esta actividad?
R. La educaci¨®n es la clave de nuestras sociedades, y est¨¢ muy descuidada. En China est¨¢n muy preocupados en aplicar IA a la educaci¨®n, porque dicen que si a la gente le explicamos lo de ayer, perdemos el ma?ana. Para m¨ª, el tema clave de la educaci¨®n es la justicia: hay mucha gente que no tiene acceso a estas herramientas, y eso hace que la brecha cada vez mayor. Me preocupa tambi¨¦n la autonom¨ªa. Una de las grandes tareas de la Ilustraci¨®n es potenciar la autonom¨ªa de las personas, que sepan dirigir sus propias vidas. Hemos de educar para que haya una ciudadan¨ªa cr¨ªtica, madura, que se mueva por s¨ª misma, por sus propias convicciones; que no se deje llevar como con andadores, que dec¨ªa Kant, sino que se gu¨ªe por su propia raz¨®n. Y eso es muy dif¨ªcil en un mundo en el que las plataformas est¨¢n intentando que les dediquemos mucho tiempo para recabar nuestros datos. Est¨¢n superficializando la ense?anza y haciendo que las personas sean cada vez menos aut¨®nomas. Creo que la autonom¨ªa est¨¢ en peligro, y eso es malo para la democracia.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.