Necesitamos la inteligencia artificial para sobrevivir como especie
Seis expertos reflexionan sobre c¨®mo orientar esta herramienta en nuestro beneficio
Armas aut¨®nomas que ataquen a un objetivo sin necesidad de intervenci¨®n humana, sistemas de an¨¢lisis de comportamientos capaces de influir en el voto de la sociedad o veh¨ªculos sin conductor que puedan ser hackeados para producir un accidente. La inteligencia artificial adem¨¢s de suponer una gran oportunidad para la humanidad, trae consigo una serie de riesgos. Como dijo en 2017 el f¨ªsico brit¨¢nico Stephen Hawking, ¡°puede ser lo mejor o lo peor que le suceda a la raza humana¡±. Los expertos en este sector predicen que habr¨¢ quienes intenten hacer un mal uso de esta herramienta. Pero, ?se debe dejar de usar esta tecnolog¨ªa por ello?
¡°Necesitamos la inteligencia artificial para sobrevivir como especie¡±, asegura a EL PA?S Nuria Oliver, doctora en Inteligencia Artificial por el MIT y miembro de la Real Academia de Ingenier¨ªa. Sin ella, ¡°no vamos a poder afrontar muchos de los grandes retos a los que nos enfrentamos como el cambio clim¨¢tico, el envejecimiento de la poblaci¨®n y la prevalencia de enfermedades cr¨®nicas o la disponibilidad de recursos limitados¡±.
M¨¢s de 8.000 cient¨ªficos especializados en ¨¢reas tecnol¨®gicas ¡ªcomo el fundador de Tesla, Elon Musk, o el cofundador de Apple Steve Wozniak¡ª han firmado una carta abierta publicada en 2015 que alerta de los peligros de la inteligencia artificial. Debido a su gran potencial, los expertos sostienen que es importante investigar c¨®mo aprovechar sus beneficios y evitar los riesgos potenciales. Por ello, la Comisi¨®n Europea ha nombrado este a?o un Comit¨¦ de Expertos de Alto Nivel en Inteligencia Artificial, con el fin de estudiar las implicaciones ¨¦ticas, legales y sociales de esta herramienta.
¡°El peligro de la inteligencia artificial no es la singularidad tecnol¨®gica debida a la existencia de unas hipot¨¦ticas superinteligencias artificiales. Los verdaderos problemas ya est¨¢n aqu¨ª¡±, afirma Ram¨®n L¨®pez de M¨¢ntaras. El director del Instituto de Investigaci¨®n en Inteligencia Artificial del CSIC sostiene que estos riesgos tienen que ver con la privacidad, la autonom¨ªa, la excesiva confianza acerca de las capacidades de las m¨¢quinas, el sesgo de los algoritmos de aprendizaje y la imposibilidad para rendir cuentas y justificar sus decisiones en un lenguaje comprensible para las personas.
Sonia Pacheco, directora del congreso Digital Business World Congress, distingue entre un mal uso de la inteligencia artificial ¡°no intencionado¡± y el mal uso ¡°con intencionalidad¡±. El primero puede ocurrir cuando un algoritmo es entrenado con datos sesgados y condicionados por nuestros conocimientos y prejuicios. Por ejemplo, Amazon empez¨® a desarrollar en 2014 una inteligencia artificial de reclutamiento que, bas¨¢ndose en los archivos de los ¨²ltimos 10 a?os de la compa?¨ªa, aprendi¨® que los hombres eran preferibles y empez¨® a discriminar a las mujeres.
Dilemas ¨¦ticos
¡°Las decisiones algor¨ªtmicas basadas en datos tienen el potencial de mejorar nuestra toma de decisiones¡±, sostiene Oliver. Pero cuando estas decisiones afectan a miles o millones de personas, ¡°surgen dilemas ¨¦ticos importantes¡±: ¡°?C¨®mo podemos garantizar que dichas decisiones y actuaciones no tienen consecuencias negativas para las personas? ?Qui¨¦n es responsable de dichas decisiones? ?Qu¨¦ suceder¨¢ cuando un algoritmo nos conozca a cada uno de nosotros mejor que nosotros mismos y pueda aprovechar dicho conocimiento para manipular de manera subliminal nuestro comportamiento?¡±.
Un mal uso de la inteligencia artificial ¡°con intencionalidad¡± podr¨ªa traer consigo riesgos f¨ªsicos, pol¨ªticos o de seguridad, seg¨²n Pacheco. Por ejemplo, un coche aut¨®nomo podr¨ªa ser hackeado y estrellado o usado como un arma, las fake news pueden ¡°llenar de ruido las redes sociales con el objetivo de manipular de manera dirigida a grupos de usuarios seleccionados¡± y ¡°sistemas maliciosos podr¨ªan replicar nuestra voz generando informaci¨®n falsa o generar im¨¢genes de nosotros que fueran irreales gracias a t¨¦cnicas de regeneraci¨®n de imagen¡±.
El fundador y consejero delegado de Amazon, Jeff Bezos, afirm¨® el pasado abril en el Foro sobre Liderazgo del Centro Presidencial George W. Bush que es ¡°mucho m¨¢s probable que la inteligencia artificial nos ayude¡±. Pero reconoci¨® los peligros que puede conllevar: ¡°Las armas aut¨®nomas son extremadamente aterradoras¡±.
El mayor riesgo, seg¨²n Oliver, ¡°no est¨¢ en robots f¨ªsicos sino en sistemas de software de gran escala que pueden afectar a millones de personas en muy poco tiempo¡±. ¡°Para minimizar el riesgo de que estos sistemas puedan ser hackeados, es fundamental tomar medidas de seguridad, fiabilidad, reproducibilidad, prudencia y veracidad¡±, afirma la doctora en Inteligencia Artificial por el MIT.
El papel de las compa?¨ªas tecnol¨®gicas
Para Francesca Rossi, directora de ?tica en Inteligencia Artificial de IBM, es importante que las compa?¨ªas tecnol¨®gicas apuesten por un desarrollo de esta herramienta con el prop¨®sito de aumentar la inteligencia humana y no de reemplazarla. Tambi¨¦n considera fundamental que exista un di¨¢logo constructivo en el que participen ¡°desde aquellos que se encuentran en la primera l¨ªnea de la investigaci¨®n en inteligencia artificial hasta aquellos que representan a los sectores m¨¢s vulnerables de la sociedad¡±. Precisamente Rossi forma parte del Comit¨¦ de Expertos de Alto Nivel en Inteligencia Artificial de la Comisi¨®n Europea, que no solo est¨¢ formado por expertos del ¨¢mbito de la tecnolog¨ªa, ¡°sino que se extiende a fil¨®sofos, psic¨®logos, soci¨®logos y economistas¡±.
La inteligencia artificial es transversal y puede aplicarse en diferentes campos: desde la biolog¨ªa, la f¨ªsica, la medicina o la qu¨ªmica, hasta la educaci¨®n, los sistemas de producci¨®n, la log¨ªstica y el transporte. Todos los expertos consultados coinciden en que no hay que dejar de utilizar esta herramienta. ¡°Es una cuesti¨®n de usarla adecuadamente y poner los controles necesarios para evitar su uso con fines perversos¡±, afirma Jose Mar¨ªa Luc¨ªa, socio responsable del Centro de Inteligencia Artificial y An¨¢lisis de Datos de EY Wavespace. Para detectar un problema y poner en marcha cualquier soluci¨®n hace falta dar respuesta a algunas preguntas: ¡°?C¨®mo vamos a detectar si algo est¨¢ sali¨¦ndose de los normal??Qu¨¦ hay que hacer si eso ocurre?¡±. Luc¨ªa explica por ejemplo que ¡°ha habido varios casos en el mundo burs¨¢til donde los algoritmos de inversi¨®n ante escenarios inesperados han acabado creando el caos¡±.
Algunas empresas tecnol¨®gicas ya han establecido principios b¨¢sicos para desarrollar la inteligencia artificial de forma ¨¦tica. David Carmona, director general de Desarrollo de Negocio en Inteligencia Artificial de Microsoft Corporation, explica que su compa?¨ªa se basa en seis principios b¨¢sicos: ¡°Ecuanimidad, para asegurarnos de que los algoritmos no tengan sesgos; fiabilidad, para garantizar esa confianza tecnol¨®gica; privacidad; transparencia sobre el uso de datos y funcionamiento; inclusi¨®n de todas las personas y responsabilidad de la empresa que est¨¢ detr¨¢s de esos procesos¡±.
El hecho de que la inteligencia artificial exista no quiere decir que necesariamente se vaya a hacer un mal uso de ella, seg¨²n subrayan los expertos consultados. ¡°De la misma manera que hay c¨®digos ¨¦ticos consensuados pr¨¢cticamente a nivel internacional en biomedicina y en otros ¨¢mbitos de la investigaci¨®n cient¨ªfica, se deben asentar unas bases: un c¨®digo de conducta, unos criterios ¨¦ticos y unas normas y una estructura regulatoria que impidan que se realice un mal uso¡±, concluye Pacheco.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.