La inteligencia artificial no es un camino de rosas
Sistemas como el aprendizaje autom¨¢tico han llegado para quedarse. Pero ni las m¨¢quinas llegar¨¢n a ser tan listas como nosotros ni nos sustituir¨¢n
La inteligencia artificial lleva entre nosotros m¨¢s de 50 a?os, pero no ha sido hasta hace unos pocos cuando, con la mejora de la capacidad de almacenamiento y computaci¨®n de los ordenadores, est¨¢ siendo aplicable en la pr¨¢ctica.
El hecho de que la inteligencia artificial est¨¦ encapsulada en multitud aplicaciones para diferentes dominios (banca, medicina, redes sociales, tiendas virtuales, etc¨¦tera) ha contribuido a la popularidad del t¨¦rmino ¡°inteligente¡± refiri¨¦ndose al software o a los objetos. En ocasiones, transmiti¨¦ndonos una idea equivocada y haci¨¦ndonos pensar que las m¨¢quinas llegar¨¢n a ser tan inteligentes como nosotros (o incluso m¨¢s) y nos suplantar¨¢n. Aunque la realidad es muy diferente, lo que es innegable es que los sistemas inteligentes van a ser una herramienta casi omnipresente que nos va a ayudar a desempe?ar nuestras tareas.
Una de las ramas de la inteligencia artificial m¨¢s populares en la actualidad, y la que m¨¢s est¨¢ proliferando, es el aprendizaje autom¨¢tico. Su principal caracter¨ªstica es el uso de conjuntos de datos de los cuales sus algoritmos aprenden mediante un proceso denominado ¡°entrenamiento¡±. Un ejemplo de uso del aprendizaje autom¨¢tico, publicado en The Lancet, es un experimento donde los investigadores entrenaron un algoritmo con radiograf¨ªas de pacientes sanos y enfermos de c¨¢ncer, y probaron que el algoritmo era capaz de predecir la enfermedad con una mayor precisi¨®n que los radi¨®logos que participaron en el estudio.
No obstante, los datos son un arma de doble filo. Por una parte, el aprendizaje de los mismos es el que hace a los algoritmos ¡°inteligentes¡± pero, por otra parte, pueden hacer que los algoritmos presenten sesgos. Supongamos la creaci¨®n de un agente conversacional artificial (o chatbot) capaz de hablar sobre tem¨¢ticas generales. Los datos necesarios para entrenar su algoritmo son millones de conversaciones entre personas humanas, las cuales son normalmente extra¨ªdas de internet.
Numerosos intentos de creaci¨®n de chatbots han resultado racistas, hom¨®fobos, xen¨®fobos, machistas y han terminado generando un discurso de odio. Aunque hay quien acusa a los algoritmos de estar sesgados, ?hasta qu¨¦ punto podemos culparlos a ellos si aprendieron de lo que vieron?
Los primeros signos que los algoritmos presentaron atentando contra la diversidad o los grupos minoritarios tomaron a sus creadores por sorpresa, e incluso da?aron la imagen corporativa. Este es el caso de Google cuando en 2015 su aplicaci¨®n Photos confundi¨® afroamericanos con gorilas. Para evitar estos sesgos inconscientes, se est¨¢n empezando a definir una serie de pol¨ªticas que establecen qu¨¦ es ¨¦ticamente correcto y qu¨¦ no. Con estas directrices ¨¦ticas, los ingenieros definen m¨¦tricas para detectar posibles sesgos, prestan especial atenci¨®n a los datos con los que sus productos son entrenados, eligen cuidadosamente el algoritmo m¨¢s adecuado y validan su comportamiento tras el entrenamiento.
Otro de los problemas que dificulta la adopci¨®n de la inteligencia artificial viene de la mano de la falta de transparencia. Volviendo al caso m¨¦dico anterior, dada una radiograf¨ªa el algoritmo es capaz de decirnos cu¨¢l es la probabilidad de que el paciente tenga c¨¢ncer, pero no es capaz de decirnos qu¨¦ lo ha llevado a ese diagn¨®stico. Otro ejemplo con repercusi¨®n medi¨¢tica es el software COMPAS, usado en EE UU para predecir la reincidencia de criminales, el cual solo arroja una probabilidad, pero no la fundamenta.
Esta falta de transparencia no es intencionada, sino que viene dada por la naturaleza de los algoritmos. Muchos de ellos reducen el problema a complejos c¨¢lculos matem¨¢ticos, donde es pr¨¢cticamente inviable conocer el significado de sus c¨¢lculos intermedios (es decir, el porqu¨¦) y donde ¨²nicamente es posible interpretar el resultado final.
Aunque esta limitaci¨®n puede resultar irrelevante en ocasiones (por ejemplo, no es crucial conocer la raz¨®n por la cual una tienda on-line sugiere un producto), es cr¨ªtica en sistemas que influyen en la toma de decisiones en ¨¢reas como la medicina o el sistema judicial, donde una decisi¨®n equivocada o desinformada tiene importantes consecuencias.
Actualmente, hay muchas iniciativas de investigaci¨®n cuyo objetivo es proporcionar t¨¦cnicas para la extracci¨®n de informaci¨®n de estos algoritmos de tipo caja negra (opacos para el usuario), y la creaci¨®n de algoritmos nuevos que, siendo igual de efectivos, arrojen m¨¢s claridad sobre sus resultados.
A pesar de las ventajas, inconvenientes y retos de la inteligencia artificial, es innegable que ha llegado para quedarse. En comparaci¨®n con ciencias como las matem¨¢ticas o la f¨ªsica, la ingenier¨ªa inform¨¢tica es un ¨¢rea relativamente nueva y, en general, no regulada. No obstante, al igual que hace unos a?os se empez¨® a velar por la protecci¨®n de datos (lo cual dio lugar a la ley europea GDPR), ahora est¨¢n empezando a aparecer iniciativas tanto a nivel corporativo (p.ej. Google y Microsoft) como gubernamental (p.ej. Comisi¨®n Europea) para velar por el cumplimiento de la transparencia y los principios ¨¦ticos. Y, sin lugar a duda, esto es solo el principio de lo que est¨¢ por venir.
Lola Burgue?o Caballero es Investigadora Posdoctoral de la Universitat Oberta de Catalunya.
Cr¨®nicas del Intangible es un espacio de divulgaci¨®n sobre las ciencias de la computaci¨®n, coordinado por la sociedad acad¨¦mica SISTEDES (Sociedad de Ingenier¨ªa de Software y de Tecnolog¨ªas de Desarrollo de Software). El intangible es la parte no material de los sistemas inform¨¢ticos (es decir, el software), y aqu¨ª se relatan su historia y su devenir. Los autores son profesores de las universidades espa?olas, coordinados por Ricardo Pe?a Mar¨ª (catedr¨¢tico de la Universidad Complutense de Madrid) y Macario Polo Usaola (profesor titular de la Universidad de Castilla-La Mancha).
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.