¡°P¨®ngame con un humano¡±: el origen de la aversi¨®n al algoritmo
Solemos preferir tratar con una persona antes que con un sistema tecnol¨®gico, incluso cuando este ofrece mejor rendimiento, pero estamos m¨¢s dispuestos a confiar en las m¨¢quinas si nos demuestran que son capaces de aprender
Entre humanos, es habitual perdonar el error ajeno y admitir el propio. ¡°El mejor escribano echa un borr¨®n¡±, dice el refranero que tan bien nos conoce. Cuando la que mete la pata es una m¨¢quina, nos volvemos inmisericordes. As¨ª lo revelan estudios como el que acaba de publicar un equipo de investigadores de las universidades de Munich y Darmstadt, en Alemania. Cuando un sistema de decisi¨®n basado en algoritmos comete un error, nuestra confianza en ellos se da?a m¨¢s que la depositamos a en personas que nos han dado el consejo equivocado. Sin embargo, esta crisis de fe tiene cura: que el modelo ...
Entre humanos, es habitual perdonar el error ajeno y admitir el propio. ¡°El mejor escribano echa un borr¨®n¡±, dice el refranero que tan bien nos conoce. Cuando la que mete la pata es una m¨¢quina, nos volvemos inmisericordes. As¨ª lo revelan estudios como el que acaba de publicar un equipo de investigadores de las universidades de Munich y Darmstadt, en Alemania. Cuando un sistema de decisi¨®n basado en algoritmos comete un error, nuestra confianza en ellos se da?a m¨¢s que la depositamos a en personas que nos han dado el consejo equivocado. Sin embargo, esta crisis de fe tiene cura: que el modelo demuestre su capacidad de aprender.
El fen¨®meno, bautizado en la academia como aversi¨®n al algoritmo, no es nuevo. ¡°En los a?os 60 hab¨ªa estudios que observaban la atenci¨®n sanitaria y las decisiones m¨¦dicas, comparando sus juicios cl¨ªnicos con aquellos basados en estad¨ªsticas. Pese a que estos m¨¦todos eran realmente precisos en sus predicciones, los humanos siempre se absten¨ªan del juicio puramente estad¨ªstico¡±, explica Benedikt Berger, autor del estudio, junto con Martin Adam, Alexander R¨¹hr y Alexander Benlian.
Los investigadores han trasladado ese modelo a la relaci¨®n entre humanos y sistemas de aprendizaje autom¨¢tico, y han encontrado una tendencia parecida. ¡°En general, somos m¨¢s reacios a confiar en algoritmos para tareas subjetivas¡±, explica Berger. Esto ocurre en el caso de los diagn¨®sticos m¨¦dicos, pero tambi¨¦n en otros marcos de decisi¨®n, como la determinaci¨®n de si un chiste es gracioso o la posibilidad de que dos personas sean pareja. ¡°Cuanto m¨¢s subjetiva es la tarea, m¨¢s ignoramos a los algoritmos¡±, precisa el investigador.
En el caso de las tareas objetivas, de entrada, estamos dispuestos a escuchar la opini¨®n de la maquina. De acuerdo con el estudio, en el que han participado casi 500 personas que han interactuado con consejeros humanos y sistemas de decisi¨®n basados en algoritmos, no hay una aversi¨®n general en estos casos. El problema llega cuando la m¨¢quina da se?ales de torpeza. ¡°Cuando empezamos a conocer el algoritmo y su rendimiento y vemos que puede fallar, que no es perfecto, surge la aversi¨®n¡±, a?ade Berger.
Una sola oportunidad
?C¨®mo se rompe la magia? El experto apunta a diferentes hip¨®tesis. Por un lado, la concepci¨®n que tenemos de los algoritmos como conjuntos de reglas fijas podr¨ªa generarnos mayores expectativas que las que tenemos ante un imperfecto humano. Por otro, esa mayor disposici¨®n a perdonar las equivocaciones de nuestros cong¨¦neres puede estar fundamentada en el reconocimiento de nuestra capacidad para aprender de los errores. Al primer traspi¨¦ de la m¨¢quina, damos por hecho que inevitablemente volver¨¢ a tropezar en la misma piedra.
¡°Pero esto no es cierto para cualquier sistema. Hay ejemplos de algoritmos que pueden aprender de resultados previos que no hayan sido ¨®ptimos¡±, matiza Berger. De acuerdo con sus investigaciones, esta habilidad podr¨ªa guardar la clave de la redenci¨®n de las m¨¢quinas. ¡°Si el sistema demuestra un rendimiento que se optimiza continuamente y la gente reconoce que est¨¢ mejorando, esto puede compensar el shock inicial¡±.
Es una relaci¨®n similar a la que tenemos con el sistema de recomendaci¨®n de Spotify. En el momento de la creaci¨®n de la cuenta es inevitable que algunas de sus sugerencias musicales nos parezcan un sinsentido. ¡°Estos sistemas necesitan observar el tipo de m¨²sica que escuchas o los art¨ªculos que compras para saber qu¨¦ ofrecerte. Es lo que se conoce como problema de arranque en fr¨ªo¡±, explica Berger.
Una manera de salvar este escollo es tratar de recabar algo de informaci¨®n al inicio. Amazon, por ejemplo, recurre a esto con sus Kindle: ofrece a cada nuevo usuario la posibilidad de introducir libros que ha disfrutado o est¨¢ interesado en leer. ¡°Otra opci¨®n es comunicar que inicialmente las sugerencias pueden no ser muy precisas y que, con el tiempo, ir¨¢n mejorando¡±, se?ala el investigador. La opci¨®n de reforzar la comunicaci¨®n, afirma, tambi¨¦n es v¨¢lida para sistemas en los que no hay aprendizaje autom¨¢tico, pero s¨ª mejoras introducidas por parte de los ingenieros. ¡°No vale una lista enorme de actualizaciones en lenguaje t¨¦cnicos¡±.
Cuesti¨®n de equilibrio
Pasarse de optimismo en la comunicaci¨®n de estas mejoras tambi¨¦n es peligroso. Es m¨¢s, nos devuelve al punto de partida. ¡°Sobreprometer es arriesgado. Y es algo que la inteligencia artificial en general ha sufrido en el pasado. Si elevas las expectativas y no las cumples, tendr¨¢s usuarios insatisfechos¡±, advierte Berger. ¡°En ciertos aspectos, puede ser peligroso. Por ejemplo, en Alemania, se le ha prohibido a Tesla llamar piloto autom¨¢tico a su sistema de conducci¨®n avanzada porque lleva a la gente a pensar que no tiene que hacer nada mientras conduce. Pero es un asistente¡±.
Tambi¨¦n hace falta equilibrio en la confianza que depositamos en los algoritmos, por muy duchos que sean en aprender de sus errores. ¡°Existe un fen¨®meno opuesto que se conoce como sobreconfianza en sistemas tecnol¨®gicos¡±, se?ala el investigador. En este extremo, las investigaciones demuestran que podemos pecar de exceso y seguir ciegamente a las m¨¢quinas hasta desenlaces que nos perjudican. Berger pone como ejemplo en los que se presentan escenarios ficticios donde los que un robot act¨²a como gu¨ªa dentro de un edificio en llamas. ¡°La gente segu¨ªa al robot incluso cuando sus indicaciones eran claramente err¨®neas. Definitivamente tenemos que ser cautos y juzgar las decisiones de los algoritmos con sano escepticismo¡±.
Puedes seguir a EL PA?S TECNOLOG?A RETINA en Facebook, Twitter, Instagram o suscribirte aqu¨ª a nuestra Newsletter.